KR20230023876A - 환자의 가상 기복 모델을 생성하는 장치 및 방법 - Google Patents

환자의 가상 기복 모델을 생성하는 장치 및 방법 Download PDF

Info

Publication number
KR20230023876A
KR20230023876A KR1020210105582A KR20210105582A KR20230023876A KR 20230023876 A KR20230023876 A KR 20230023876A KR 1020210105582 A KR1020210105582 A KR 1020210105582A KR 20210105582 A KR20210105582 A KR 20210105582A KR 20230023876 A KR20230023876 A KR 20230023876A
Authority
KR
South Korea
Prior art keywords
data
patient
relief
landmark
model
Prior art date
Application number
KR1020210105582A
Other languages
English (en)
Inventor
홍헬렌
이민진
형우진
김유민
성낙준
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Priority to KR1020210105582A priority Critical patent/KR20230023876A/ko
Priority to PCT/KR2022/011757 priority patent/WO2023018138A1/ko
Priority to EP22856137.9A priority patent/EP4379740A1/en
Priority to CN202280057772.1A priority patent/CN118056247A/zh
Publication of KR20230023876A publication Critical patent/KR20230023876A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00707Dummies, phantoms; Devices simulating patient or parts of patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Urology & Nephrology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 상기 환자의 상태 데이터를 획득하는 단계-상기 상태 데이터는, 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함함-, 상기 환자의 복수의 랜드마크 데이터를 획득하는 단계-상기 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것인-, 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득하는 단계-상기 복수의 단면 영상데이터는, 상기 복수의 랜드마크 데이터가 표시된 위치의 단면이고, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역 중 적어도 하나를 포함함- 및 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성하는 단계를 포함할 수 있다.
본 발명은 서울특별시 서울산업진흥원 2020년도 인공지능 기술사업화 지원사업(CY200023) "수술 단계 표준화를 통한 인공지능 기반 환자 맞춤형 수술 내비게이션 시스템"을 통해 개발된 기술이다.

Description

환자의 가상 기복 모델을 생성하는 장치 및 방법{Apparatus and Method for Generating a Virtual Pneumoperitoneum Model}
본 발명은 환자의 가상 기복 모델을 생성하는 장치 및 방법에 관한 것이다.
최근 의료진들이 실제와 유사한 상황에서 훈련을 수행할 수 있도록 하는 장치와 소프트웨어가 필요하다. 일반적으로, 의료진을 위한 시뮬레이션 장치는 환자의 상황과 유사하게 제작한 후 훈련을 수행하는 방식이다. 이러한 시뮬레이션 장치들은 환자에게 발생하는 여러가지 상황을 제공하지 못하며 시뮬레이션 시에 현실감이 떨어지는 문제점이 존재하였다. 또한, 외과적 수술의 경우, 의료진이 실제 수술과 동일한 조건에서 시뮬레이션을 할 수 없는 문제가 존재하였다.
또한, 수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술행위를 인식할 수 있어야 한다. 기존에는 수술 프로세스를 최적화하기 위한 시나리오 구상을 위해서는 사전에 촬영된 의료영상을 참고하거나 매우 숙련된 의사의 자문을 받았으나, 의료영상만으로는 불필요한 프로세스의 판단이 어려웠으며 숙련된 의사의 자문은 특정 환자에 맞는 자문을 받기에 어려운 문제점이 있었다. 따라서, 의료영상이나 숙련된 의사의 자문은 수술대상 환자에 대한 수술프로세스의 최적화를 위한 보조 용도로는 활용되기 어려운 점이 많았다.
가상현실을 이용하여 수술 시뮬레이션을 수행하는 경우, 실제 수술 시와 동일한 조건에서 훈련을 수행하여야 수술시뮬레이션이 리허설로서의 역할을 수행할 수 있다.
특히, 최소침습수술(예를 들어, 로봇수술 또는 복강경수술)을 수행하는 경우, 실제 수술 시와 수술시뮬레이션 시에 카메라의 촬영방향이 상이하게 되면 의료진이 시뮬레이션 과정에서 확인하였던 영상과 실제 수술시에 보이는 영상이 차이남에 따라 실제 수술과 동일하게 훈련을 수행한 효과를 얻지 못할 수 있다. 즉, 복강내 구조가 복강내 구조를 확인하기 위한 카메라의 위치에 따라 상이할 수 있어서, 수술 시뮬레이션 시에 실제 수술 시와 신체 내부로 동일하게 카메라가 진입하도록 구현할 필요가 있다.
따라서, 카메라가 실제 수술 시와 동일한 영상을 수술 시뮬레이션 시에 제공하기 위해, 실제 수술 시와 동일하게 기복상태(pneumoperitoneum: 환자의 체내로 가스를 주입하여 수술이 용이하도록 환자의 배를 부풀린 상태)가 적용된 가상 기복 모델을 구현할 필요가 있다.
본 발명은 서울특별시 서울산업진흥원 2020년도 인공지능 기술사업화 지원사업(CY200023) "수술 단계 표준화를 통한 인공지능 기반 환자 맞춤형 수술 내비게이션 시스템"을 통해 개발된 기술이다.
대한민국 공개특허공보 제10-2020-0011970호
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무와 같은 상태 데이터, 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역과 같은 신체 데이터 및 기복 전 환자 복부 3D 영상데이터에 표시되는 랜드마크 데이터를 기반으로 상기 환자의 가상 기복 모델을 생성하는 것을 그 목적으로 한다.
또한, 본 발명은 환자의 실제 기복 상태가 예측된 상기 가상 기복 모델을 기반으로 수술시뮬레이션 환경을 제공함으로써, 상기 수술시뮬레이션이 실제 수술에 훌륭한 리허설 역할을 할 수 있도록 하는 것을 그 목적으로 한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명에 따른 서버의 의해 수행되는, 환자의 가상 기복 모델을 생성하는 방법에 있어서, 상기 환자의 상태 데이터를 획득하는 단계-상기 상태 데이터는, 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함함-, 상기 환자의 복수의 랜드마크 데이터를 획득하는 단계-상기 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것인-, 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득하는 단계-상기 복수의 단면 영상데이터는, 상기 복수의 랜드마크 데이터가 표시된 위치의 단면이고, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역 중 적어도 하나를 포함함- 및 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성하는 단계를 포함할 수 있다.
여기서, 상기 랜드마크 데이터 획득 단계는, 상기 환자의 상기 복부 3D 영상데이터를 기반으로 상기 환자의 배꼽을 기준으로 기 설정된 위치에 하나의 기준 랜드마크 데이터를 생성하고, 상기 기준 랜드마크 데이터를 기준으로 상기 복수의 랜드마크 데이터를 추가로 생성할 수 있다.
또한, 상기 가상 기복 모델 생성 단계는, 제1 알고리즘을 기반으로 기 저장된 복수의 기복 형태 데이터 중 상기 상태 데이터, 상기 랜드마크가 데이터 및 상기 신체 데이터와의 일치율이 가장 높은 특정 기복 형태 데이터를 선택할 수 있다.
또한, 상기 가상 기복 모델 생성 단계는, 기 저장된 복수의 기복 형태 클래스 중 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터와 가장 높은 유사도를 가지는 특정 기복 형태 클래스를 선택하고, 상기 제1 알고리즘을 기반으로, 상기 선택된 특정 기복 형태 클래스 내에서 상기 특정 기복 형태 데이터를 선택할 수 있다.
또한, 상기 기 저장된 복수의 기복 형태 클래스는, 복수의 기존 환자 별 상기 상태 데이터, 상기 신체 데이터 및 기복 형태 데이터에 대해 클러스터링하여 생성될 수 있다.
또한, 상기 가상 기복 모델 생성 단계는, 머신러닝 모델을 통해 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 가상 기복 모델을 생성할 수 있다.
또한, 상기 가상 기복 모델 생성단계는, 상기 머신러닝 모델에 의해 상기 환자에 대한 상기 랜드마크 데이터의 기복 후 위치정보를 산출하고, 상기 기복 후 위치정보를 기반으로 상기 환자의 신체 표면을 생성하여 상기 가상 기복 모델을 출력할 수 있다.
여기서, 상기 머신러닝 모델은, 복수의 기존 환자 별 상기 상태 데이터, 상기 신체 데이터, 상기 랜드마크 데이터 및 기복 후 랜드마크 데이터에 기초한 학습데이터 세트를 구축하고, 상기 구축된 학습데이터 세트를 기반으로 기계 학습되고, 상기 기복 후 랜드마크 데이터는 기존 환자의 수술 시 실제 기복 결과를 바탕으로 획득된 것일 수 있다.
또한, 상기 신체 데이터 획득 단계는, 지방 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 상기 지방 영역을 획득하고, 근육 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 상기 근육 영역을 획득할 수 있다.
여기서, 상기 지방 추출 모델은, 복부 의료영상데이터에서 지방 영역만을 관심영역으로 지정하여 트레이닝된 머신러닝 모델이고, 상기 근육 추출 모델은, 복부 의료영상데이터에 근육 영역만을 관심영역으로 지정하여 트레이닝된 머신러닝 모델일 수 있다.
또한, 상술한 과제를 해결하기 위한 본 발명에 따른 하드웨어인 서버와 결합되어, 환자의 가상 기복 모델을 생성하는 방법을 실행시키기 위한 컴퓨터 프로그램에 있어서, 상기 컴퓨터 프로그램은, 상기 환자의 상태 데이터를 획득하는 단계-상기 상태 데이터는, 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함함-, 상기 환자의 복수의 랜드마크 데이터를 획득하는 단계-상기 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것인-, 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득하는 단계-상기 복수의 단면 영상데이터는, 상기 복수의 랜드마크 데이터가 표시된 위치의 단면이고, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역 중 적어도 하나를 포함함- 및 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성하는 단계를 수행할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 장치, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
상기와 같은 본 발명에 따르면, 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무와 같은 상태 데이터, 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역과 같은 신체 데이터 및 기복 전 환자 복부 3D 영상데이터에 표시되는 랜드마크 데이터를 기반으로 상기 환자의 가상 기복 모델을 생성함으로써 상기 환자의 실제 기복 상태를 정확도 높게 예측할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 환자의 가상 기복 모델을 생성하기 위한 장치를 설명하기 위한 도면이다.
도 2는 본 발명에 따는 복수의 랜드마크 데이터를 설명하기 위한 예시도이다.
도 3은 본 발명에 따른 단면 영상데이터 내의 환자의 신체에 대한 높이와 넓이의 비율을 나타낸 예시도이다.
도 4는 본 발명에 따른 단면 영상데이터 내의 환자의 신체에 대한 피부 둘레를 나타낸 예시도이다.
도 5는 본 발명에 따른 단면 영상데이터 내의 환자의 신체의 전방-후방에 대한 거리를 나타낸 예시도이다.
도 6은 본 발명에 따른 단면 영상데이터 내의 지방 영역을 나타낸 예시도이다.
도 7은 본 발명에 따른 단면 영상데이터 내의 근육 영역을 나타낸 예시도이다.
도 8은 본 발명에 따른 기 저장된 기복 형태 클래스를 생성하는 것을 설명하기 위한 도면이다.
도 9는 본 발명에 따른 기복 형태 클래스 중 제1 클래스에 포함되는 기복 형태 데이터를 나타낸 예시도이다.
도 10은 본 발명에 따른 기복 형태 클래스 중 제2 클래스에 포함되는 기복 형태 데이터를 나타낸 예시도이다.
도 11은 본 발명에 따른 기복 형태 클래스 중 제3 클래스에 포함되는 기복 형태 데이터를 나타낸 예시도이다.
도 12는 본 발명에 따른 기 저장된 기복 형태 클래스를 기반으로 가상 기복 모델을 생성하는 것을 설명하기 위한 도면이다.
도 13은 본 발명에 따른 가상 기복 모델을 생성하는 것을 설명하기 위한 예시도이다.
도 14는 본 발명에 따른 환자의 가상 기복 모델을 생성하는 과정을 나타낸 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명에 따른 환자의 가상 기복 모델을 생성하기 위한 장치(10)를 설명하기 위한 도면이다.
도 2는 본 발명에 따는 복수의 랜드마크 데이터를 설명하기 위한 예시도이다.
도 3은 본 발명에 따른 단면 영상데이터 내의 환자의 신체에 대한 높이와 넓이의 비율을 나타낸 예시도이다.
도 4는 본 발명에 따른 단면 영상데이터 내의 환자의 신체에 대한 피부 둘레를 나타낸 예시도이다.
도 5는 본 발명에 따른 단면 영상데이터 내의 환자의 신체의 전방-후방에 대한 거리를 나타낸 예시도이다.
도 6은 본 발명에 따른 단면 영상데이터 내의 지방 영역을 나타낸 예시도이다.
도 7은 본 발명에 따른 단면 영상데이터 내의 근육 영역을 나타낸 예시도이다.
도 8은 본 발명에 따른 기 저장된 기복 형태 클래스를 생성하는 것을 설명하기 위한 도면이다.
도 9는 본 발명에 따른 기복 형태 클래스 중 제1 클래스에 포함되는 기복 형태 데이터를 나타낸 예시도이다.
도 10은 본 발명에 따른 기복 형태 클래스 중 제2 클래스에 포함되는 기복 형태 데이터를 나타낸 예시도이다.
도 11은 본 발명에 따른 기복 형태 클래스 중 제3 클래스에 포함되는 기복 형태 데이터를 나타낸 예시도이다.
도 12는 본 발명에 따른 기 저장된 기복 형태 클래스를 기반으로 가상 기복 모델을 생성하는 것을 설명하기 위한 도면이다.
도 13은 본 발명에 따른 가상 기복 모델을 생성하는 것을 설명하기 위한 예시도이다.
이하, 도 1 내지 도 13을 참조하여, 본 발명에 따른 환자의 가상 기복 모델을 생성하기 위한 장치(10)에 대해서 설명하도록 한다.
본 발명에 따른 장치(10)는 상기 환자의 상태 데이터를 획득하고, 상기 환자의 복수의 랜드마크 데이터를 획득하고, 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득하고, 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성할 수 있다.
구체적으로, 최소침습수술(예를 들어, 복강경 수술 또는 로봇 수술)을 수행하는 경우, 신체를 관통한 트로카(Trocar)를 통해 신체 내부에 진입한 카메라를 통해 신체 내부의 일부 범위를 확인하면서 다른 위치에 삽입된 하나 이상의 트로카(Trocar)를 통해 진입한 수술도구로 수술을 수행할 수 있다.
이때, 수술도구가 신체 내부에서 움직일 공간을 확보하기 위해 최소 침습 수술 시에는 신체 내부(예를 들어, 복부 수술을 수행하는 경우에 복벽 사이 공간)에 기 설정된 기체(예를 들어, 이산화탄소)를 주입할 수 있다.
의료진은 실제 수술 전에 미리 수술을 시뮬레이션 수행하여 실제 수술 시에 발생할 수 있는 다양한 변수에 대한 대비책을 확보하길 원하고, 이에 대한 대비책으로써, 실제 수술과 동일한 가상 수술 환경 내에서 가상의 수술 시뮬레이션을 제공할 수 있다.
최소 침습 수술은 신체 내부에 삽입된 카메라(즉, 내시경)만으로 확인하면서 수술을 하게 되므로, 의료진이 가상 시뮬레이션을 진행 시에 전혀 다른 위치 또는 방향으로 표시된 영상으로 연습을 한 후에 실제 수술을 진행하게 되면, 의료진에게 실제 수술 시에 제공되는 영상이 전혀 다르기 때문에 연습 효과를 전혀 얻을 수 없다. 특히, 신체 수술 시의 환자 신체 상태와 동일하게 가상신체모델을 모델링을 수행하더라도, 카메라가 상이한 위치 또는 방향으로 진입하게 되면 전혀 다른 영상을 보면서 연습을 수행하여 연습효과를 얻을 수 없다.
환자 신체에 기복 상태가 적용되면 신체 표면(예를 들어, 복부)의 형상이 변형됨에 따라, 기복되지 않은 3차원 신체모델에 기복된 신체 표면과 동일한 위치를 지정하더라도, 카메라가 삽입되는 각도가 달라지게 된다.
따라서, 수술 시뮬레이션을 수행하기 위한 가상신체모델 생성 시에 실제 수술 시와 동일하게 기복상태가 적용된 가상 기복 모델을 구현할 필요가 있다.
이하에서는, 환자의 가상 기복 모델을 생성하기 위한 장치(10)가 수행할 수 있는 가상 기복 모델 생성 방법에 대해여 설명한다.
장치(10)는 환자의 상태 데이터, 랜드마크 데이터 및 신체 데이터를 기반으로 상기 환자의 가상 기복 모델을 생성함으로써 상기 환자의 실제 기복 상태를 정확도 높게 예측할 수 있는 효과를 가질 수 있다.
구체적으로, 장치(10)는 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무와 같은 상태 데이터, 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역과 같은 신체 데이터 및 기복 전 환자 복부 3D 영상데이터에 표시되는 랜드마크 데이터를 기반으로 상기 환자의 가상 기복 모델을 생성함으로써 상기 환자의 실제 기복 상태를 정확도 높게 예측할 수 있다.
이러한, 장치(10)는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다.
여기서, 장치(10)는 컴퓨터의 형태가 될 수 있다. 보다 상세하게는, 상기 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다.
예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다.
또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.
그리고, 장치(10)는 통신부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 여기서, 장치(10)는 도 1에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수 있다.
통신부(110)는 장치(10)와 외부 장치(미도시), 장치(10)와 외부 서버(미도시) 사이 또는 장치(10)와 통신망(미도시) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
여기서, 외부 장치(미도시)는 의료영상데이터(이하, 복부 3D 영상데이터)를 촬영하는 의료영상 촬영장비일 수 있다. 여기서, 의료영상데이터는 상기 환자의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함할 수 있다.
또한, 의료영상데이터는 컴퓨터 단층촬영(Computed Tomography; CT)영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 중 적어도 하나를 포함할 수 있다.
또한, 외부 서버(미도시)는 복수의 환자에 대한 환자별 의료 데이터를 저장하는 서버일 수 있다.
또한, 통신망(미도시)은 장치(10), 외부 장치(미도시) 및 외부 서버(미도시) 간의 다양한 정보를 송수신할 수 있다. 통신망은 다양한 형태의 통신망이 이용될 수 있으며, 예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다.
한편, 통신망은 상기에 제시된 통신방식에 한정되는 것은 아니며, 상술한 통신방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.
통신부(110)는 장치(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
메모리(120)는 장치(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 메모리(120)는 장치(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 장치(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 장치(10)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 메모리(120)에 저장되고, 장치(10) 상에 설치되어, 프로세서(130)에 의하여 상기 장치(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
또한, 메모리(120)는 본 발명에 따른 가상 기복 모델을 생성하기 위한 복수의 프로세스를 구비할 수 있다. 여기서, 상기 복수의 프로세스는 프로세서(130)에 대한 동작을 설명할 때 후술하도록 한다.
프로세서(130)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 장치(10)의 전반적인 동작을 제어할 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 프로세서(130)는 메모리(120)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(130)는 상기 응용 프로그램의 구동을 위하여, 장치(10)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작 시킬 수 있다.
프로세서(130)는 상기 환자의 상태 데이터를 획득할 수 있다. 여기서, 프로세서(130)는 복수의 프로세스 중 제1 프로세스를 기반으로 상기 환자의 상태 데이터를 외부 서버(미도시) 또는 상기 메모리(120)로부터 획득할 수 있다.
여기서, 상기 상태 데이터는, 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함할 수 있다.
이러한, 상기 상태 데이터는, 상기 환자의 복부를 기복하는 경우, 기복 형성에 영향을 미칠 수 있는 임상 정보일 수 있다.
프로세서(130)는 상기 환자의 복수의 랜드마크 데이터를 획득할 수 있다. 여기서, 프로세서(130)는 복수의 프로세스 중 제2 프로세스를 기반으로 상기 환자의 복수의 랜드마크 데이터를 획득할 수 있다.여기서, 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것일 수 있다. 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 랜드마크가 맵핑된 데이터이거나, 랜드마크 각각의 좌표 데이터일 수 있다.
이러한, 상기 복수의 랜드마크 데이터는 기복을 형성하기 위해 해당 랜드마크를 중심으로 배를 부풀리는 용도로 사용하거나, 기복 형성 후 얼마나 변형이 되었는지를 측정할 수 있는 기준 포인트로 사용될 수 있다.
보다 상세하게는, 프로세서(130)는 상기 환자의 상기 복부 3D 영상데이터를 기반으로 상기 환자의 배꼽을 기준으로 기 설정된 위치에 하나의 기준 랜드마크 데이터를 생성하고, 상기 기준 랜드마크 데이터를 기준으로 상기 복수의 랜드마크 데이터를 추가로 생성할 수 있다.
여기서, 상기 복수의 랜드마크 데이터는 장치(10)를 통해 사용자가 직접 생성하거나, 장치(10)에서 배꼽을 중심으로 기 설정된 간격(예컨대, 5cm)으로 자동 생성될 수 있다. 여기서, 사용자는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
도 2를 보면, 프로세서(130)는 제1 환자의 복부 3D 영상데이터(20)를 기반으로 상기 제1 환자의 배꼽을 기준으로 기 설정된 위치에 하나의 기준 랜드마크 데이터(201)를 생성할 수 있다.
이후, 프로세서(130)는 상기 기준 랜드마크 데이터(201)를 기준으로 상기 복수의 랜드마크 데이터를 추가로 생성할 수 있다.
여기서, 프로세서(130)는 상기 기준 랜드마크 데이터(201)를 기준으로 기 설정된 등간격으로 상기 복수의 랜드마크 데이터를 추가로 생성할 수 있으나, 반드시 이에 한정되는 것은 아니다.
프로세서(130)는 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득할 수 있다. 여기서, 프로세서(130)는 복수의 프로세스 중 제3 프로세스를 기반으로 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득할 수 있다.
여기서, 상기 복수의 단면 영상데이터는 상기 복수의 랜드마크 데이터가 표시된 각각의 위치들 중 어느 하나의 위치의 단면에 대한 영상데이터가 될 수 있고, 또는 둘 이상의 위치들을 하나로 이은 부분의 단면에 대한 영상데이터일 수도 있다.
여기서, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역 중 적어도 하나를 포함할 수 있다.
여기서, 상기 신체 전방-후방에 대한 거리는 배꼽 부분의 전방에서 등 부분의 후방까지의 거리일 수 있다.
도 3을 보면, 프로세서(130)는 위의 과정에서 생성되는 복수의 단면 영상데이터를 기반으로 상기 환자의 신체에 대한 높이(301) 및 넓이(302)의 비율을 획득할 수 있다. 여기서, 상기 높이(301) 및 넓이(302)의 비율은 상기 단면 영상데이터가 획득되는 위치 별로 다를 수 있다. 또는, 상기 높이(301) 및 넓이(302)의 비율은 환자 별로 다를 수 있다.
도 4를 보면, 프로세서(130)는 상기 복수의 단면 영상데이터를 기반으로 상기 환자의 신체에 대한 상기 피부 둘레(401)를 획득할 수 있다. 여기서, 상기 환자의 신체에 대한 상기 피부 둘레(401)는 상기 단면 영상데이터가 획득되는 위치 별로 다를 수 있다. 또는, 상기 환자의 신체에 대한 상기 피부 둘레(401)는 환자 별로 다를 수 있다.
도 5를 보면, 프로세서(130)는 상기 복수의 단면 영상데이터를 기반으로 상기 환자의 신체에 대한 상기 신체의 전방-후방에 대한 거리를 획득할 수 있다. 여기서, 상기 환자의 신체에 대한 상기 신체의 전방-후방에 대한 거리는 환자 별로 다를 수 있다.
도 6을 보면, 프로세서(130)는 메모리(120)에 구비된 지방 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 제1 환자의 신체에 대한 상기 지방 영역(601)을 획득할 수 있다. 여기서, 상기 제1 환자의 신체에 대한 상기 지방 영역(601)은 상기 단면 영상데이터가 획득되는 위치 별로 다를 수 있다.
또한, 프로세서(130)는 상기 지방 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 제2 환자의 신체에 대한 상기 지방 영역(602)을 획득할 수 있다. 여기서, 상기 제2 환자의 신체에 대한 상기 지방 영역(602)은 상기 단면 영상데이터가 획득되는 위치 별로 다를 수 있다.
이러한, 상기 환자의 신체에 대한 상기 지방 영역은 환자 별로 다를 수 있다.
여기서, 지방 영역은 내장 지방 영역 및 피하 지방 영역 중 적어도 하나를 포함할 수 있다.
여기서, 상기 지방 추출 모델은, 복부 3D 영상데이터에서 지방 영역만을 관심영역으로 지정하여 트레이닝된 머신러닝 모델일 수 있다.
이러한, 머신러닝 모델은, 콘볼루션 뉴럴 네트워크(Convolutional Neural Network, 이하 CNN이라고 명칭함)를 포함할 수 있으나 반드시 이에 한정되지 않고, 다양한 구조의 신경망으로 형성될 수 있다.
도 7을 보면, 프로세서(130)는 메모리(120)에 구비된 근육 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 제1 환자의 신체에 대한 상기 근육 영역(701)을 획득할 수 있다. 여기서, 상기 제1 환자의 신체에 대한 상기 근육 영역(701)은 상기 단면 영상데이터가 획득되는 위치 별로 다를 수 있다.
또한, 프로세서(130)는 상기 근육 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 제2 환자의 신체에 대한 상기 근육 영역(702)을 획득할 수 있다. 여기서, 상기 제2 환자의 신체에 대한 상기 근육 영역(702)은 상기 단면 영상데이터가 획득되는 위치 별로 다를 수 있다.
이러한, 상기 환자의 신체에 대한 상기 근육 영역은 환자 별로 다를 수 있다.
여기서, 근육 추출 모델은, 복부 3D 영상데이터에서 근육 영역만을 관심영역으로 지정하여 트레이닝된 머신러닝 모델일 수 있다.
이러한, 머신러닝 모델은, 콘볼루션 뉴럴 네트워크(Convolutional Neural Network, 이하 CNN이라고 명칭함)를 포함할 수 있으나 반드시 이에 한정되지 않고, 다양한 구조의 신경망으로 형성될 수 있다.
프로세서(130)는 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성할 수 있다.
여기서, 프로세서(130)는 복수의 프로세스 중 제4 프로세스를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성할 수 있다.
보다 상세하게는, 프로세서(130)는 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 기 저장된 복수의 기복 형태 클래스 또는 머신러닝 모델을 통해 상기 가상 기복 모델을 생성할 수 있다.
먼저, 프로세서(130)는 제1 알고리즘을 기반으로 기 저장된 복수의 기복 형태 데이터 중 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터와의 일치율이 가장 높은 특정 기복 형태 데이터를 선택하여 상기 가상 기복 모델을 생성할 수 있다.
여기서, 프로세서(130)는 복수의 기존 환자 별 상기 상태 데이터, 상기 신체 데이터 및 기복 형태 데이터가 많아지는 경우, 이러한 데이터에 대해 클러스터링 하여 복수의 기복 형태 클래스를 생성할 수 있다.
여기서, 기복 형태 데이터는, 실제 기존 환자 별 기복 후 환자의 신체를 3D 스캔하여 생성한 상기 환자의 실제 기복 형태 데이터일 수 있다.
즉, 도 8을 보면, 프로세서(130)는 복수의 기존 환자 별 상기 상태 데이터, 상기 신체 데이터 및 기복 형태 데이터에 대해 k-평균 군집화(k-mean clustering) 알고리즘을 통해 클러스터링하여 k개(예컨대, k=3인 경우)의 기복 형태 클래스를 생성할 수 있다.
여기서, 클러스터링을 위해 사용되는 알고리즘은 k-평균 군집화(k-mean clustering) 알고리즘, adaptive breaking detection 클러스터링 알고리즘 및 허프 변환(Hough Transform) 알고리즘 중 적어도 하나를 포함할 수 있다.
즉, 프로세서(130)는 기존 환자 별 상기 상태 데이터, 상기 신체 데이터 및 기복 형태 데이터가 많아진 경우, 특정 알고리즘(일 예로, k-평균 군집화(k-mean clustering) 알고리즘)을 통해 상기 복수의 기복 형태 클래스를 생성할 수 있다.
여기서, 도 9에 도시된 복수의 기복 형태 데이터는, 기복 형태 클래스가 3개인 경우, 제1 클래스(클래스 1)에 포함되는 기존 환자 별 기복 형태 데이터일 수 있다. 즉, 제1 클래스에 포함되는 복수의 기존 환자의 경우, 상태 데이터, 랜드마크 데이터, 신체 데이터가 유사한 하나의 클래스로 분류된 환자일 수 있다.
또한, 도 10에 도시된 복수의 기복 형태 데이터는, 기복 형태 클래스가 3개인 경우, 제2 클래스(클래스 2)에 포함되는 기존 환자 별 기복 형태 데이터일 수 있다. 즉, 제2 클래스에 포함되는 복수의 기존 환자의 경우, 상태 데이터, 랜드마크 데이터, 신체 데이터가 유사한 하나의 클래스로 분류된 환자일 수 있다.
또한, 도 11에 도시된 복수의 기복 형태 데이터는, 기복 형태 클래스가 3개인 경우, 제3 클래스(클래스 3)에 포함되는 기존 환자 별 기복 형태 데이터일 수 있다. 즉, 제3 클래스에 포함되는 복수의 기존 환자의 경우, 상태 데이터, 랜드마크 데이터, 신체 데이터가 유사한 하나의 클래스로 분류된 환자일 수 있다.
이에 따라, 프로세서(130)는 복수의 기존 환자 별 데이터가 유사도에 따라 클래스 별로 클러스터링됨으로 데이터가 많아진 경우, 먼저 가장 유사한 클래스를 찾고 그 다음에 가장 유사한 클래스에서 신규 환자와 가장 유사한 기복 형태 데이터를 선택함으로 빠르게 상기 기복 형태 데이터를 선택할 수 있는 효과를 가질 수 있다.
따라서, 도 12를 보면, 프로세서(130)는 기 저장된 복수의 기복 형태 클래스 중 상기 상태 데이터, 상기 신체 데이터 및 상기 랜드마크가 맵핑된 의료영상 데이터와 가장 높은 유사도를 가지는 특정 기복 형태 클래스를 선택할 수 있다.
구체적으로, 프로세서(130)는 기 저장된 복수의 기복 형태 클래스 중 SVM(Support Vector Machine) 분류 모델을 기반으로 상기 환자에 대한 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터와 가장 높은 유사도를 가지는 상기 특정 기복 형태 클래스 선택할 수 있다.
그리고, 프로세서(130)는 상기 제1 알고리즘을 기반으로, 상기 선택된 특정 기복 형태 클래스 내에서 상기 특정 기복 형태 데이터를 선택할 수 있다.
구체적으로, 프로세서(130)는 코사인 유사도 알고리즘을 기반으로, 상기 선택된 특정 기복 형태 클래스 내에서 상기 환자와의 상기 상태 데이터, 상기 신체 데이터 및 상기 특정 기복 형태 데이터가 가장 유사한 상기 특정 기복 형태 데이터를 선택할 수 있다.
즉, 프로세서(130)는 상기 코사인 유사도 알고리즘을 기반으로 상기 선택된 특정 기복 형태 클래스 내에서 상기 환자와의 상기 상태 데이터, 상기 신체 데이터 및 상기 특정 기복 형태 데이터에 대한 코사인 유사도가 가장 높은 상기 특정 기복 형태 데이터를 선택할 수 있다.
여기서, 상기 코사인 유사도 알고리즘에 대한 수식은 이하의 [수식 1]으로 설명될 수 있다.
[수식 1]
Figure pat00001
여기서, A는 상기 환자 데이터에 대한 상기 상태 데이터와 상기 신체 데이터에 대한 벡터이고, B는 선택된 특정 클래스 내의 데이터에 대한 상기 상태 데이터와 상기 신체 데이터에 대한 벡터일 수 있다.
따라서, 분모 부분은 각각 벡터의 크기를 나타내며, 분자 부분은 두 벡터 간의 곱으로 계산될 수 있다. 두 벡터가 일치할 경우, 상기 코사인 유사도는 1의 값을 갖게 되고, 서로 다른 경우일수록 상기 코사인 유사도는 0의 값을 갖게 될 수 있다.
다음으로, 프로세서(130)는 머신러닝 모델을 통해 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 가상 기복 모델을 생성할 수 있다.
여기서, 머신러닝 모델은, 콘볼루션 뉴럴 네트워크(CNN, Convolutional Neural Network, 이하 CNN이라고 명칭함)를 포함할 수 있으나 반드시 이에 한정되지 않고, 다양한 구조의 신경망으로 형성될 수 있다.
보다 상세하게는, 프로세서(130)는 상기 머신러닝 모델에 의해 상기 환자에 대한 상기 랜드마크 데이터의 기복 후 위치정보를 산출할 수 있다.
구체적으로, 프로세서(130)는 상기 머신러닝 모델 중 회귀모델을 기반으로 상기 환자에 대한 상기 랜드마크 데이터의 기복 후 위치정보를 산출할 수 있다.
여기서, 상기 회귀모델에 대한 수식은 이하의 [수식 2]으로 설명될 수 있다.
[수식 2]
Figure pat00002
여기서, y는 상기 랜드마크 데이터의 기복 후 위치정보, x(독립변수)는 상태 데이터와 신체 데이터, p는 상기 상태 데이터와 상기 신체 데이터의 총 개수, β(베타)는 상기 x(독립변수)에 대한 영향력을 나타내는 정보일 수 있다.
보다 상세하게는, 프로세서(130)는 상기 회귀모델의 훈련 데이터를 기반으로 β(베타)를 산출할 수 있다.
즉, 프로세서(130)는 훈련 데이터를 통해 x와 y값을 모두 알고 있기 때문에, 상기 β(베타)를 계산할 수 있다. 여기서, y(종속변수)는 훈련 데이터들의 기복 전후의 움직임 벡터일 수 있다.
이후, 상기 y(위치정보)는 새로운 데이터에 대한 x를 계산한 후, 상기 β(베타)와 함께 계산하면 예측될 수 있다.
그리고, 프로세서(130)는 상기 기복 후 위치정보를 기반으로 TPS 와핑(Thin Plate Spline Warping)을 통해 상기 환자의 신체 표면을 생성하여 상기 가상 기복 모델을 출력할 수 있다.
여기서, 도 13을 보면, 왼쪽 상단은 상기 환자에 대한 상기 복부 3D 영상데이터를 기반으로 생성한 가상 모델의 측면을 나타낸 것으로 상기 가상 모델에는 상기 복수의 랜드마크 데이터가 표시될 수 있다.
여기서, 왼쪽 하단은 상기 환자에 대한 상기 가상 모델의 정면을 나타낸 것으로 상기 가상 모델에는 상기 복수의 랜드마크 데이터가 표시될 수 있다.
또한, 오른쪽 상단은 상기 머신러닝 모델에 의해 상기 환자에 대한 기복후 상기 가상 기복 모델을 나타낸 것으로 상기 가상 기복 모델에는 상기 복수의 랜드마크 데이터의 기복 후 위치가 표시될 수 있다.
여기서, 오른쪽 하단은 상기 환자에 대한 기복후 상기 가상 기복 모델의 정면을 나타낸 것으로 기복후 상기 가상 기복 모델은 상기 복수의 랜드마크 데이터의 기복 후 위치가 표시될 수 있다.
도 13의 왼쪽과 오른쪽을 비교해보면, 상기 환자의 기복전 상태를 나타내는 상기 가상 모델과 상기 환자의 기복후 상태를 나타내는 상기 가상 기복 모델은 상기 복수의 랜드마크 데이터의 위치의 변화가 존재하며, 이는 기복에 따른 위치 변화로 환자 별로 다양한 형태로 기복되기 때문에 다양한 위치로 변화될 수 있다.
도 14는 본 발명에 따른 환자의 가상 기복 모델을 생성하는 과정을 나타낸 흐름도이다. 여기서, 프로세서(130)의 동작은 서버(10)에서 수행 가능할 수 있다.
프로세서(130)는 상기 환자의 상태 데이터를 획득할 수 있다(S1401).
구체적으로, 프로세서(130)는 상기 환자의 상태 데이터를 외부 서버(미도시) 또는 상기 메모리(120)로부터 획득할 수 있다.
여기서, 상기 상태 데이터는 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함할 수 있다.
프로세서(130)는 상기 환자의 복수의 랜드마크 데이터를 획득할 수 있다(S1402).
여기서, 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것일 수 있다. 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 랜드마크가 맵핑된 데이터이거나, 랜드마크 각각의 좌표 데이터일 수 있다.
프로세서(130)는 상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득할 수 있다(S1403).
여기서, 상기 복수의 단면 영상데이터는 상기 복수의 랜드마크 데이터가 표시된 위치의 단면일 수 있다.
또한, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리 (A-P direction distance), 지방 영역 및 근육 영역 중 적어도 하나를 포함할 수 있다.
그리고, 프로세서(130)는 지방 추출 모델과 근육 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 상기 지방 영역과 근육 영역을 각각 획득할 수 있다.
프로세서(130)는 상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성할 수 있다(S1404).
먼저, 프로세서(130)는 제1 알고리즘을 기반으로 기 저장된 복수의 기복 형태 데이터 중 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터와의 일치율이 가장 높은 특정 기복 형태 데이터를 선택하여 상기 가상 기복 모델을 생성할 수 있다.
여기서, 프로세서(130)는 기 저장된 복수의 기복 형태 클래스 중 SVM(Support Vector Machine) 분류 모델을 기반으로 상기 환자에 대한 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터와 가장 높은 유사도를 가지는 상기 특정 기복 형태 클래스 선택할 수 있다.
그리고, 프로세서(130)는 상기 제1 알고리즘을 기반으로, 상기 선택된 특정 기복 형태 클래스 내에서 상기 특정 기복 형태 데이터를 선택할 수 있다.
프로세서(130)는 머신러닝 모델을 통해 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 가상 기복 모델을 생성할 수 있다(S1404).
보다 상세하게는, 프로세서(130)는 상기 머신러닝 모델에 의해 상기 환자에 대한 상기 랜드마크 데이터의 기복 후 위치정보를 산출할 수 있다.
그리고, 프로세서(130)는 상기 기복 후 위치정보를 기반으로 TPS 와핑(Thin Plate Spline Warping)을 통해 상기 환자의 신체 표면을 생성하여 상기 가상 기복 모델을 출력할 수 있다.
도 14는 단계 S1401 내지 단계 S1404를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 14에 기재된 순서를 변경하여 실행하거나 단계 S1401 내지 단계 S1404 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 14는 시계열적인 순서로 한정되는 것은 아니다.
이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다. 여기서, 컴퓨터는 앞에서 설명한 장치(10)일 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 장치
110: 통신부
120: 메모리
130: 프로세서

Claims (10)

  1. 서버의 의해 수행되는, 환자의 가상 기복 모델을 생성하는 방법에 있어서,
    상기 환자의 상태 데이터를 획득하는 단계-상기 상태 데이터는, 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함함-;
    상기 환자의 복수의 랜드마크 데이터를 획득하는 단계-상기 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것인-;
    상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득하는 단계-상기 복수의 단면 영상데이터는, 상기 복수의 랜드마크 데이터가 표시된 위치의 단면이고, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역 중 적어도 하나를 포함함-;

    상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성하는 단계;
    를 포함하는, 방법.
  2. 제2항에 있어서,
    상기 랜드마크 데이터 획득 단계는,
    상기 환자의 상기 복부 3D 영상데이터를 기반으로 상기 환자의 배꼽을 기준으로 기 설정된 위치에 하나의 기준 랜드마크 데이터를 생성하고,
    상기 기준 랜드마크 데이터를 기준으로 상기 복수의 랜드마크 데이터를 추가로 생성하는, 방법.
  3. 제1항에 있어서,
    상기 가상 기복 모델 생성 단계는,
    제1 알고리즘을 기반으로 기 저장된 복수의 기복 형태 데이터 중 상기 상태 데이터, 상기 랜드마크가 데이터 및 상기 신체 데이터와의 일치율이 가장 높은 특정 기복 형태 데이터를 선택하는, 방법.
  4. 제3항에 있어서,
    상기 가상 기복 모델 생성 단계는,
    기 저장된 복수의 기복 형태 클래스 중 상기 상태 데이터, 상기 랜드마크 데이터 및 상기 신체 데이터와 가장 높은 유사도를 가지는 특정 기복 형태 클래스를 선택하고,
    상기 제1 알고리즘을 기반으로, 상기 선택된 특정 기복 형태 클래스 내에서 상기 특정 기복 형태 데이터를 선택하는, 방법.
  5. 제4항에 있어서,
    상기 기 저장된 복수의 기복 형태 클래스는,
    복수의 기존 환자 별 상기 상태 데이터, 상기 신체 데이터 및 기복 형태 데이터에 대해 클러스터링하여 생성되는, 방법.
  6. 제1항에 있어서,
    상기 가상 기복 모델 생성 단계는,
    머신러닝 모델을 통해 상기 상태 데이터, 및 상기 신체 데이터를 기반으로 상기 가상 기복 모델을 생성하는, 방법.
  7. 제6항에 있어서,
    상기 가상 기복 모델 생성단계는,
    상기 머신러닝 모델에 의해 상기 환자에 대한 상기 랜드마크 데이터의 기복 후 위치정보를 산출하고,
    상기 기복 후 위치정보를 기반으로 상기 환자의 신체 표면을 생성하여 상기 가상 기복 모델을 출력하는, 방법.
  8. 제7항에 있어서,
    상기 머신러닝 모델은,
    복수의 기존 환자 별 상기 상태 데이터, 상기 신체 데이터, 상기 랜드마크 데이터 및 기복 후 랜드마크 데이터에 기초한 학습데이터 세트를 구축하고,
    상기 구축된 학습데이터 세트를 기반으로 기계 학습되고,
    상기 기복 후 랜드마크 데이터는 기존 환자의 수술 시 실제 기복 결과를 바탕으로 획득된 것인, 방법.
  9. 제1항에 있어서,
    상기 신체 데이터 획득 단계는,
    지방 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 상기 지방 영역을 획득하고,
    근육 추출 모델을 통해 상기 복수의 단면 영상데이터를 기반으로 상기 근육 영역을 획득하고,
    상기 지방 추출 모델은, 복부 의료영상데이터에서 지방 영역만을 관심영역으로 지정하여 트레이닝된 머신러닝 모델이고,
    상기 근육 추출 모델은, 복부 의료영상데이터에 근육 영역만을 관심영역으로 지정하여 트레이닝된 머신러닝 모델인, 방법.
  10. 하드웨어인 서버와 결합되어, 환자의 가상 기복 모델을 생성하는 방법을 실행시키기 위한 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램은,
    상기 환자의 상태 데이터를 획득하는 단계-상기 상태 데이터는, 상기 환자의 나이, 성별, 키, 몸무게, 체질량지수(Body Mass Index) 및 출산 유무 중 적어도 하나에 대한 데이터를 포함함-;
    상기 환자의 복수의 랜드마크 데이터를 획득하는 단계-상기 복수의 랜드마크 데이터는 상기 환자의 복부 3D 영상데이터에 표시되는 것인-;
    상기 환자의 복수의 단면 영상데이터에서 추출된 신체 데이터를 획득하는 단계-상기 복수의 단면 영상데이터는, 상기 복수의 랜드마크 데이터가 표시된 위치의 단면이고, 상기 신체 데이터는 상기 복수의 단면 영상데이터 내의 상기 환자의 신체에 대한 높이와 넓이의 비율, 피부 둘레, 상기 신체의 전방-후방에 대한 거리, 지방 영역 및 근육 영역 중 적어도 하나를 포함함-;

    상기 상태 데이터, 상기 복수의 랜드마크 데이터 및 상기 신체 데이터를 기반으로 상기 환자의 실제 기복(pneumoperitoneum) 상태를 예측하기 위한 가상 기복 모델을 생성하는 단계;
    를 수행하는, 컴퓨터 프로그램.
KR1020210105582A 2021-08-10 2021-08-10 환자의 가상 기복 모델을 생성하는 장치 및 방법 KR20230023876A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020210105582A KR20230023876A (ko) 2021-08-10 2021-08-10 환자의 가상 기복 모델을 생성하는 장치 및 방법
PCT/KR2022/011757 WO2023018138A1 (ko) 2021-08-10 2022-08-08 환자의 가상 기복 모델을 생성하는 장치 및 방법
EP22856137.9A EP4379740A1 (en) 2021-08-10 2022-08-08 Device and method for generating virtual pneumoperitoneum model of patient
CN202280057772.1A CN118056247A (zh) 2021-08-10 2022-08-08 生成患者的虚拟气腹模型的装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210105582A KR20230023876A (ko) 2021-08-10 2021-08-10 환자의 가상 기복 모델을 생성하는 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20230023876A true KR20230023876A (ko) 2023-02-20

Family

ID=85200889

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210105582A KR20230023876A (ko) 2021-08-10 2021-08-10 환자의 가상 기복 모델을 생성하는 장치 및 방법

Country Status (4)

Country Link
EP (1) EP4379740A1 (ko)
KR (1) KR20230023876A (ko)
CN (1) CN118056247A (ko)
WO (1) WO2023018138A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200011970A (ko) 2017-06-29 2020-02-04 버브 서지컬 인크. 로봇 수술 시스템에서의 가상 현실 훈련, 시뮬레이션, 및 공동작업

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120111871A (ko) * 2011-03-29 2012-10-11 삼성전자주식회사 3차원적 모델을 이용한 신체 장기의 영상 생성 방법 및 장치
KR20160092425A (ko) * 2015-01-27 2016-08-04 국민대학교산학협력단 가상 수술 시뮬레이션 장치 및 그 동작 방법
KR102014355B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 수술도구의 위치 정보 산출 방법 및 장치
KR102298417B1 (ko) * 2018-05-23 2021-09-06 (주)휴톰 수술 시뮬레이션 정보 생성방법 및 프로그램
KR102213412B1 (ko) * 2018-11-15 2021-02-05 서울여자대학교 산학협력단 기복모델 생성방법, 장치 및 프로그램

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200011970A (ko) 2017-06-29 2020-02-04 버브 서지컬 인크. 로봇 수술 시스템에서의 가상 현실 훈련, 시뮬레이션, 및 공동작업

Also Published As

Publication number Publication date
WO2023018138A1 (ko) 2023-02-16
EP4379740A1 (en) 2024-06-05
CN118056247A (zh) 2024-05-17

Similar Documents

Publication Publication Date Title
KR102014355B1 (ko) 수술도구의 위치 정보 산출 방법 및 장치
US10026016B2 (en) Tracking and representation of multi-dimensional organs
CN111771244B (zh) 针对手术结果的反馈提供方法
US20230248439A1 (en) Method for generating surgical simulation information and program
KR102146672B1 (ko) 수술결과에 대한 피드백 제공방법 및 프로그램
CN113112486B (zh) 一种肿瘤的运动估计方法、装置、终端设备和存储介质
KR20210104190A (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
KR102008891B1 (ko) 수술보조 영상 표시방법, 프로그램 및 수술보조 영상 표시장치
KR102213412B1 (ko) 기복모델 생성방법, 장치 및 프로그램
KR102298417B1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
KR20200096155A (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
KR20230023876A (ko) 환자의 가상 기복 모델을 생성하는 장치 및 방법
KR102628325B1 (ko) POI 정의 및 Phase 인식 기반의 실제 수술 영상과 3D 기반의 가상 모의 수술 영상을 정합하는 장치 및 방법
KR102667464B1 (ko) 환자의 3차원 가상 기복 모델 상에 트로카의 삽입 위치를 결정하는 장치 및 방법
US20240164838A1 (en) Apparatus and method for determining insertion position of trocar on three-dimensional virtual pneumoperitoneum model of patient
KR20190133424A (ko) 수술결과에 대한 피드백 제공방법 및 프로그램
KR20190133425A (ko) 수술보조 영상 표시방법 및 프로그램
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
CN111741729B (zh) 手术最优化方法以及装置
KR101940706B1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
Chen Towards practical ultrasound ai across real-world patient diversity
CN111741729A (zh) 手术最优化方法以及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal