KR20240022048A - 수술 단계에 대한 정보를 제공하는 방법 및 디바이스 - Google Patents

수술 단계에 대한 정보를 제공하는 방법 및 디바이스 Download PDF

Info

Publication number
KR20240022048A
KR20240022048A KR1020220100181A KR20220100181A KR20240022048A KR 20240022048 A KR20240022048 A KR 20240022048A KR 1020220100181 A KR1020220100181 A KR 1020220100181A KR 20220100181 A KR20220100181 A KR 20220100181A KR 20240022048 A KR20240022048 A KR 20240022048A
Authority
KR
South Korea
Prior art keywords
video
surgical
inference
distributed
surgical step
Prior art date
Application number
KR1020220100181A
Other languages
English (en)
Inventor
김덕석
최보경
Original Assignee
주식회사 엠티이지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠티이지 filed Critical 주식회사 엠티이지
Priority to KR1020220100181A priority Critical patent/KR20240022048A/ko
Publication of KR20240022048A publication Critical patent/KR20240022048A/ko

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Urology & Nephrology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

의료 행위와 관련된 제 1 동영상을 획득하는 단계, 상기 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득하는 단계, 상기 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득하는 단계, 상기 복수의 분산 추론 결과 및 상기 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득하는 단계 및 상기 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공하는 단계를 포함하는, 방법 및 본 방법을 실행하는 디바이스가 개시된다.

Description

수술 단계에 대한 정보를 제공하는 방법 및 디바이스{A methods and a device for providing information about surgical steps}
본 개시의 기술 분야는 수술 단계에 대한 정보를 제공하는 방법 및 디바이스에 관한 것으로, 분산 추론 엔진을 활용한 학습을 수행하거나 수술 단계 추론 결과를 제공하는 기술 분야와 관련된다.
최근 들어 카메라가 부착된 내시경 장비들이 다양한 분야에서 사용되고, 대상자의 체내에 삽입되거나 시술 또는 수술 현장을 촬영하는 영상 장비들이 소형화, 보편화되면서 내외과적 수술에서 동영상을 획득하는 경우가 많아지고 있다. 또한, 최근 들어 빅 데이터, 인공 지능의 발달로 동영상을 의료 정보 콘텐츠로 가공하고 이를 기반으로 기술에 대한 표준화 연구 및 도구의 사용성에 대한 평가 연구 등 다양한 연구를 진행하고자 하는 병원과 의사가 늘어남에 따라 동영상의 저장과 주요 장면에 대한 빠른 검색이 요구되고 있다.
특히 수술을 진행할 때 수술의 종류에 따라 수술에서 진행되는 각 단계들은 일반적으로 정형화된 경우가 많다. 수술 과정에서 진행되는 수술 단계들은 각 수술 단계의 목적 등에 따라 나누어질 수 있으며, 이처럼 수술 단계를 구별하여 제공할 수 있다면 긴 수술 영상에서 원하는 장면에 훨씬 용이하게 접근할 수 있다. 특히 수술 영상의 경우 재생 시간이 긴 경우가 많기 때문에, 수술 단계를 구별하여 제공할 수 있는 기술이 요구되는 실정이다.
한국공개특허 제 10-2021-0131061호 (2021.11.02.) 3D 가상현실을 이용한 의료 시술 및 수술 안내 시스템
본 개시에서 해결하고자 하는 과제는 수술 단계에 대한 정보를 제공하는 방법 및 디바이스에 관한 것으로, 획득되는 라벨링 정보를 통해 학습을 수행하여 수술 단계 추론 결과를 제공하는 기술을 제공할 수 있다.
본 개시에서 해결하고자 하는 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로써, 본 개시의 제 1 측면에 따른 수술 단계에 대한 정보를 제공하는 방법은 의료 행위와 관련된 제 1 동영상을 획득하는 단계; 상기 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득하는 단계; 상기 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득하는 단계; 상기 복수의 분산 추론 결과 및 상기 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득하는 단계; 및 상기 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공하는 단계;를 포함할 수 있다.
또한, 상기 복수의 분산 추론 엔진은 상기 제 1동영상에 대해서 각각 서로 상이한 객체를 추론할 수 있다.
또한, 상기 라벨링 정보는 상기 제 1 동영상에 대한 사용자 입력에 기초하여 획득될 수 있다.
또한, 상기 수술 단계 추론 결과를 제공하는 단계는, 상기 제 2 동영상에 대한 복수의 수술 단계를 넘버링하여 제공할 수 있다.
또한, 상기 수술 단계 추론 결과를 제공하는 단계는, 상기 수술 단계 추론 결과에 기초하여 상기 제 2 동영상에 대한 복수의 수술 단계가 라벨링 되도록 갱신된 제 2동영상을 제공할 수 있다.
또한, 상기 갱신된 제 2 동영상은 상기 수술 단계 추론 결과에 기초하여 획득된 복수의 수술 단계를 나타내는 라벨을 포함할 수 있다.
또한, 상기 복수의 분산 추론 결과는 벡터 형식으로 표현될 수 있다.
본 개시의 제 2 측면에 따른 수술 단계에 대한 정보를 제공하는 디바이스는 의료 행위와 관련된 제 1 동영상 및 상기 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득하는 수신부; 및 상기 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득하고, 상기 복수의 분산 추론 결과 및 상기 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득하고, 상기 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공하는 프로세서;를 포함할 수 있다.
또한, 상기 복수의 분산 추론 엔진은 상기 제 1동영상에 대해서 각각 서로 상이한 객체를 추론할 수 있다.
또한, 상기 라벨링 정보는 상기 제 1 동영상에 대한 사용자 입력에 기초하여 획득되고, 상기 프로세서는, 상기 제 2 동영상에 대한 복수의 수술 단계를 넘버링하여 제공할 수 있다.
또한, 상기 프로세서는, 상기 수술 단계 추론 결과에 기초하여 상기 제 2 동영상에 대한 복수의 수술 단계가 라벨링 되도록 갱신된 제 2동영상을 제공할 수 있다.
또한, 상기 갱신된 제 2 동영상은 상기 수술 단계 추론 결과에 기초하여 획득된 복수의 수술 단계를 나타내는 라벨을 포함할 수 있다.
본 개시의 제 3 측면에 따라 제 1 측면을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록 매체를 포함할 수 있다.
본 개시의 일 실시 예에 따르면, 수술 단계에 대한 정보를 제공할 수 있기 때문에 사용자가 동영상에서 각 수술 단계가 어떤 시간대에 위치하는지 용이하게 확인할 수 있으며, 원하는 수술 단계에 대한 접근을 용이하게 할 수 있다.
또한, 수술 단계에 대한 정보를 제공함에 있어서 학습 방식이 활용되기 때문에, 보다 정밀한 정보 제공이 가능하다.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1 은 일 실시 예에 따른 디바이스 또는 서버가 시스템 상에서 구현되는 일 예를 도시하는 도면이다.
도 2 는 일 실시 예에 따른 디바이스의 구성을 개략적으로 도시한 블록도이다.
도 3 은 일 실시 예에 따른 디바이스가 동작하는 각 단계를 도시한 흐름도이다.
도 4 는 일 실시 예에 따른 디바이스가 복수의 분산 추론 엔진을 이용하여 수술 단계 추론을 수행하는 일 예를 설명하기 위한 도면이다.
도 5 는 일 실시 예에 따른 디바이스가 라벨링 정보를 이용하여 수술 단계 추론을 수행하는 일 예를 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 디바이스가 수술 단계 추론 결과를 제공하는 일 예를 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 디바이스가 수술 단계 추론 결과를 라벨과 함께 제공하는 일 예를 설명하기 위한 도면이다.
본 개시에서 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 개시가 완전 하도록 하고, 해당 기술 분야에 속하는 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 해당 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.
도 1은 일 실시 예에 따른 디바이스(100) 또는 서버가 시스템 상에서 구현되는 일 예를 도시하는 도면이다.
도 1에 도시된 바와 같이, 의료 정보 시스템은 디바이스(100), 외부 서버(130), 저장 매체(140), 통신 디바이스(150), 가상 서버(160), 사용자 단말(170) 및 네트워크 등을 포함할 수 있다.
그러나, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 의료 정보 시스템에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 의료 정보 시스템은 네트워크와 연동하여 동작하는 블록체인 서버(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
일 실시 예에 따른 디바이스(100)는 수술 등 의료 행위와 관련된 정보를 다양한 소스로부터 획득할 수 있다. 예를 들면 디바이스(100)는 수술 등 의료 행위와 관련된 정보(예: 동영상)를 정보 획득 장치(미도시)로부터 획득할 수 있다. 정보 획득 장치(미도시) 는 촬영 장치, 녹음 장치, 생체 신호 획득 장치 등을 포함할 수 있으나, 이에 제한되지 않는다. 다른 예로 디바이스(100)는 수술 등 의료 행위와 관련된 정보(예: 동영상)를 네트워크로부터 획득할 수 있다.
생체 신호는 체온 신호, 맥박 신호, 호흡 신호, 혈압 신호, 근전도 신호, 뇌파 신호 등 생명체로부터 획득되는 신호를 제한 없이 포함할 수 있다. 정보 획득 장치(미도시)의 일 예인 촬영 장치는 수술실 상황을 전체적으로 촬영하는 제 1 촬영 장치(예: CCTV 등)와 수술 부위를 집중적으로 촬영하는 제 2 촬영 장치(예: 내시경 등) 등을 포함할 수 있으나, 이에 제한되지 않는다.
일 실시 예에 따른 디바이스(100)는 정보 획득 장치(미도시) 또는 네트워크로부터 수술 등 의료 행위와 관련된 영상(동영상, 정지영상 등)을 획득할 수 있다. 디바이스(100)는 획득한 영상에 대한 영상 처리를 수행할 수 있다. 일 실시 예에 따른 영상 처리는 각각의 영상에 대한 네이밍, 인코딩, 저장, 전송, 편집, 메타 데이터 생성 등을 포함할 수 있으나, 이에 제한되지 않는다.
일 실시 예에 따른 디바이스(100)는 정보 획득 장치(미도시) 또는 네트워크로부터 획득한 의료 행위 관련 정보를 그대로 또는 갱신하여 네트워크로 전송할 수 있다. 디바이스(100)가 네트워크로 전송하는 전송 정보는 네트워크를 통해서 외부 디바이스(130, 140, 150, 160, 170)로 전송될 수 있다. 예를 들면, 디바이스(100)는 네트워크를 통해서 외부 서버(130), 저장 매체(140), 통신 디바이스(150), 가상 서버(160), 사용자 단말(170) 등으로 갱신된 동영상을 전송할 수 있다. 디바이스(100)는 외부 디바이스(130, 140, 150, 160, 170)로부터 다양한 정보(예: 피드백 정보, 갱신 요청 등)를 수신할 수 있다. 통신 디바이스(150)는 통신에 이용되는 디바이스를 제한 없이 의미할 수 있으며(예: 게이트웨이), 통신 디바이스(150)는 사용자 단말(180) 등 네트워크와 직접 연결되지 않는 디바이스와 통신할 수 있다.
일 실시 예에 따른 디바이스(100)는 입력부, 출력부 프로세서, 메모리 등을 포함할 수 있으며, 디스플레이 장치(미도시)도 포함할 수 있다. 예컨대, 사용자는 디스플레이 장치를 통해서 통신 상태, 메모리 사용 현황, 전력 상태(예: 배터리의 충전상태(State Of Charge), 외부 전력 공급 여부 등), 저장된 동영상에 대한 썸네일 영상, 현재 동작 중인 동작 모드 등을 등을 확인 할 수 있다. 한편, 디스플레이 장치는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다. 또한, 디스플레이 장치는 구현 형태에 따라 2개 이상의 디스플레이를 포함할 수 있다. 또한, 디스플레이의 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다.
또한, 네트워크는 유선 통신 또는 무선 통신을 통해 상호 통신을 수행할 수 있다. 예컨대 네트워크는 일종의 서버로 구현될 수도 있으며, 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 포함할 수 있다. 물론, 디바이스(100)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC 칩 등을 이용하여 각종 외부기기와 통신을 수행할 수 있다. 와이파이 칩, 블루투스 칩은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작할 수 있다.
일 실시 예에 따른 입력부는 사용자가 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미할 수 있다. 예를 들어, 입력부에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
일 실시 예에 따른 출력부는 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부는 디스플레이 장치, 음향 출력 장치, 및 진동 모터 등을 포함할 수 있다.
일 실시 예에 따른 사용자 단말(170)은 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC 등 다양한 유무선 통신 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
일 실시 예에 따른 디바이스(100)는 정보 획득 장치(미도시)로부터 획득한 의료 행위 관련 정보(예: 동영상)를 갱신할 수 있다. 예를 들면, 디바이스(100)는 정보 획득 장치(미도시)로부터 획득한 영상에 대한 네이밍, 인코딩, 저장, 전송, 편집, 메타 데이터 생성 등을 수행할 수 있다. 일 예로, 디바이스(100)는 획득한 영상의 메타 데이터(예: 생성 시간)을 이용하여 영상 파일의 네이밍을 수행할 수 있다. 다른 예로, 디바이스(100)는 정보 획득 장치(미도시)로부터 획득한 의료 행위와 관련된 영상을 분류할 수 있다. 디바이스(100)는 학습된 AI를 이용하여, 의료 행위와 관련된 영상을 수술 종류, 수술자, 수술 장소 등 다양한 기준에 기초하여 분류할 수 있다.
또한 도 1에서 디바이스(100)는 서버로 구현될 수도 있으며, 디바이스(100)가 구현될 수 있는 물리적 장치의 범위는 제한하여 해석되지 않는다.
도 2는 일 실시 예에 따른 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.
도 2에 도시된 바와 같이, 일 실시 예에 따른 디바이스(100)는 수신부(210), 프로세서(220), 출력부(230) 및 메모리(240)를 포함할 수 있다. 그러나 도 2에 도시된 구성요소 모두가 디바이스(100)의 필수 구성요소인 것은 아니다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 디바이스(100)가 구현될 수도 있고, 도 2에 도시된 구성 요소보다 적은 구성 요소에 의해 디바이스(100)가 구현될 수도 있다.
예를 들어, 일 실시 예에 따른 디바이스(100)는 수신부(210), 프로세서(220), 출력부(230), 메모리(240) 외에 통신부(미도시) 또는 입력부(미도시)를 더 포함할 수도 있다. 또한 출력부(230)의 일 예로서 디스플레이(미도시)가 포함될 수 있다.
일 실시 예에 따른 수신부(210)는 의료 행위와 관련된 제 1 동영상을 획득할 수 있다. 일 실시 예에 따른 제 1 동영상은 학습을 위해 이용될 수 있다. 제 1 동영상은 디바이스(100)의 외부로부터 수신될 수 있으며 디바이스(100) 내부에 저장되어 있을 수도 있다. 제 1 동영상에 대응되는 라벨링 정보는 디바이스(100)의 외부로부터 수신되거나 디바이스(100) 내부에 저장되어 있을 수 있다. 또는 제 1 동영상에 대응되는 라벨링 정보는 제 1 동영상과 결합되어 있을 수 있다.
일 실시 예에 따른 수신부(210)는 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득할 수 있다. 일 실시 예에 따른 라벨링 정보는 수술 단계를 나타낼 수 있다. 예를 들면 제 1 동영상의 라벨링 정보는 제 1 동영상의 재생 구간(또는 프레임) 별로 대응되는 수술 단계를 나타낼 수 있다.
일 실시 예에 따른 라벨링 정보는 제 1 동영상에 대한 사용자 입력에 기초하여 획득될 수 있다. 제 1 동영상에 대해서 사용자(예: 제 1 동영상에 등장하는 의사)가 수술 단계를 구별하는 사용자 입력을 인가할 수 있으며, 인가된 사용자 입력에 기초하여 라벨링 정보가 획득될 수 있다.
일 실시 예에 따른 프로세서(220)는 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득할 수 있다. 복수의 분산 추론 엔진은 서로 상이한 객체에 대해 타게팅되어 있을 수 있다. 예를 들면, 복수의 분산 추론 엔진은 제 1동영상에 대해서 각각 서로 상이한 객체를 추론하는 동작을 수행할 수 있다.
일 실시 예에 따른 프로세서(220)는 복수의 분산 추론 결과 및 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득할 수 있다.
라벨링 정보는 사용자 입력으로부터 획득된 수술 단계를 나타내기 때문에, 라벨링 정보는 정답으로 취급될 수 있다. 따라서 디바이스(100)는 복수의 분산 추론 결과 및 라벨링 정보를 비교하여 추론의 정확성 및 추론의 방향성 등을 결정할 수 있다. 또한, 복수의 분산 추론 결과 및 라벨링 정보의 비교 결과에 기초하여 수술 단계 추론을 위한 학습 모델을 획득할 수 있다. 또한 비교 결과가 누적될 경우 학습 모델을 지속적으로 갱신할 수 있다.
일 실시 예에 따른 프로세서(220)는 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공할 수 있다. 일 실시 예에 따른 수술 단계 추론 결과는 동영상의 재생 구간(또는 프레임) 별로 대응되는 수술 단계를 나타낼 수 있다. 또한 각각의 수술 단계는 서로 다른 넘버에 대응될 수 있다.
도 3은 일 실시 예에 따른 디바이스(100)가 동작하는 각 단계를 도시한 흐름도이다.
단계 S310을 참조하면, 디바이스(100)는 의료 행위와 관련된 제 1 동영상을 획득할 수 있다.
일 실시 예에 따른 제 1 동영상은 학습을 위해 이용될 수 있다. 제 1 동영상은 디바이스(100)의 외부로부터 수신될 수 있으며 디바이스(100) 내부에 저장되어 있을 수도 있다. 제 1 동영상에 대응되는 라벨링 정보는 디바이스(100)의 외부로부터 수신되거나 디바이스(100) 내부에 저장되어 있을 수 있다. 또는 제 1 동영상에 대응되는 라벨링 정보는 제 1 동영상과 결합되어 있을 수 있다.
단계 S320을 참조하면, 디바이스(100)는 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득할 수 있다.
복수의 분산 추론 엔진은 서로 상이한 객체에 대해 타게팅되어 있을 수 있다. 예를 들면, 복수의 분산 추론 엔진은 제 1동영상에 대해서 각각 서로 상이한 객체를 추론하는 동작을 수행할 수 있다.
복수의 분산 추론 엔진은 각각 단수의 객체에 대한 추론을 수행할 수 있으나, 이에 제한되지 않는다.
일 실시 예에 따른 복수의 분산 추론 엔진은 동영상(예: 제 1 동영상)에 대해서 서로 상이한 객체를 타게팅하여 추론할 수 있다. 예를 들면, 제 1 분산 추론 엔진은 제 1 수술 도구(예: 석션)를 추론하고, 제 2 분산 추론 엔진은 제 2수술 도구(예: 가위)를 추론하고, 제 3분산 추론 엔진은 수술 부위를 추론하고, 제 4분산 추론 엔진은 출혈 부위를 추론하고, 제 5분산 추론 엔진은 수술자의 손을 추론할 수 있으나 이에 제한되지 않는다.
일 실시 예에 따른 복수의 분산 추론 결과는 벡터 형식으로 표현될 수 있으나 이에 제한되지 않는다. 예를 들면 분산 추론 결과는 0 또는 1로 표현될 수도 있다.
단계 S330을 참조하면, 디바이스(100)는 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득할 수 있다.
일 실시 예에 따른 라벨링 정보는 수술 단계를 나타낼 수 있다. 예를 들면 제 1 동영상의 라벨링 정보는 제 1 동영상의 재생 구간(또는 프레임) 별로 대응되는 수술 단계를 나타낼 수 있다.
일 실시 예에 따른 라벨링 정보는 제 1 동영상에 대한 사용자 입력에 기초하여 획득될 수 있다. 제 1 동영상에 대해서 사용자(예: 제 1 동영상에 등장하는 의사)가 수술 단계를 구별하는 사용자 입력을 인가할 수 있으며, 인가된 사용자 입력에 기초하여 라벨링 정보가 획득될 수 있다.
단계 S340을 참조하면, 디바이스(100)는 복수의 분산 추론 결과 및 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득할 수 있다.
라벨링 정보는 사용자 입력으로부터 획득된 수술 단계를 나타내기 때문에, 라벨링 정보는 정답으로 취급될 수 있다. 따라서 디바이스(100)는 복수의 분산 추론 결과 및 라벨링 정보를 비교하여 추론의 정확성 및 추론의 방향성 등을 결정할 수 있다. 또한, 복수의 분산 추론 결과 및 라벨링 정보의 비교 결과에 기초하여 수술 단계 추론을 위한 학습 모델을 획득할 수 있다. 또한 비교 결과가 누적될 경우 학습 모델을 지속적으로 갱신할 수 있다.
단계 S350을 참조하면, 디바이스(100)는 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공할 수 있다.
일 실시 예에 따른 수술 단계 추론 결과는 동영상의 재생 구간(또는 프레임) 별로 대응되는 수술 단계를 나타낼 수 있다. 또한 각각의 수술 단계는 서로 다른 넘버에 대응될 수 있다.
구체적으로, 일 실시 예에 따를 때, 디바이스(100)는 제 2 동영상에 대한 복수의 수술 단계를 넘버링하여 제공할 수 있다. 예를 들면, 디바이스(100)는 제 2동영상에 대한 복수의 수술 단계를 0단계에서 12단계로 구별하여 넘버링할 수 있다. 각 수술 단계에 부여되는 넘버는 수술의 진행 순서와 일치하지 않을 수 있으며, 수술 단계를 구별하는데 이용될 수 있다.
일 실시 예에 따른 디바이스(100)는 수술 단계 추론 결과에 기초하여 제 2 동영상에 대한 복수의 수술 단계가 라벨링 되도록 갱신된 제 2 동영상을 제공할 수 있다. 디바이스(100)는 제 2 동영상에 대해서 복수의 분산 추론 엔진을 이용하여 복수의 분산 추론 결과를 획득하고, 획득한 분산 추론 결과를 이용하여 제 2 동영상에 대한 라벨링을 수행할 수 있다. 또한 디바이스(100)는 라벨링이 수행되어 갱신된 제 2 동영상을 제공할 수 있다. 라벨링이 수행되어 갱신된 제 2 동영상에서는 수술 단계를 구별하여 표시하는 그래픽이 제공될 수 있다. 라벨링이 수행되어 갱신된 제 2 동영상의 구체적인 예에 대해서는 도 6 또는 도 7에서 후술한다. 라벨링은 수술 단계에 대해서 넘버를 대응시키는 동작이나 수술 단계를 구별할 수 있도록 동영상에 대한 이미지 처리를 수행하는 과정 등을 포괄적으로 의미할 수 있다.
갱신된 제 2 동영상은 수술 단계 추론 결과에 기초하여 획득된 복수의 수술 단계를 나타내는 라벨을 포함할 수 있다. 라벨은 넘버 또는 수술 단계를 구별하기 위해 이용되는 그래픽 등을 포괄적으로 의미할 수 있다.
도 4 는 일 실시 예에 따른 디바이스(100)가 복수의 분산 추론 엔진(450)을 이용하여 수술 단계 추론을 수행하는 일 예를 설명하기 위한 도면이다.
복수의 분산 추론 엔진(450)는 클래스로 구별될 수 있다. 예를 들면, 복수의 분산 추론 엔진(450)은 클래스03 내지 클래스18로 표현될 수 있다.
동영상에 포함된 복수의 프레임은 재생 시간에 따라 순차적으로 배열될 수 있다. 복수의 프레임에 대해서 복수의 분산 추론 엔진(450)이 적용되어 각각의 프레임에 대해서 추론을 수행한다. 예를 들면 클래스03의 분산 추론 엔진은 제 1 수술 도구(예: 석션)를 추론하고, 클래스04의 분산 추론 엔진은 제 2수술 도구(예: 가위)를 추론하고, 클래스05의 분산 추론 엔진은 수술 부위를 추론하고, 클래스06의 분산 추론 엔진은 출혈 부위를 추론하고, 클래스07의 분산 추론 엔진은 수술자의 손을 추론할 수 있으나 이에 제한되지 않는다.
일 실시 예에 따른 추론 영역(420)은 복수의 분산 추론 엔진(450)으로부터 획득되는 복수의 분산 추론 결과를 나타낼 수 있다. 예를 들면 클래스11의 분산 추론 엔진이 트로카(trocar)를 추론하는 경우, 동영상에서 트로카가 있다고 결정되는 프레임은 제 1 영역(460)과 같이 표시되고, 트로카가 없다고 결정되는 프레임은 제 2 영역(470)과 같이 표시될 수 있다.
일 실시 예에 따른 수술 단계는 복수의 마크(430) 중 어느 하나로 표현될 수 있다. 예를 들면 넘버 0에 대응되는 수술 단계는 제 1 마크(431)로 표현될 수 있고, 넘버 1에 대응되는 수술 단계는 제 2 마크(432)로 표현될 수 있다.
일 실시 예에 따른 디바이스(100)는 복수의 분산 추론 엔진(450)으로부터 획득된 복수의 분산 추론 결과에 기초하여 각각의 프레임에 대한 수술 단계를 결정할 수 있다. 수술 단계 표시 영역(410)은 각각의 프레임에 대한 수술 단계를 나타낼 수 있다. 예를 들면 30k번째 프레임을 나타내는 제 1 기준선(441)보다 시간적으로 이전인 기준선 이전 프레임은 복수의 분산 추론 엔진(450)으로부터 획득되는 복수의 분산 추론 결과에 따라 넘버 0에 대응되는 수술 단계로 결정될 수 있다. 다른 예로 제 1 기준선(441)보다 시간적으로 이후이고 제 2 기준선(442)보다 시간적으로 이전인 프레임은 복수의 분산 추론 엔진(450)으로부터 획득되는 복수의 분산 추론 결과에 따라 넘버 1에 대응되는 수술 단계로 결정될 수 있다.
추론 영역(420)에서는 분산 추론 엔진의 추론 결과가 0 또는 1로 표현 가능한 경우에 대해 도시하고 있다. 예를 들면 분산 추론 엔진의 추론 결과는 추론의 대상이 존재하는지 여부에 따라서 제 1 영역(460) 또는 제 2 영역(470)과 같이 표현될 수 있다. 그러나 추론 결과는 벡터로 표현될 수 있으며, 추론 결과의 표현 방식은 제한되지 않는다.
일 실시 예에 따른 복수의 분산 추론 엔진(450)에는 서로 다른 가중치가 부여되어 수술 단계가 결정될 수 있다.
예를 들면, 복수의 분산 추론 엔진(450) 중 수술 도구에 대응되는 분산 추론 엔진과 이벤트에 대응되는 분산 추론 엔진에는 서로 다른 가중치가 부여될 수 있다. 일 예로, 수술 도구에 대응되는 분산 추론 엔진에는 제 1 값의 가중치가 균등하게 부여되고, 이벤트에 대응되는 분산 추론 엔진에는 이벤트의 종류에 따라 제 2 값 또는 제 3 값의 가중치가 부여될 수 있다. 제 2 값 또는 제 3 값은 제 1 값보다 클 수 있다. 일 실시 예에 따른 이벤트는 출혈, 바이탈 신호의 급변 등 수술 위험도와 관련성이 높은 객체를 나타낼 수 있다.
다른 예로, 복수의 분산 추론 엔진(450) 중 대응되는 수술 도구의 종류에 기초하여 대응되는 가중치가 결정될 수 있다. 예를 들면, 수술의 종류에 따라 메인 수술 도구, 서브 수술 도구, 일반 수술 도구의 순서로 점차 순서로 점차 낮아지도록 부여되는 가중치에 기초하여 수술 단계가 결정될 수 있다.
다른 예로, 복수의 분산 추론 엔진(450)에 대응되는 객체가 바이탈 신호, 출혈, 메인 수술 도구, 서브 수술 도구 및 일반 수술 도구인 경우, 바이탈 신호, 출혈, 메인 수술 도구, 서브 수술 도구 및 일반 수술 도구의 순서로 낮아지도록 대응되는 분산 추론 엔진에 가중치가 부여될 수 있다. 또한, 부여된 가중치에 기초하여 수술 단계가 결정될 수 있다.
다른 예로, 복수의 분산 추론 엔진(450) 중 수술 도구에 대응되는 분산 추론 엔진, 보상 관련 이벤트에 대응되는 분산 추론 엔진 및 위험 관련 이벤트에 대응되는 분산 추론 엔진에는 서로 다른 가중치가 부여될 수 있다. 구체적으로 수술 도구에 대응되는 분산 추론 엔진, 보상 관련 이벤트에 대응되는 분산 추론 엔진 및 위험 관련 이벤트에 대응되는 분산 추론 엔진의 순서로 높아지도록 가중치가 부여될 수 있다. 보상 관련 이벤트는 봉합 부위, 특정 장기 등 수술이 잘 진행되었음을 나타내는 객체를 나타낼 수 있다.
도 5 는 일 실시 예에 따른 디바이스(100)가 라벨링 정보를 이용하여 수술 단계 추론을 수행하는 일 예를 설명하기 위한 도면이다.
일 실시 예에 따를 때, 디바이스(100)는 동영상에 대한 복수의 프레임에 대해서 복수의 수술 단계 중 어느 하나로 넘버링할 수 있다. 예를 들면, 디바이스(100)는 동영상에 대한 복수의 수술 단계를 0단계에서 12단계로 구별하여 넘버링할 수 있다.
일 실시 예에 따른 점선은 라벨링 정보에 기초하여 복수의 프레임에 대해서 각각의 넘버를 대응시키는 예시를 나타낼 수 있다. 또한, 일 실시 예에 따른 실선은 복수의 분산 추론 결과에 기초하여 복수의 프레임에 대해서 각각의 넘버를 대응시키는 예시를 나타낼 수 있다. 실선은 라벨링 정보 없이 분산 추론 결과에 따라서 도출된 결과이므로, 점선과 정확히 일치하지는 않으나 점선에 근접할 수 있다.
도 5를 참조하면 각각의 프레임에 대응되는 넘버는 재생 시간이 커질수록 또는 프레임 넘버가 커질수록 꼭 증가하는 것은 아니며 경우에 따라 감소할 수도 있다. 예를 들면 60000번째 프레임에서 프레임 번호가 증가하는 과정에서 대응되는 넘버가 3에서 2로 감소할 수 있다.
도 6은 일 실시 예에 따른 디바이스(100)가 수술 단계 추론 결과를 제공하는 일 예를 설명하기 위한 도면이다.
일 실시 예에 따른 디바이스(100)는 동영상에 대해서 분산 추론을 수행하여 동영상의 수술 단계에 대한 수술 단계 추론 결과를 획득할 수 있다. 수술 단계 추론 결과는 동영상을 구성하는 각각의 프레임에 대해서 수술 단계를 대응시킨 결과를 나타낼 수 있다. 디바이스(100)는 수술 단계 추론 결과에 기초하여 수술 단계가 변경되는 지점을 복수개의 라벨(611 내지 620)로 나타낼 수 있다. 예를 들면 제 1 라벨(611)보다 시간적으로 이전인 프레임은 넘버 0에 대응하는 수술 단계이고, 제 1 라벨(611)보다 시간적으로 이후인 프레임은 넘버 1에 대응하는 수술 단계일 수 있다.
도 7은 일 실시 예에 따른 디바이스(100)가 수술 단계 추론 결과를 라벨과 함께 제공하는 일 예를 설명하기 위한 도면이다.
디바이스(100)는 수술 단계 추론 결과에 기초하여 수술 단계가 변경되는 지점을 복수개의 라벨(711 내지 714)로 나타낼 수 있다. 예를 들면 제 2 라벨(710)은 넘버 0의 수술 단계에 대응하는 프레임을 나타낼 수 있고, 제 3 라벨(711)은 넘버 1의 수술 단계에 대응하는 프레임을 나타낼 수 있다.
본 개시의 다양한 실시 예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예를 들어, 프로세서(220))는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 발명에 대하여 예시한 도면을 참조로 하여 설명하였으나 개시된 실시 예와 도면에 의해 한정되는 것은 아니며 본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시 예를 설명하며 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측이 가능한 효과 또한 인정될 수 있다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100: 디바이스 190: 서버
210: 수신부 220: 프로세서
230: 출력부 240: 메모리
410: 수술 단계 표시 영역 420: 추론 영역
430: 복수의 마크
431: 제 1 마크 432: 제 2 마크
441: 제 1 기준선 442: 제 2 기준선
450: 복수의 분산 추론 엔진
460: 제 1 영역 470: 제 2 영역
611 내지 620: 복수개의 라벨
710 내지 714: 복수개의 라벨

Claims (13)

  1. 수술 단계에 대한 정보를 제공하는 방법에 있어서,
    의료 행위와 관련된 제 1 동영상을 획득하는 단계;
    상기 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득하는 단계;
    상기 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득하는 단계;
    상기 복수의 분산 추론 결과 및 상기 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득하는 단계; 및
    상기 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공하는 단계;를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 복수의 분산 추론 엔진은 상기 제 1동영상에 대해서 각각 서로 상이한 객체를 추론하는, 방법.
  3. 제 1 항에 있어서,
    상기 라벨링 정보는 상기 제 1 동영상에 대한 사용자 입력에 기초하여 획득되는, 방법.
  4. 제 1 항에 있어서,
    상기 수술 단계 추론 결과를 제공하는 단계는,
    상기 제 2 동영상에 대한 복수의 수술 단계를 넘버링하여 제공하는, 방법.
  5. 제 1 항에 있어서,
    상기 수술 단계 추론 결과를 제공하는 단계는,
    상기 수술 단계 추론 결과에 기초하여 상기 제 2 동영상에 대한 복수의 수술 단계가 라벨링 되도록 갱신된 제 2동영상을 제공하는, 방법.
  6. 제 5 항에 있어서,
    상기 갱신된 제 2 동영상은
    상기 수술 단계 추론 결과에 기초하여 획득된 복수의 수술 단계를 나타내는 라벨을 포함하는, 방법.
  7. 제 1 항에 있어서,
    상기 복수의 분산 추론 결과는 벡터 형식으로 표현되는 방법.
  8. 수술 단계에 대한 정보를 제공하는 디바이스에 있어서,
    의료 행위와 관련된 제 1 동영상 및 상기 제 1 동영상의 수술 단계에 대한 라벨링 정보를 획득하는 수신부; 및
    상기 제 1 동영상에 대해서 영상 처리를 수행하는 복수의 분산 추론 엔진으로부터 복수의 분산 추론 결과를 획득하고, 상기 복수의 분산 추론 결과 및 상기 라벨링 정보를 이용하여 수술 단계 추론을 위한 학습 모델을 획득하고, 상기 학습 모델에 기초하여 제 2 동영상에 대한 수술 단계 추론 결과를 제공하는 프로세서;를 포함하는, 디바이스.
  9. 제 8 항에 있어서,
    상기 복수의 분산 추론 엔진은 상기 제 1동영상에 대해서 각각 서로 상이한 객체를 추론하는, 디바이스.
  10. 제 8 항에 있어서,
    상기 라벨링 정보는 상기 제 1 동영상에 대한 사용자 입력에 기초하여 획득되고,
    상기 프로세서는,
    상기 제 2 동영상에 대한 복수의 수술 단계를 넘버링하여 제공하는, 디바이스.
  11. 제 8 항에 있어서,
    상기 프로세서는,
    상기 수술 단계 추론 결과에 기초하여 상기 제 2 동영상에 대한 복수의 수술 단계가 라벨링 되도록 갱신된 제 2동영상을 제공하는, 디바이스.
  12. 제 11 항에 있어서,
    상기 갱신된 제 2 동영상은
    상기 수술 단계 추론 결과에 기초하여 획득된 복수의 수술 단계를 나타내는 라벨을 포함하는, 디바이스.
  13. 제 1 항 내지 제 7항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 비일시적 기록 매체.
KR1020220100181A 2022-08-10 2022-08-10 수술 단계에 대한 정보를 제공하는 방법 및 디바이스 KR20240022048A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220100181A KR20240022048A (ko) 2022-08-10 2022-08-10 수술 단계에 대한 정보를 제공하는 방법 및 디바이스

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220100181A KR20240022048A (ko) 2022-08-10 2022-08-10 수술 단계에 대한 정보를 제공하는 방법 및 디바이스

Publications (1)

Publication Number Publication Date
KR20240022048A true KR20240022048A (ko) 2024-02-20

Family

ID=90057111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220100181A KR20240022048A (ko) 2022-08-10 2022-08-10 수술 단계에 대한 정보를 제공하는 방법 및 디바이스

Country Status (1)

Country Link
KR (1) KR20240022048A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210131061A (ko) 2020-04-23 2021-11-02 아주대학교산학협력단 3d 가상현실을 이용한 의료 시술 및 수술 안내 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210131061A (ko) 2020-04-23 2021-11-02 아주대학교산학협력단 3d 가상현실을 이용한 의료 시술 및 수술 안내 시스템

Similar Documents

Publication Publication Date Title
US20220334787A1 (en) Customization of overlaid data and configuration
US11515030B2 (en) System and method for artificial agent based cognitive operating rooms
JP5989877B1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7412528B2 (ja) 外科用ロボットシステムからのデータの修正
JP2019500176A (ja) 生理学的モニタのためのシステム、方法、及びコンピュータプログラム製品
EP4185230A1 (en) Configuration of the display settings and displayed information based on the recognition of the user(s) and awareness of prodedure, location or usage
KR20200142938A (ko) 사용자 맞춤형 피부 진단 시스템 및 방법
US20210015432A1 (en) Surgery support system, information processing apparatus, and program
CN110610181A (zh) 医学影像识别方法及装置、电子设备及存储介质
KR101580559B1 (ko) 의료 영상 및 정보 실시간 상호전송 및 원격 지원 장치
JPWO2012039171A1 (ja) 画像表示装置及びカプセル型内視鏡システム
CN113706441A (zh) 一种基于人工智能的图像预测方法、相关装置及存储介质
US20150379217A1 (en) Medical information display system, server, and portable terminal
KR20240022048A (ko) 수술 단계에 대한 정보를 제공하는 방법 및 디바이스
WO2022250031A1 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
US20230410499A1 (en) Visibility metrics in multi-view medical activity recognition systems and methods
KR20240048074A (ko) 라벨링을 이용한 능동 학습 방법 및 디바이스
KR20240048073A (ko) 어텐션 블록을 이용하여 영상을 처리하는 방법 및 디바이스
KR20240065445A (ko) 의료 로봇과 관련하여 영상을 제공하는 방법 및 디바이스
KR20240022047A (ko) 수술에 대한 시나리오를 제공하는 방법 및 디바이스
KR20240018193A (ko) 중요도와 관련된 영상 처리 방법, 서버 및 기록매체
KR20240021624A (ko) 어노테이션을 포함하는 영상 획득 방법 및 디바이스
KR20240048075A (ko) 영상에 포함된 객체에 대한 추론을 수행하는 방법 및 디바이스
KR20240046357A (ko) 관심 영역에 대한 위치를 결정하는 방법 및 디바이스
KR20240065446A (ko) 초음파 영상 처리 방법 및 디바이스