KR20220103656A - 인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법 - Google Patents

인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법 Download PDF

Info

Publication number
KR20220103656A
KR20220103656A KR1020220006607A KR20220006607A KR20220103656A KR 20220103656 A KR20220103656 A KR 20220103656A KR 1020220006607 A KR1020220006607 A KR 1020220006607A KR 20220006607 A KR20220006607 A KR 20220006607A KR 20220103656 A KR20220103656 A KR 20220103656A
Authority
KR
South Korea
Prior art keywords
tool
surgical
video
information
surgery
Prior art date
Application number
KR1020220006607A
Other languages
English (en)
Inventor
김덕석
Original Assignee
주식회사 엠티이지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠티이지 filed Critical 주식회사 엠티이지
Publication of KR20220103656A publication Critical patent/KR20220103656A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Urology & Nephrology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 방법은, 입력된 수술 동영상에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득하는 단계 및 상기 도구 등장 정보에 기초하여 상기 수술 동영상에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성하는 단계를 포함할 수 있다.

Description

인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법{APPARATUS AND METHOD FOR COMPARING SURGICAL OPERATION PATTERN BASED ON ARTIFICIAL INTELLIGENCE ANALYTICS}
본원은 인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법에 관한 것이다. 예를 들어, 본원은 수술을 비교 평가하기 위해 인공지능 분석 기술을 적용하여 수술의 시간별 데이터를 추출하고 이를 다른 수술과 비교하는 기법에 관한 것이다.
수술 방법론, 즉 수술 술기에 있어 동일한 수술의 경우에도 집도하는 의사에 따라 수술 방식이 달라지는데, 이는 의사들의 경험에 따라 수술 중 문제를 극복하기 위해 각자 나름의 방식을 구축해 나가기 때문이다. 이러한 차이는 수술을 교육하는 교수별 또는 병원별로 차이를 보이고 또한 개인별로도 수술의 집도 시기, 사용하는 의료기기의 차이, 새로운 수술 방법의 습득에 따라 달라질 수 있다.
그러나, 기존에는 수술 별로 적용되는 이러한 방법론적 차이가 수술을 집도한 의사의 만족도와 환자의 예후 등으로 정성적인 판단으로 평가되는데 지나지 않아 효율적인 방법론에 대한 과학적 근거가 부족한 측면이 있었고, 수술을 교육하는 지도교수의 개인적 편향에 의해 반복적으로 전수되고 있는 실정이다.
한편, 최근 동영상에서 특정 물체(Object)를 인공지능 학습을 통해 인식해 내는 기술이 발전하고 있고, 이와 관련하여 수술 동영상에는 전문적 의료 행위 데이터가 방대하게 내재되어 있어 의학 교육 및 학술 연구 자료로써 가치가 높아 수술 동영상에 대한 분석을 통해 수술 과정에서 발생하는 중요한 행위를 데이터화 할 수 있다면 술기 표준, 수술 위험도 예측 모델 수립, 수술 평가 및 검증 모델 등을 수립할 수 있을 것으로 기대된다.
또한, 최근 들어 빅 데이터, 인공 지능의 발달로 수많은 의료 관련 문서 기록과 사진들이 중요한 의료 정보로 발전하고 있으며, 문서 못지 않게 영상 자료도 방대하게 확보되고 있어 이를 인공지능 기술을 적용하여 시간 별 데이터로 가공한다면 교육생의 수술과 교육자의 수술 간 차이를 명료하게 비교 할 수 있어 교육 및 술기 연구를 고도화 할 수 있을 것으로 기대된다.
본원의 배경이 되는 기술은 한국등록특허공보 제10-0884066호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 인공지능 기반의 물체(Object) 인식 기술을 적용하여 수술 중 관측되는 도구, 병변, 장기, 이벤트(예를 들면, 출혈, 연무현상 등)를 수술 동영상으로부터 인식하여 데이터화하고 비교 표준 데이터로 선정하여 이를 기준으로 수술 단계별로 도구의 출현과 사용빈도, 사용시간 등을 계산하여 시계열적으로 제공할 뿐만 아니라, 비교 대상이 되는 다른 수술과의 차이를 시각적으로 비교할 수 있는 시스템을 제공하려는 것을 목적으로 한다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 수술 동영상 내에서 식별되는 도구에 대한 정보와 수술자에 의해 수행된 수술 행위에 대한 정보에 기초하여 수술 동영상에 대한 평가 정보를 도출할 수 있는 인공지능 기반의 수술 비교 평가 장치 및 방법을 제공하려는 것을 목적으로 한다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 도구 등장 정보, 수술 행위 수행 이력 등을 기준으로 하여 서로 다른 복수의 수술 동영상을 비교 분석할 수 있는 인공지능 기반의 수술 비교 평가 장치 및 방법을 제공하려는 것을 목적으로 한다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 방법은, 입력된 수술 동영상에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득하는 단계 및 상기 도구 등장 정보에 기초하여 상기 수술 동영상에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성하는 단계를 포함할 수 있다.
또한, 상기 도구 등장 정보를 획득하는 단계는, 상기 수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 상기 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임에 대한 식별 정보 및 상기 도구 등장 프레임에서의 상기 수술 도구의 위치 정보를 도출할 수 있다.
또한, 상기 제1통계 데이터를 생성하는 단계는, 상기 도구 등장 프레임의 프레임 수 또는 상기 도구 등장 프레임에 상응하는 재생 구간의 길이에 기초하여 상기 수술 도구의 출현 시간 정보를 산출하는 단계를 포함할 수 있다.
또한, 상기 제1통계 데이터를 생성하는 단계는, 연속한 상기 도구 등장 프레임을 포함하는 도구 등장 구간을 특정하는 단계 및 상기 도구 등장 구간에 기초하여 상기 수술 도구의 출현 빈도를 카운트하는 단계를 포함할 수 있다.
또한, 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 방법은 상기 수술 동영상의 색상 변화 정보에 기초하여 이벤트 분석 정보를 도출하는 단계 및 상기 이벤트 분석 정보에 기초하여 상기 수술 동영상에 대응하는 수술 시의 이벤트 발생 패턴과 연계된 제2통계 데이터를 생성하는 단계를 포함할 수 있다.
한편, 본원의 제1실시예에 따른 인공지능 기반의 수술 비교 평가 방법은, 입력된 제1수술 동영상에서 등장하는 소정의 수술 도구에 대한 제1도구 등장 정보를 획득하는 단계, 상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상에서 상기 수술 도구에 대한 제2도구 등장 정보를 획득하는 단계 및 상기 제1도구 등장 정보 및 상기 제2도구 등장 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 도구 사용 패턴과 상기 제2수술 동영상에 따른 수술 시의 도구 사용 패턴을 상호 비교한 도구 비교 데이터를 생성하는 단계를 포함할 수 있다.
또한, 상기 제1도구 등장 정보를 획득하는 단계 또는 상기 제2도구 등장 정보를 획득하는 단계는, 상기 제1수술 동영상 또는 상기 제2수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 상기 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임을 특정할 수 있다.
또한, 상기 도구 비교 데이터를 생성하는 단계는, 상기 제1수술 동영상 및 상기 제2수술 동영상 각각에 대하여 도출된 연속된 도구 등장 프레임을 포함하는 도구 등장 구간을 타임라인 상에 구분하여 표시한 상기 도구 비교 데이터를 생성할 수 있다.
한편, 본원의 제2실시예에 따른 인공지능 기반의 수술 비교 평가 방법은, 입력된 제1수술 동영상의 색상 변화 정보에 기초하여 제1이벤트 분석 정보를 도출하는 단계, 상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상의 색상 변화 정보에 기초하여 제2이벤트 분석 정보를 도출하는 단계 및 상기 제1이벤트 분석 정보 및 상기 제2이벤트 분석 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 이벤트 발생 패턴과 상기 제2수술 동영상에 따른 수술 시의 이벤트 발생 패턴을 상호 비교한 이벤트 비교 데이터를 생성하는 단계를 포함할 수 있다.
또한, 본원의 제2실시예에 따른 인공지능 기반의 수술 비교 평가 방법은, 소정의 수술 도구에 대한 도구 등장 정보를 상기 제1수술 동영상 및 상기 제2수술 동영상에 대하여 각각 획득하는 단계, 상기 제1이벤트 분석 정보, 상기 제2이벤트 분석 정보 및 상기 도구 등장 정보에 기초하여 상기 제1수술 동영상에 반영된 제1수술 행위 정보와 상기 제2수술 동영상에 반영된 제2수술 행위 정보를 도출하는 단계 및 상기 제1수술 행위 정보 및 상기 제2수술 행위 정보를 상호 비교한 행위 비교 데이터를 생성하는 단계를 포함할 수 있다.
한편, 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 장치는, 입력된 수술 동영상에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득하는 도구 인식부 및 상기 도구 등장 정보에 기초하여 상기 수술 동영상에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성하는 통계 분석부를 포함할 수 있다.
또한, 상기 도구 인식부는, 상기 수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 상기 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임에 대한 식별 정보 및 상기 도구 등장 프레임에서의 상기 수술 도구의 위치 정보를 도출할 수 있다.
또한, 상기 통계 분석부는, 상기 도구 등장 프레임의 프레임 수 또는 상기 도구 등장 프레임에 상응하는 재생 구간의 길이에 기초하여 상기 수술 도구의 출현 시간 정보를 산출하고, 연속한 상기 도구 등장 프레임을 포함하는 도구 등장 구간을 특정하고, 상기 도구 등장 구간에 기초하여 상기 수술 도구의 출현 빈도를 카운트할 수 있다.
또한, 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 장치는, 상기 수술 동영상의 색상 변화 정보에 기초하여 이벤트 분석 정보를 도출하는 이벤트 인식부를 포함할 수 있다.
또한, 상기 통계 분석부는, 상기 이벤트 분석 정보에 기초하여 상기 수술 동영상에 대응하는 수술 시의 이벤트 발생 패턴과 연계된 제2통계 데이터를 생성할 수 있다.
한편, 본원의 제1실시예에 따른 인공지능 기반의 수술 비교 평가 장치는, 입력된 제1수술 동영상에서 등장하는 소정의 수술 도구에 대한 제1도구 등장 정보를 획득하고, 상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상에서 상기 수술 도구에 대한 제2도구 등장 정보를 획득하는 도구 인식부 및 상기 제1도구 등장 정보 및 상기 제2도구 등장 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 도구 사용 패턴과 상기 제2수술 동영상에 따른 수술 시의 도구 사용 패턴을 상호 비교한 도구 비교 데이터를 생성하는 비교 분석부를 포함할 수 있다.
한편, 본원의 제2실시예에 따른 인공지능 기반의 수술 비교 평가 장치는, 입력된 제1수술 동영상의 색상 변화 정보에 기초하여 제1이벤트 분석 정보를 도출하고, 상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상의 색상 변화 정보에 기초하여 제2이벤트 분석 정보를 도출하는 이벤트 인식부 및 상기 제1이벤트 분석 정보 및 상기 제2이벤트 분석 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 이벤트 발생 패턴과 상기 제2수술 동영상에 따른 수술 시의 이벤트 발생 패턴을 상호 비교한 이벤트 비교 데이터를 생성하는 비교 분석부를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 인공지능 기반의 물체(Object) 인식 기술을 적용하여 수술 중 관측되는 도구, 병변, 장기, 이벤트(예를 들면, 출혈, 연무현상 등)를 수술 동영상으로부터 인식하여 데이터화하고 비교 표준 데이터로 선정하여 이를 기준으로 수술 단계별로 도구의 출현과 사용빈도, 사용시간 등을 계산하여 시계열적으로 제공할 뿐만 아니라, 비교 대상이 되는 다른 수술과의 차이를 시각적으로 비교할 수 있는 시스템을 제공할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 인공지능 기반의 도구 또는 이벤트 인식 알고리즘이 탑재된 시스템을 기반으로 수술 동영상을 분석한 결과를 해당 수술에 대한 데이터로서 저장하여 통계적 의미를 제시할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 수술을 과학적 지표로 관리할 수 있고 기존에 주로 정성적 판단에만 의존하던 수술에 대한 평가를 객관적인 데이터에 기반하여 관리함으로써 합리적인 표준 술기 모델을 제시할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 수술을 과학적 지표로 평가함으로써 의사 양성 프로그램의 객관성을 향상시킬 수 있다.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.
도 1은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치를 포함하는 수술 동영상 제공 시스템의 개략적인 구성도이다.
도 2는 수술 동영상으로부터 영상 내에 등장하는 소정의 도구를 식별하는 것을 설명하기 위한 도면이다.
도 3은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치에 의해 도출되는 수술 동영상에 대한 평가 정보를 출력하는 인터페이스를 예시적으로 나타낸 도면이다.
도 4a 및 도 4b는 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치에 의해 도출되는 수술 동영상에 대한 평가 정보 중 수술 동영상에서 식별된 도구 등장 정보에 대한 통계 정보를 예시적으로 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치에 의해 도출되는 서로 다른 수술 동영상 간의 비교 정보를 출력하는 인터페이스를 예시적으로 나타낸 도면이다.
도 6a 및 도 6b는 수술 동영상 내의 특정 영상 구간과 장면에 대하여 주석을 삽입하기 위한 인터페이스를 예시적으로 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치의 개략적인 구성도이다.
도 8은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 방법에 대한 동작 흐름도이다.
도 9는 본원의 제1실시예에 따른 인공지능 기반의 수술 비교 평가 방법에 대한 동작 흐름도이다.
도 10은 본원의 제2실시예에 따른 인공지능 기반의 수술 비교 평가 방법에 대한 동작 흐름도이다.
도 11은 본원의 제3실시예에 따른 인공지능 기반의 수술 비교 평가 방법에 대한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본원은 인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법에 관한 것이다. 예를 들어, 본원은 수술을 비교 평가하기 위해 인공지능 분석 기술을 적용하여 수술의 시간별 데이터를 추출하고 이를 다른 수술과 비교하는 기법에 관한 것이다.
도 1은 본원의 일 실시예에 따른 인공지능 기반의 수술 비교 평가 장치를 포함하는 수술 동영상 제공 시스템의 개략적인 구성도이다.
도 1을 참조하면, 본원의 일 실시예에 따른 수술 동영상 제공 시스템(10)은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치(100)(이하, '본 장치(100)'라 한다.) 및 사용자 단말(30)을 포함할 수 있다.
본 장치(100) 및 사용자 단말(30) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
사용자 단말(30)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다.
한편, 본원의 실시예에 관한 설명에서 본 장치(100)는 입력된 수술 동영상(1)에 대한 인공지능 기반의 영상 분석을 통해 해당 수술 동영상(1) 내에서 등장하는 도구, 수술 동영상(1)에 대응하는 수술/시술 시 발생한 이벤트(예를 들면, 출혈, 연기 발생 등), 해당 수술/시술을 수행한 수술자(시술자)가 수행한 수술 행위를 도출하고 이를 통계 데이터(2) 형태로 가공하여 제공하도록 동작하는 것일 수 있다.
또한, 본원의 실시예에 관한 설명에서 본 장치(100)는 서로 다른 시점에 수행된 수술/시술에 따른 복수의 수술 동영상을 입력받아 전술한 도구, 이벤트, 행위 측면에서 복수의 수술 동영상을 상호 비교하여 비교 결과를 통계 데이터(2) 형태로 가공하여 제공하도록 동작하는 것일 수 있다.
달리 말해, 본원의 구현예에 따라 본 장치(100)는 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치(100), 인공지능 기반의 수술 동영상 분석 장치(100), 인공지능 기반의 수술 비교 평가 장치(100) 등으로 달리 지칭될 수 있다.
본 장치(100)는 입력된 수술 동영상(1)을 소정의 프레임 단위로 분할하여 분석용 이미지를 수집할 수 있다.
달리 말해, 본 장치(100)는 입력된 수술 동영상(1)을 복수의 클립 영상으로 분할할 수 있다. 구체적으로, 본 장치(100)는, 수술 동영상(1)의 인접 프레임 간 유사도에 기초하여 경계 프레임을 검출하고, 경계 프레임을 기준으로 하여 수술 동영상(1)을 복수의 클립 영상으로 분할할 수 있다.
본원의 일 실시예에 따르면, 인접 프레임 간 유사도는 인접 프레임 간의 구조적 유사도 및 인접 프레임 간의 컬러 히스토그램 유사도를 포함할 수 있다. 다만, 이에만 한정되는 것은 아니며, 인접 프레임 간 유사도는 인접 프레임 간의 색상 정보, 등장 객체(예를 들면, 수술 도구 등) 정보 등에 기초하여 다양한 방식으로 산출될 수 있다.
참고로, 본 장치(100)에 의해 추출된 경계 프레임은 수술 동영상(1)의 특징에 해당하는 연속적인 유사 영상 간의 경계에 해당하고, 물체(Object) 탐지 등을 수행하는 CPU 등의 처리 장치의 연산을 최소화 하기 위한 용도로 활용되는 것일 수 있다.
또한, 본 장치(100)는 입력된 수술 동영상에 포함된 복수의 프레임 중에서 소정의 도구가 포함된 도구 등장 프레임 및 소정의 이벤트가 발생한 이벤트 발생 프레임 중 적어도 일부를 포함하는 영상 구간을 선정할 수 있다. 예를 들어, 본 장치(100)는 전술한 바와 같이 인접 프레임 간 유사도에 기초하여 1차적으로 복수의 영상 구간으로 분할된 클립 영상 각각으로부터 도구 등장 프레임 및 이벤트 발생 프레임 중 적어도 하나를 포함하는 영상 구간을 선정(특정)하는 것일 수 있으나, 이에만 한정되는 것은 아니다. 다른 예로, 본 장치(100)는 본원의 구현예에 따라 수술 동영상(1)과 연계된 수술의 유형, 수술 동영상(1)의 길이, 사용자 설정 등에 기초하여 수술 동영상(1)을 클립 영상으로 선행하여 분할하지 않고, 전체 시간 구간의 수술 동영상(1) 내에서 도구 등장 프레임 및 이벤트 발생 프레임 중 적어도 하나를 포함하는 영상 구간을 선정하도록 동작할 수 있다.
또한, 본 장치(100)는 입력된 수술 동영상(1) 내 복수의 프레임 중 소정의 도구가 포함된 도구 등장 프레임을 선별할 수 있다. 구체적으로, 본원의 일 실시예에 따르면, 본 장치(100)는 소정의 도구의 등장 시점(등장 프레임) 및 퇴장 시점(퇴장 프레임)을 도구별로 획득할 수 있다. 참고로, 수술 동영상에서 등장 가능한 각종 도구들은 수술의 종류, 수술 환경, 촬영 기기의 근접도 등에 따라 수술 동영상의 프레임 내부에서 등장 및 퇴장을 반복할 수 있다.
따라서, 본 장치(100)는 하나의 도구에 대하여 등장 프레임 및 퇴장 프레임을 복수 개 획득하도록 동작할 수 있다. 이해를 돕기 위해 예시하면, 수술 동영상의 시작 프레임을 기준으로 탐색하여 도구가 처음 등장한 프레임과 이후의 가장 근접한 프레임에서 해당 도구가 퇴장한 프레임 사이 구간이 해당 도구가 등장한 구간 범위로 식별될 수 있다. 또한, 이후 해당 도구가 재등장하는 경우 이와 유사하게 해당 도구가 두 번째로 등장한 구간 범위로 식별될 수 있다.
이와 관련하여, 도 2는 수술 동영상으로부터 영상 내에 등장하는 소정의 도구를 식별하는 것을 설명하기 위한 도면이다.
도 2를 참조하면, 본 장치(100)는 소정의 프레임에서 등장한 도구를 식별하고 식별 결과를 해당 프레임에 중첩하여 나타낼 수 있다.
본원의 일 실시예에 따르면, 본 장치(100)가 식별하는 도구는 가위(Scissors), 핀셋, 흡입기, 시술자의 손, 내시경, 카테터, 가이드 와이어, 프로브, Grasper, Bipolar, Hook, Clipper, Irrigator, Specimen Bag 등 수술 과정에서 활용될 수 있는 다양한 의료 기기, 도구 등을 폭넓게 포함할 수 있다. 또한, 본원의 일 실시예에 따르면, 본 장치(100)는 입력된 수술 동영상(1)의 수술 정보(예를 들면, 수술 유형, 질병 대상, 대상자의 연령 등)에 기초하여 소정의 도구 별로 해당 수술 동영상에 등장할 확률을 계산하여, 계산된 확률에 기초하여 도구에 대한 식별을 수행하는 것일 수 있다.
또한, 본 장치(100)는 입력된 수술 동영상 또는 분할된 클립 영상에 포함된 복수의 프레임 각각의 색상 정보에 기초하여 소정의 이벤트가 발생한 이벤트 발생 프레임을 식별할 수 있다. 본원의 실시예에 관한 설명에서, '이벤트'란 수술 도중에 발생 가능한 각종 상황에 대응될 수 있으며, 본 장치(100)는 대상자의 체내 영역에서의 시각적 요소(색상)의 변화 등에 기초하여 수술 동영상(1) 내에서의 특정 이벤트의 발생 유무, 발생 시간대, 발생 프레임 등을 식별할 수 있다.
보다 구체적으로, 본원에서의 이벤트는 출혈(Bleeding), 스모킹(Smoking), 비등(Boiling) 및 스파클링(Sparkling) 중 적어도 하나를 포함할 수 있다. 예시적으로 출혈(Bleeding)은 수술 동영상(1) 내에 등장하는 대상자 체내의 신체 부위의 혈관의 손상에 의해 혈액이 혈관 밖으로 흘러나와 수술 동영상(1) 내에서 소정 수준이상 식별되는 상황을 의미할 수 있으며, 스모킹(Smoking)은 수술 동영상(1) 내에서 연기가 식별되는 상황을 의미할 수 있다. 또한, 비등(Boiling)은 액체 상태의 물질을 가열하게 되면, 소정의 온도에서 증발이 일어나, 증발 이외에 액체 안에 증기 기포가 형성되는 기화 현상을 의미할 수 있다. 또한, 스파클링(Sparkling)은 수술 동영상(1) 내에서 번쩍임 또는 불꽃이 식별되는 상황을 의미할 수 있다.
이렇듯, 녹화되거나 실시간으로 획득되는 수술 동영상(1)을 대상으로 한 수술 행위 인식에 있어서, 상대적으로 정형성을 갖는 도구의 인식(식별)과 달리, 수술 과정에서 발생할 수 있는 비정형적인 이벤트는 각 이벤트의 유형을 고려한 개별적인 추론 기법의 개발이 요구된다.
본원의 일 실시예에 따르면, 본 장치(100)는 예를 들어, 영상 내에서 혈액에 의한 급격한 채도 변화를 인식함으로써 출혈 이벤트를 식별(인식)할 수 있다.
이와 관련하여, 본 장치(100)는 선정된 영상 구간 내에서 식별된 도구의 이동 경로를 트래킹하여 도구 궤적 정보를 획득할 수 있다. 여기서, 도구 궤적 정보는 해당 영상 구간에서 등장하는 도구의 유형에 대한 정보를 포함할 수 있다.
또한, 본 장치(100)는 선정된 영상 구간 내에서의 색상 변화 정보에 기초하여 이벤트 분석 정보를 획득할 수 있다. 여기서, 이벤트 분석 정보는 해당 영상 구간에서 등장하는 이벤트의 유형 및 이벤트의 발생 위치를 포함할 수 있다.
또한, 본 장치(100)는 획득된 도구 궤적 정보 및 획득된 이벤트 분석 정보에 기초하여 해당 영상 구간에서 수행된 수술자의 수술 행위를 도출(추론)할 수 있다.
본원의 일 실시예에 따르면, 본 장치(100)가 수술 동영상(1)으로부터 식별하는 수술 행위는 흡입(Suction), 세척(Irrigation), 절개(Dissection), 커팅(Cut), 결찰(Ligation), 클리핑(Clipping), 지혈(Bleeding control), 봉합(Suture) 및 박리(Detachment) 중 적어도 하나를 포함할 수 있다.
본원의 일 실시예에 따르면, 본 장치(100)는 기 생성된 인공지능 알고리즘에 기초하여, 획득된 도구 궤적 정보 및 이벤트 분석 정보 중 적어도 하나에 기초하여 수술 행위를 분석(도출)할 수 있다. 본원의 일 실시예에 따르면, 기 생성된 인공지능 알고리즘은 구체적으로 수술 동영상에서 등장 가능한 도구의 도구 등장 프레임 내에서의 움직임에 대한 분석 결과와 수술 동영상에서 식별된 이벤트에 대한 정보를 입력으로 하여 분석된 도구의 움직임 및 이벤트의 유형 중 적어도 하나에 대응하는 수술 행위를 출력으로 제공하는 알고리즘일 수 있다.
본원의 일 실시예에 따르면, 기 생성된 인공지능 알고리즘은 소정의 수술 동영상 및 해당 수술 동영상에 나타난 수술 행위에 대한 정보를 학습 데이터로 하여 수술 동영상에서 등장 가능한 도구의 움직임에 대한 분석 결과 및 발생 가능한 이벤트의 유형과 이에 대응하는 수술 행위와의 상관 관계(예를 들면, 함수 형태)를 학습하는 지도 학습(Supervised Learning) 기반의 기계 학습 방식으로 생성되는 것일 수 있다. 다만, 이에만 한정되는 것은 아니며, 본원에서의 기 생성된 인공지능 알고리즘은 로지스틱 회귀 분석(Logistic Regression), 랜덤 포레스트(Random Forest), 딥 러닝(Deep Learning), 서포트 벡터 머신(Support Vector Machine, SVM), 인공신경망(Artificial Neural Network, ANN), 강화 학습(Reinforcement Learning) 등 종래에 공지되었거나 향후 개발되는 모든 종류의 기계 학습 방식을 통해 생성(학습)된 것일 수 있다.
또한, 본 장치(100)는 도구 등장 정보, 이벤트 분석 정보 및 수술 행위 정보 중 적어도 하나에 기초하여 수술 동영상(1)에 대한 평가 정보를 생성할 수 있다. 예시적으로, 본 장치(100)는 수술 동영상(1)에서 식별된 도구별 도구 등장 정보에 대한 통계 정보를 포함하는 평가 정보를 생성할 수 있다.
도 3은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치에 의해 도출되는 수술 동영상에 대한 평가 정보를 출력하는 인터페이스를 예시적으로 나타낸 도면이다.
도 3을 참조하면, 본 장치(100)는 앞서 도출된 분석용 이미지로부터 도구, 병변 등에 해당하는 물체(Object)와 출혈 등의 이벤트를 분석한 분석 결과 데이터를 시각적으로 가공하여 리포트 형태의 화면으로 제공할 수 있다.
보다 구체적으로, 도 3을 참조하면, 본 장치(100)는 수술 총 시간, 사용 도구 수, 이벤트 발생 회수(예를 들면, 출혈 회수 등), 도구별 사용 비중, 수술 행위(단계)별 시간 비중, 도구별 등장/퇴장 타임라인, 수술 행위(단계) 타임라인 중 적어도 하나를 포함하는 평가 정보를 생성할 수 있다.
또한, 본원의 일 실시예에 따르면, 본 장치(100)는 도구 등장 정보, 이벤트 분석 정보 및 수술 행위 정보 중 적어도 하나에 기초하여 분석된 수술 동영상(1)을 해당 수술(시술) 유형에 대한 표준 수술(시술)로 평가하여 해당 수술 동영상(1)을 등록할 수 있다. 다른 예로, 도 3을 참조하면, 본 장치(100)는 평가 정보에 따른 통계 데이터(2)가 제공되는 인터페이스를 확인하는 사용자로부터 해당 수술 동영상(1)을 표준 수술(시술)로 하여 등록하기 위한 사용자 입력이 수신되면, 해당 수술 동영상(1)을 표준 수술(시술)로 등록할 수 있다.
이와 관련하여, 도 4a 및 도 4b는 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치에 의해 도출되는 수술 동영상에 대한 평가 정보 중 수술 동영상에서 식별된 도구 등장 정보에 대한 통계 정보를 예시적으로 나타낸 도면이다.
또한, 본원의 일 실시예에 따르면, 본 장치(100)는 도구 등장 프레임에 대한 정보를 도구 별로 정렬하여 소정의 도구에 대한 등장 프레임부터 퇴장 프레임까지의 시간 구간을 표시한 타임 라인을 형상화할 수 있다. 또한, 본 장치(100)는 도구별 도구 등장 프레임에 대한 정보에 기초하여 도구 각각의 등장 시간을 합산하여 표시할 수 있다.
또한, 본 장치(100)는 도구별 도구 등장 프레임에 대한 정보에 기초하여 획득된 도구 각각의 등장 시간을 종합하여 등장 시간이 긴 순으로 도구를 정렬하여 표시(도구 시간 비율)할 수 있다.
본원의 일 실시예에 따르면, 본 장치(100)는 복수의 수술 행위 정보를 해당 수술의 통상적인 진행 절차에 비추어 단계별로 그룹핑(예를 들어, 1단계, 2단계, 단계 등)할 수 있다. 다른 예로, 본 장치(100)는 사용자 단말(30)을 통해 인가된 그룹핑 요청을 포함하는 사용자 입력에 기초하여 소정의 수술 행위 정보를 그룹핑할 수 있다.
도 5는 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치에 의해 도출되는 서로 다른 수술 동영상 간의 비교 정보를 출력하는 인터페이스를 예시적으로 나타낸 도면이다.
도 5를 참조하면, 본 장치(100)는 제1수술 동영상과 대응되는 유형의 수술을 촬영한 제2수술 동영상에 대한 제2평가 정보를 수신할 수 있다. 또한, 본 장치(100)는 제1수술 동영상으로부터 도출된 제1평가 정보와 수신된 제2수술 동영상에 대한 제2평가 정보에 기초하여 제1수술 동영상과 제2수술 동영상에 대한 비교 정보를 포함하는 통계 데이터(2)를 생성할 수 있다.
구체적으로, 도 5를 참조하면, 제1수술 동영상 및 제2수술 동영상의 비교 정보가 출력되는 인터페이스에는 제1수술 동영상 및 제2수술 동영상 각각에 대한 수술 정보(수술 일자, 환자 정보, 수술 시간 등)이 표시될 수 있다. 또한, 도 5를 참조하면, 본 장치(100)는 제1수술 동영상 및 제2수술 동영상의 비교 정보가 출력되는 인터페이스에 사용된 도구의 개수, 도구 사용 빈도, 도구 사용 빈도의 순위 등을 사용자가 용이하게 비교할 수 있도록 표시한 도구 비교 데이터를 출력할 수 있다.
달리 말해, 본 장치(100)는 복수의 수술 동영상 각각에 대하여 도출된 리포트 데이터를 비교하여 한 화면에서 시각적으로 비교할 수 있도록 비교 정보를 출력하는 인터페이스를 사용자 단말(30) 등으로 제공할 수 있다.
또한, 본원의 일 실시예에 따르면, 본 장치(100)는 수술 행위에 대한 분석이 완료된 영상 구간에 대응하는 클립 영상을 생성할 수 있다. 구체적으로, 본 장치(100)는 분석된 영상 구간에 대응하는 클립 영상에 대한 메타 정보로서 추론된 수술 행위, 식별된 도구의 유형 및 이벤트 분석 정보 중 적어도 하나를 클립 영상에 대한 주석(Annotation)으로 삽입하여 클립 영상을 저장할 수 있다.
이와 관련하여, 도 6a 및 도 6b는 수술 동영상 내의 특정 영상 구간과 장면에 대하여 주석을 삽입하기 위한 인터페이스를 예시적으로 나타낸 도면이다.
도 6a 및 도 6b를 참조하면, 본 장치(100)는 사용자 단말(30)로 인가된 주석 삽입 입력에 기초하여 수술 동영상(1)의 일부 구간(예를 들면, 특정 클립 영상)에 주석을 삽입할 수 있다. 또한, 본 장치(100)는 복수의 사용자 단말(30) 각각으로부터 인가된 주석 삽입 입력을 사용자 단말(30) 또는 사용자 별로 구분하여 주석을 삽입한 사용자가 식별되도록 하여 주석을 삽입할 수 있다.
도 7은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치의 개략적인 구성도이다.
도 7을 참조하면, 본 장치(100)는 도구 인식부(110), 이벤트 인식부(120), 행위 추론부(130), 통계 분석부(140), 비교 분석부(150) 및 출력부(160)를 포함할 수 있다.
도구 인식부(110)는 입력된 수술 동영상(1)에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득할 수 있다.
구체적으로, 도구 인식부(110)는 수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임에 대한 식별 정보 및 도구 등장 프레임에서의 수술 도구의 위치 정보를 도출할 수 있다.
예시적으로, 도구 인식부(110)는 제1수술 동영상 및 제2수술 동영상을 포함하는 상호 비교 대상이 되는 복수의 수술 동영상을 기초로 하여, 제1수술 동영상에서 등장하는 소정의 수술 도구에 대한 제1도구 등장 정보를 획득하고, 제1수술 동영상과 대응하는 유형의 제2수술 동영상에서 수술 도구에 대한 제2도구 등장 정보를 획득하도록 동작할 수 있다.
이벤트 인식부(120)는 입력된 수술 동영상(1)의 색상 변화 정보에 기초하여 이벤트 분석 정보를 도출할 수 있다.
예시적으로, 이벤트 인식부(120)는 제1수술 동영상 및 제2수술 동영상을 포함하는 상호 비교 대상이 되는 복수의 수술 동영상을 기초로 하여, 제1수술 동영상의 색상 변화 정보에 기초하여 제1이벤트 분석 정보를 도출하고, 제1수술 동영상과 대응하는 유형의 제2수술 동영상의 색상 변화 정보에 기초하여 제2이벤트 분석 정보를 도출할 수 있다.
행위 추론부(130)는 도구 등장 정보 및 이벤트 분석 정보에 기초하여 입력된 수술 동영상(1)에 반영된 수술 행위 정보를 도출할 수 있다.
예시적으로, 행위 추론부(130)는 제1수술 동영상 및 제2수술 동영상을 포함하는 상호 비교 대상이 되는 복수의 수술 동영상을 기초로 하여, 제1이벤트 분석 정보, 제2이벤트 분석 정보, 제1도구 등장 정보 및 제2도구 등장 정보에 기초하여 제1수술 동영상에 반영된 제1수술 행위 정보와 제2수술 동영상에 반영된 제2수술 행위 정보를 각각 도출할 수 있다.
통계 분석부(140)는 도구 등장 정보에 기초하여 입력된 수술 동영상(1)에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성할 수 있다.
구체적으로, 통계 분석부(140)는 도구 등장 프레임의 프레임 수 또는 도구 등장 프레임에 상응하는 재생 구간의 길이에 기초하여 수술 도구의 출현 시간 정보를 산출할 수 있다.
또한, 통계 분석부(140)는 연속한 도구 등장 프레임을 포함하는 도구 등장 구간을 특정하고, 도구 등장 구간에 기초하여 수술 도구의 출현 빈도를 카운트할 수 있다.
또한, 통계 분석부(140)는 이벤트 분석 정보에 기초하여 입력된 수술 동영상(1)에 대응하는 수술 시의 이벤트 발생 패턴과 연계된 제2통계 데이터를 생성할 수 있다.
비교 분석부(150)는 제1수술 동영상 및 제2수술 동영상을 포함하는 상호 비교 대상이 되는 복수의 수술 동영상을 기초로 하여, 제1도구 등장 정보 및 제2도구 등장 정보에 기초하여 제1수술 동영상에 따른 수술 시의 도구 사용 패턴과 제2수술 동영상에 따른 수술 시의 도구 사용 패턴을 상호 비교한 도구 비교 데이터를 생성할 수 있다.
또한, 비교 분석부(150)는 제1수술 동영상 및 제2수술 동영상을 포함하는 상호 비교 대상이 되는 복수의 수술 동영상을 기초로 하여, 제1이벤트 분석 정보 및 제2이벤트 분석 정보에 기초하여 제1수술 동영상에 따른 수술 시의 이벤트 발생 패턴과 제2수술 동영상에 따른 수술 시의 이벤트 발생 패턴을 상호 비교한 이벤트 비교 데이터를 생성할 수 있다.
또한, 비교 분석부(150)는 제1수술 동영상 및 제2수술 동영상을 포함하는 상호 비교 대상이 되는 복수의 수술 동영상을 기초로 하여, 제1수술 행위 정보 및 제2수술 행위 정보에 기초하여 제1수술 동영상에 따른 수술 시의 수술자의 수술 행위 수행 패턴과 제2수술 동영상에 따른 수술 시의 수술자의 수술 행위 수행 패턴을 상호 비교한 행위 비교 데이터를 생성할 수 있다.
출력부(160)는 전술한 제1통계 데이터, 제2통계 데이터, 도구 비교 데이터, 이벤트 비교 데이터, 행위 비교 데이터 등을 사용자 단말(30)을 통해 표시(표출)하기 위한 인터페이스를 출력할 수 있다.
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.
도 8은 본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 방법에 대한 동작 흐름도이다.
도 8에 도시된 인공지능 기반의 수술 동영상 분석 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 인공지능 기반의 수술 동영상 분석 방법에 대한 설명에도 동일하게 적용될 수 있다.
도 8을 참조하면, 단계 S11에서 도구 인식부(110)는 입력된 수술 동영상(1)에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득할 수 있다.
다음으로, 단계 S12에서 이벤트 인식부(120)는 입력된 수술 동영상(1)의 색상 변화 정보에 기초하여 이벤트 분석 정보를 도출할 수 있다.
다음으로, 단계 S13에서 통계 분석부(140)는 단계 S11에서 도출된 도구 등장 정보에 기초하여 수술 동영상에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성할 수 있다.
구체적으로, 단계 S13에서 통계 분석부(140)는 연속한 도구 등장 프레임을 포함하는 도구 등장 구간을 특정할 수 있다. 또한, 단계 S13에서 통계 분석부(140)는 도구 등장 구간에 기초하여 수술 도구의 출현 빈도를 카운트할 수 있다.
다음으로, 단계 S14에서 통계 분석부(140)는 단계 S12에서 도출된 이벤트 분석 정보에 기초하여 해당 수술 동영상(1)에 대응하는 수술 시의 이벤트 발생 패턴과 연계된 제2통계 데이터를 생성할 수 있다.
다음으로, 단계 S15에서 출력부(160)는 제1통계 데이터 및 제2통계 데이터 중 적어도 하나를 포함하는 통계 데이터(2)를 출력할 수 있다.
상술한 설명에서, 단계 S11 내지 S15는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 9는 본원의 제1실시예에 따른 인공지능 기반의 수술 비교 평가 방법에 대한 동작 흐름도이다.
도 9에 도시된 본원의 제1실시예에 따른 인공지능 기반의 수술 비교 평가 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 도 9에 대한 설명에도 동일하게 적용될 수 있다.
도 9를 참조하면, 단계 S21에서 도구 인식부(110)는 입력된 제1수술 동영상에서 등장하는 소정의 수술 도구에 대한 제1도구 등장 정보를 획득할 수 있다.
다음으로, 단계 S22에서 도구 인식부(110)는 제1수술 동영상과 대응하는 유형의 제2수술 동영상에서 해당 수술 도구에 대한 제2도구 등장 정보를 획득할 수 있다.
다음으로, 단계 S23에서 비교 분석부(150)는 제1도구 등장 정보 및 제2도구 등장 정보에 기초하여 제1수술 동영상에 따른 수술 시의 도구 사용 패턴과 제2수술 동영상에 따른 수술 시의 도구 사용 패턴을 상호 비교한 도구 비교 데이터를 생성할 수 있다.
본원의 일 실시예에 따르면, 단계 S23에서 비교 분석부(150)는 제1수술 동영상 및 제2수술 동영상 각각에 대하여 도출된 연속된 도구 등장 프레임을 포함하는 도구 등장 구간을 타임라인 상에 구분하여 표시한 도구 비교 데이터를 생성할 수 있다.
상술한 설명에서, 단계 S21 내지 S23은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 10은 본원의 제2실시예에 따른 인공지능 기반의 수술 비교 평가 방법에 대한 동작 흐름도이다.
도 10에 도시된 본원의 제2실시예에 따른 인공지능 기반의 수술 비교 평가 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 도 10에 대한 설명에도 동일하게 적용될 수 있다.
도 10을 참조하면, 단계 S31에서 이벤트 인식부(120)는 입력된 제1수술 동영상의 색상 변화 정보에 기초하여 제1이벤트 분석 정보를 도출할 수 있다.
다음으로, 단계 S32에서 이벤트 인식부(120)는 제1수술 동영상과 대응하는 유형의 제2수술 동영상의 색상 변화 정보에 기초하여 제2이벤트 분석 정보를 도출할 수 있다.
다음으로, 단계 S33에서 비교 분석부(150)는 제1이벤트 분석 정보 및 제2이벤트 분석 정보에 기초하여 제1수술 동영상에 따른 수술 시의 이벤트 발생 패턴과 제2수술 동영상에 따른 수술 시의 이벤트 발생 패턴을 상호 비교한 이벤트 비교 데이터를 생성할 수 있다.
상술한 설명에서, 단계 S31 내지 S33은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 11은 본원의 제3실시예에 따른 인공지능 기반의 수술 비교 평가 방법에 대한 동작 흐름도이다.
도 11에 도시된 본원의 제3실시예에 따른 인공지능 기반의 수술 비교 평가 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 도 11에 대한 설명에도 동일하게 적용될 수 있다.
도 11을 참조하면, 단계 S41에서 도구 인식부(110)는 소정의 수술 도구에 대한 도구 등장 정보를 제1수술 동영상 및 제2수술 동영상에 대하여 각각 획득할 수 있다.
다음으로, 단계 S42에서 행위 추론부(130)는 제1이벤트 분석 정보, 제2이벤트 분석 정보 및 도구 등장 정보에 기초하여 제1수술 동영상에 반영된 제1수술 행위 정보와 제2수술 동영상에 반영된 제2수술 행위 정보를 도출할 수 있다.
다음으로, 단계 S43에서 비교 분석부(150)는 제1수술 행위 정보 및 제2수술 행위 정보를 상호 비교한 행위 비교 데이터를 생성할 수 있다.
상술한 설명에서, 단계 S41 내지 S43은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본원의 일 실시예에 따른 인공지능 기반의 수술 동영상 분석 방법에 내지 인공지능 기반의 수술 비교 평가 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 전술한 인공지능 기반의 수술 동영상 분석 방법에 내지 인공지능 기반의 수술 비교 평가 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.
10: 수술 동영상 제공 시스템
100: 인공지능 기반의 수술 동영상 분석 및 비교 평가 장치
110: 도구 인식부
120: 이벤트 인식부
130: 행위 추론부
140: 통계 분석부
150: 비교 분석부
160: 출력부
20: 네트워크
30: 사용자 단말

Claims (15)

  1. 인공지능 기반의 수술 동영상 분석 방법에 있어서,
    입력된 수술 동영상에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득하는 단계; 및
    상기 도구 등장 정보에 기초하여 상기 수술 동영상에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성하는 단계,
    를 포함하는, 수술 동영상 분석 방법.
  2. 제1항에 있어서,
    상기 도구 등장 정보를 획득하는 단계는,
    상기 수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 상기 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임에 대한 식별 정보 및 상기 도구 등장 프레임에서의 상기 수술 도구의 위치 정보를 도출하는 것인, 수술 동영상 분석 방법.
  3. 제2항에 있어서,
    상기 제1통계 데이터를 생성하는 단계는,
    상기 도구 등장 프레임의 프레임 수 또는 상기 도구 등장 프레임에 상응하는 재생 구간의 길이에 기초하여 상기 수술 도구의 출현 시간 정보를 산출하는 단계,
    를 포함하는 것인, 수술 동영상 분석 방법.
  4. 제2항에 있어서,
    상기 제1통계 데이터를 생성하는 단계는,
    연속한 상기 도구 등장 프레임을 포함하는 도구 등장 구간을 특정하는 단계; 및
    상기 도구 등장 구간에 기초하여 상기 수술 도구의 출현 빈도를 카운트하는 단계,
    를 포함하는 것인, 수술 동영상 분석 방법.
  5. 제1항에 있어서,
    상기 수술 동영상의 색상 변화 정보에 기초하여 이벤트 분석 정보를 도출하는 단계; 및
    상기 이벤트 분석 정보에 기초하여 상기 수술 동영상에 대응하는 수술 시의 이벤트 발생 패턴과 연계된 제2통계 데이터를 생성하는 단계,
    를 더 포함하는 것인, 수술 동영상 분석 방법.
  6. 인공지능 기반의 수술 비교 평가 방법에 있어서,
    입력된 제1수술 동영상에서 등장하는 소정의 수술 도구에 대한 제1도구 등장 정보를 획득하는 단계;
    상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상에서 상기 수술 도구에 대한 제2도구 등장 정보를 획득하는 단계; 및
    상기 제1도구 등장 정보 및 상기 제2도구 등장 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 도구 사용 패턴과 상기 제2수술 동영상에 따른 수술 시의 도구 사용 패턴을 상호 비교한 도구 비교 데이터를 생성하는 단계,
    를 포함하는, 수술 비교 평가 방법.
  7. 제6항에 있어서,
    상기 제1도구 등장 정보를 획득하는 단계 또는 상기 제2도구 등장 정보를 획득하는 단계는,
    상기 제1수술 동영상 또는 상기 제2수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 상기 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임을 특정하는 것이고,
    상기 도구 비교 데이터를 생성하는 단계는,
    상기 제1수술 동영상 및 상기 제2수술 동영상 각각에 대하여 도출된 연속된 도구 등장 프레임을 포함하는 도구 등장 구간을 타임라인 상에 구분하여 표시한 상기 도구 비교 데이터를 생성하는 것인, 수술 비교 평가 방법.
  8. 인공지능 기반의 수술 비교 평가 방법에 있어서,
    입력된 제1수술 동영상의 색상 변화 정보에 기초하여 제1이벤트 분석 정보를 도출하는 단계;
    상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상의 색상 변화 정보에 기초하여 제2이벤트 분석 정보를 도출하는 단계; 및
    상기 제1이벤트 분석 정보 및 상기 제2이벤트 분석 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 이벤트 발생 패턴과 상기 제2수술 동영상에 따른 수술 시의 이벤트 발생 패턴을 상호 비교한 이벤트 비교 데이터를 생성하는 단계,
    를 포함하는, 수술 비교 평가 방법.
  9. 제8항에 있어서,
    소정의 수술 도구에 대한 도구 등장 정보를 상기 제1수술 동영상 및 상기 제2수술 동영상에 대하여 각각 획득하는 단계;
    상기 제1이벤트 분석 정보, 상기 제2이벤트 분석 정보 및 상기 도구 등장 정보에 기초하여 상기 제1수술 동영상에 반영된 제1수술 행위 정보와 상기 제2수술 동영상에 반영된 제2수술 행위 정보를 도출하는 단계; 및
    상기 제1수술 행위 정보 및 상기 제2수술 행위 정보를 상호 비교한 행위 비교 데이터를 생성하는 단계,
    를 더 포함하는 것인, 수술 비교 평가 방법.
  10. 인공지능 기반의 수술 동영상 분석 장치에 있어서,
    입력된 수술 동영상에서 등장하는 소정의 수술 도구에 대한 도구 등장 정보를 획득하는 도구 인식부; 및
    상기 도구 등장 정보에 기초하여 상기 수술 동영상에 따른 수술 시의 도구 사용 패턴과 연계된 제1통계 데이터를 생성하는 통계 분석부,
    를 포함하는, 수술 동영상 분석 장치.
  11. 제10항에 있어서,
    상기 도구 인식부는,
    상기 수술 동영상에 포함된 복수의 프레임 중 인공지능 기반의 도구 인식 알고리즘에 기초하여 상기 수술 도구가 등장하는 것으로 판단된 도구 등장 프레임에 대한 식별 정보 및 상기 도구 등장 프레임에서의 상기 수술 도구의 위치 정보를 도출하고,
    상기 통계 분석부는,
    상기 도구 등장 프레임의 프레임 수 또는 상기 도구 등장 프레임에 상응하는 재생 구간의 길이에 기초하여 상기 수술 도구의 출현 시간 정보를 산출하고, 연속한 상기 도구 등장 프레임을 포함하는 도구 등장 구간을 특정하고, 상기 도구 등장 구간에 기초하여 상기 수술 도구의 출현 빈도를 카운트하는 것인, 수술 동영상 분석 장치.
  12. 제10항에 있어서,
    상기 수술 동영상의 색상 변화 정보에 기초하여 이벤트 분석 정보를 도출하는 이벤트 인식부,
    를 더 포함하고,
    상기 통계 분석부는,
    상기 이벤트 분석 정보에 기초하여 상기 수술 동영상에 대응하는 수술 시의 이벤트 발생 패턴과 연계된 제2통계 데이터를 생성하는 것인, 수술 동영상 분석 장치.
  13. 인공지능 기반의 수술 비교 평가 장치에 있어서,
    입력된 제1수술 동영상에서 등장하는 소정의 수술 도구에 대한 제1도구 등장 정보를 획득하고, 상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상에서 상기 수술 도구에 대한 제2도구 등장 정보를 획득하는 도구 인식부; 및
    상기 제1도구 등장 정보 및 상기 제2도구 등장 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 도구 사용 패턴과 상기 제2수술 동영상에 따른 수술 시의 도구 사용 패턴을 상호 비교한 도구 비교 데이터를 생성하는 비교 분석부,
    를 포함하는, 수술 비교 평가 장치.
  14. 인공지능 기반의 수술 비교 평가 장치에 있어서,
    입력된 제1수술 동영상의 색상 변화 정보에 기초하여 제1이벤트 분석 정보를 도출하고, 상기 제1수술 동영상과 대응하는 유형의 제2수술 동영상의 색상 변화 정보에 기초하여 제2이벤트 분석 정보를 도출하는 이벤트 인식부; 및
    상기 제1이벤트 분석 정보 및 상기 제2이벤트 분석 정보에 기초하여 상기 제1수술 동영상에 따른 수술 시의 이벤트 발생 패턴과 상기 제2수술 동영상에 따른 수술 시의 이벤트 발생 패턴을 상호 비교한 이벤트 비교 데이터를 생성하는 비교 분석부,
    를 포함하는, 수술 비교 평가 장치.
  15. 제1항 내지 제9항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터에서 판독 가능한 기록매체.
KR1020220006607A 2021-01-15 2022-01-17 인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법 KR20220103656A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210005718 2021-01-15
KR20210005718 2021-01-15

Publications (1)

Publication Number Publication Date
KR20220103656A true KR20220103656A (ko) 2022-07-22

Family

ID=82606139

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220006607A KR20220103656A (ko) 2021-01-15 2022-01-17 인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20220103656A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075961A1 (ko) * 2022-10-05 2024-04-11 주식회사 엠티이지 영상에 포함된 객체에 대한 추론을 수행하는 방법 및 디바이스

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075961A1 (ko) * 2022-10-05 2024-04-11 주식회사 엠티이지 영상에 포함된 객체에 대한 추론을 수행하는 방법 및 디바이스

Similar Documents

Publication Publication Date Title
US20220020486A1 (en) Methods and systems for using multiple data structures to process surgical data
Jin et al. Temporal memory relation network for workflow recognition from surgical video
Zia et al. Surgical activity recognition in robot-assisted radical prostatectomy using deep learning
Yamazaki et al. Automated surgical instrument detection from laparoscopic gastrectomy video images using an open source convolutional neural network platform
WO2020146501A1 (en) Surgical workflow and activity detection based on surgical videos
KR102180921B1 (ko) 인공지능 기반의 수술 동영상에 대한 주석 삽입 장치 및 방법
KR102386496B1 (ko) 도구 인식 기반의 수술 동영상 간 유사도 비교 장치 및 방법
Kofler et al. Are we using appropriate segmentation metrics? Identifying correlates of human expert perception for CNN training beyond rolling the DICE coefficient
Forestier et al. Automatic phase prediction from low-level surgical activities
Forestier et al. Automatic matching of surgeries to predict surgeons’ next actions
US11625834B2 (en) Surgical scene assessment based on computer vision
US20240054638A1 (en) Automatic annotation of condition features in medical images
Golany et al. Artificial intelligence for phase recognition in complex laparoscopic cholecystectomy
US20240169579A1 (en) Prediction of structures in surgical data using machine learning
KR102544629B1 (ko) 수술 동영상에 대한 영상 분석에 기초한 수술 행위 추론 장치 및 방법
AU2021408159A9 (en) Automatic annotation of condition features in medical images
Panetta et al. Software architecture for automating cognitive science eye-tracking data analysis and object annotation
Demir et al. Deep learning in surgical workflow analysis: a review of phase and step recognition
Marafioti et al. CataNet: predicting remaining cataract surgery duration
KR20220103656A (ko) 인공지능 기반의 수술 동영상 분석과 수술 비교 평가를 위한 장치 및 방법
Saeed et al. Learning image quality assessment by reinforcing task amenable data selection
Nafiz et al. Automated Detection of COVID-19 Cough Sound using Mel-Spectrogram Images and Convolutional Neural Network
Goldbraikh et al. Bounded future ms-tcn++ for surgical gesture recognition
US20240161497A1 (en) Detection of surgical states and instruments
Demir et al. Surgical Phase Recognition: A Review and Evaluation of Current Approaches