KR102260180B1 - 딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템 - Google Patents

딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템 Download PDF

Info

Publication number
KR102260180B1
KR102260180B1 KR1020200002543A KR20200002543A KR102260180B1 KR 102260180 B1 KR102260180 B1 KR 102260180B1 KR 1020200002543 A KR1020200002543 A KR 1020200002543A KR 20200002543 A KR20200002543 A KR 20200002543A KR 102260180 B1 KR102260180 B1 KR 102260180B1
Authority
KR
South Korea
Prior art keywords
video head
head impulse
impulse test
deep learning
data
Prior art date
Application number
KR1020200002543A
Other languages
English (en)
Inventor
권장우
김규성
쇼크루
사이드라술콘
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020200002543A priority Critical patent/KR102260180B1/ko
Application granted granted Critical
Publication of KR102260180B1 publication Critical patent/KR102260180B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4863Measuring or inducing nystagmus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • A61B5/4023Evaluating sense of balance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템이 개시된다. 일 실시예에 따른 의사 결정 지원 시스템에 의해 수행되는 비디오 두부 충동 검사 방법은, 비디오 두부 충동 검사 데이터를 입력받는 단계; 임상 의사 결정 지원을 위하여 구성된 딥러닝 모델을 통하여 상기 입력받은 비디오 두부 충동 검사 데이터를 학습시킴에 따라 검사 결과를 획득하는 단계; 및 상기 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공하는 단계를 포함할 수 있다.

Description

딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템{CLINICAL DECISION SUPPORT SYSTEM FOR VIDEO HEAD IMPULSE TEST USING DEEP LEARNING METHOD AND SYSTEM}
아래의 설명은 비디오 두부 충동 검사(vHIT: Video Head Impluse Test) 기술에 관한 것이다.
인간의 신체 균형은 속귀(inner ear)의 전정 기관 내에 있는 3개의 회전 감지 센서(세반고리관, semicircular canal)와 2개의 수평-수직 감지 센서(maculae)에 의해 조절된다. 구체적으로, 양쪽 속귀의 전정 기관에서 지속적으로 발생되는 신체 균형 신호들은 뇌간을 거쳐 안구 운동(VOR)과 인체 직립을 위한 근장력을 유지하도록 하며, 일련의 전정 안구 반사로(VOR, vestibulo-Ocular reflex)와 전정 척수 반사로(VSR, vestibular-spinal reflex)에 이상이 발생하게 되면 인간은 어지럼을 느끼며 직립 보행이 어려워진다.
일반적으로 사용되는 어지럼 진단 장치는 상기의 두 개의 반사로를 점검하는 것으로서, 전정 안구 반사로(VOR) 점검을 위해 안진(nystagmus), 다시 말해, 눈떨림을 관찰하며, 이를 관찰하기 위하여 전기 안진기(EOG, electrooculograph) 또는 영상 안진기(VOG, videooculograph)가 사용된다. 이외에 유발 안진(evoked nystagmus)을 관찰하기 위해 수평 회전 감지 센서에 온도 혹은 회전 자극을 이용하기도 한다.
인간의 신체 균형은 속귀(inner ear)의 전정 기관 내에 있는 3개의 회전 감지 센서(세반고리관, semicircular canal)와 2개의 수평-수직 감지 센서(maculae)에 의해 조절된다. 구체적으로, 양쪽 속귀의 전정 기관에서 지속적으로 발생되는 신체 균형 신호들은 뇌간을 거쳐 안구 운동(VOR)과 인체 직립을 위한 근장력을 유지하도록 하며, 일련의 전정 안구 반사로(VOR, vestibulo-Ocular reflex)와 전정 척수 반사로(VSR, vestibular-spinal reflex)에 이상이 발생하게 되면 인간은 어지럼을 느끼며 직립 보행이 어려워진다.
일반적으로 사용되는 어지럼 진단 장치는 상기의 두 개의 반사로를 점검하는 것으로서, 전정 안구 반사로(VOR) 점검을 위해 안진(nystagmus), 다시 말해, 눈떨림을 관찰하며, 이를 관찰하기 위하여 전기 안진기(EOG, electrooculograph) 또는 영상 안진기(VOG, videooculograph)가 사용된다. 이외에 유발 안진(evoked nystagmus)을 관찰하기 위해 수평 회전 감지 센서에 온도 혹은 회전 자극을 이용하기도 한다.
의사 결정 지원 시스템에 의해 수행되는 비디오 두부 충동 검사 방법은, 비디오 두부 충동 검사 데이터를 입력받는 단계; 임상 의사 결정 지원을 위하여 구성된 딥러닝 모델을 통하여 상기 입력받은 비디오 두부 충동 검사 데이터를 학습시킴에 따라 검사 결과를 획득하는 단계; 및 상기 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공하는 단계를 포함할 수 있다.
상기 검사 결과를 획득하는 단계는, 임상 의사 결정 지원을 위한 딥러닝 모델을 구성하는 단계를 포함할 수 있다.
상기 검사 결과를 획득하는 단계는, 상기 구성된 딥러닝 모델에 상기 비디오 두부 충동 검사 데이터를 입력하여 학습시킴에 따라 학습 결과로서, 임펄스(Impulse) 유형에 대한 비디오 두부 충동 검사 데이터를 분류하는 단계를 포함할 수 있다.
상기 검사 결과를 획득하는 단계는, 정상적인 임펄스, 비정상 임펄스 및 노이즈를 의미하는 아티팩트를 포함하는 임펄스(Impulse) 유형을 기준으로 비디오 두부 충동 검사 데이터를 분류하는 단계를 포함할 수 있다.
상기 딥러닝 모델은, 1차원 컨볼루션 레이어를 사용하여 비디오 두부 충동 검사 데이터를 학습하기 위한 딥러닝 네트워크를 생성하고, 상기 생성된 딥러닝 네트워크에 입력된 비디오 두부 충동 검사 데이터를 학습한 결과로서, 임펄스 유형을 획득하는 단계를 포함할 수 있다.
상기 입력받는 단계는, 환자 레이블이 지정된 데이터 세트의 개인 정보를 제외한 비디오 두부 충동 검사 데이터 셋트를 생성하고, 상기 생성된 비디오 두부 충동 검사 데이터 셋트 중 일부의 비디오 두부 충동 검사 데이터를 추출하여 입력 데이터로 사용하는 단계를 포함할 수 있다.
상기 입력받는 단계는, 상기 입력 데이터에 대한 노이즈를 필터링하기 위한 전처리를 과정을 수행하는 단계를 포함할 수 있다.
상기 입력받는 단계는, 정상적인 임펄스, 비정상 임펄스 및 노이즈를 의미하는 아티팩트를 포함하는 클래스를 생성하고, 상기 비디오 두부 충동 검사 데이터 셋트에 상기 생성된 클래스에 기반한 레이블로 주석을 달고, 각 환자 데이터를 포함하는 임펄스 결과를 나타내는 하위 클래스를 생성하는 단계를 포함할 수 있다.
상기 제공하는 단계는, 상기 획득된 검사 결과로서 안구 운동 비율에 대한 환자의 이득(gain)이 1이 가까울수록 정상으로 판단하는 단계를 포함할 수 있다.
비디오 두부 충동 검사를 위한 의사 결정 지원 시스템은, 비디오 두부 충동 검사 데이터를 입력받는 입력부; 임상 의사 결정 지원을 위하여 구성된 딥러닝 모델을 통하여 상기 입력받은 비디오 두부 충동 검사 데이터를 학습시킴에 따라 검사 결과를 획득하는 획득부; 및 상기 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공하는 제공부를 포함할 수 있다.
일 실시예에 따른 의사 결정 지원 시스템은 복수의 진단결과를 편리하게 조합하여 제공할 수 있다.
일 실시예에 따른 의사 결정 지원 시스템은 딥러닝 방법을 이용하여 두부 충동 검사의 진단을 다룰 수 있다.
일 실시예에 따른 의사 결정 지원 시스템은 복잡한 계산시간을 감소시키고, 의사들의 진단 결정에도 유용하게 도움을 줄 수 있다.
도 1은 일 실시예에 따른 의사 결정 지원 시스템의 구성을 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 의사 결정 지원 시스템에서 비디오 두부 충동 검사 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 의사 결정 지원 시스템에서 정상적인 안구 운동 기능을 나타낸 그래프이다.
도 4는 일 실시예에 따른 의사 결정 지원 시스템에서 비정상적인 안구 운동 기능을 나타낸 그래프이다.
도 5는 일 실시예에 따른 의사 결정 지원 시스템에서 아티팩트를 나타낸 그래프이다.
도 6은 일 실시예에 따른 의사 결정 지원 시스템에서 어노테이션 그래프를 나타낸 예이다.
도 7은 일 실시예에 따른 의사 결정 지원 시스템에서 네트워크의 구조를 나타낸 도면이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1은 일 실시예에 따른 의사 결정 지원 시스템의 구성을 설명하기 위한 블록도이고, 도 2는 일 실시예에 따른 의사 결정 지원 시스템에서 비디오 두부 충동 검사 방법을 설명하기 위한 흐름도이다.
의사 결정 지원 시스템(100)에 포함된 프로세서는 입력부(110), 획득부(120) 및 제공부(130)를 포함할 수 있다. 이러한 프로세서 및 프로세서의 구성요소들은 도 2의 비디오 두부 충동 검사 방법이 포함하는 단계들(210 내지 230)을 수행하도록 의사 결정 지원 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서의 구성요소들은 의사 결정 지원 시스템(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다.
프로세서는 비디오 두부 충동 검사 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 의사 결정 지원 시스템(100)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 의사 결정 지원 시스템을 제어할 수 있다.
단계(210)에서 입력부(110)는 비디오 두부 충동 검사 데이터를 입력받을 수 있다. 입력부(110)는 환자 레이블이 지정된 데이터 세트의 개인 정보를 제외한 비디오 두부 충동 검사 데이터 셋트를 생성하고, 생성된 비디오 두부 충동 검사 데이터 셋트 중 일부의 비디오 두부 충동 검사 데이터를 추출하여 입력 데이터로 사용할 수 있다. 입력부(110)는 정상적인 임펄스, 비정상 임펄스 및 노이즈를 의미하는 아티팩트를 포함하는 클래스를 생성하고, 비디오 두부 충동 검사 데이터 셋트에 생성된 클래스에 기반한 레이블로 주석을 달고, 각 환자 데이터를 포함하는 임펄스 결과를 나타내는 하위 클래스를 생성할 수 있다. 입력부(110)는 입력 데이터에 대한 노이즈를 필터링하기 위한 전처리를 과정을 수행할 수 있다.
단계(220)에서 획득부(120)는 임상 의사 결정 지원을 위하여 구성된 딥러닝 모델을 통하여 입력받은 비디오 두부 충동 검사 데이터를 학습시킴에 따라 검사 결과를 획득할 수 있다. 획득부(120)는 임상 의사 결정 지원을 위한 딥러닝 모델을 구성할 수 있다. 획득부(120)는 구성된 딥러닝 모델에 비디오 두부 충동 검사 데이터를 입력하여 학습시킴에 따라 학습 결과로서, 임펄스(Impulse) 유형에 대한 비디오 두부 충동 검사 데이터를 분류할 수 있다. 획득부(120)는 정상적인 임펄스, 비정상 임펄스 및 노이즈를 의미하는 아티팩트를 포함하는 임펄스 유형을 기준으로 비디오 두부 충동 검사 데이터를 분류할 수 있다. 획득부(120)는 1차원 컨볼루션 레이어를 사용하여 비디오 두부 충동 검사 데이터를 학습하기 위한 딥러닝 네트워크를 생성하고, 상기 생성된 딥러닝 네트워크에 입력된 비디오 두부 충동 검사 데이터를 학습한 결과로서, 임펄스 유형을 획득할 수 있다.
단계(230)에서 제공부(130)는 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공할 수 있다. 예를 들면, 제공부(130)는 전정기관의 안구 반사에 대한 위치 값으로 계산한 이득(position gain)과 속도값으로 계산한 이득(velocity gain) 간의 성능을 비교하여 전정기관 안구반사 추정을 위한 추정 결과를 제공할 수 있다.
도 3은 일 실시예에 따른 의사 결정 지원 시스템에서 정상적인 안구 운동 기능을 나타낸 그래프이다.
비디오 두부 충동 검사는 관의 평면(plane of the canal)에서 갑작스런 머리 회전에 대한 안구 회전 응답을 측정함으로써 6개(왼쪽 3개, 오른쪽 3개)의 반고리관 각각의 기능을 개별적으로 테스트하는데 널리 사용된다.
관의 적합성의 주요 척도는 머리 움직임 자극에 대한 안구 운동 반응의 비율, 다시 말해서, 전정 안구 반사를 말한다. 전정 안구 반사는 자동차 등에서 흔들려도 안정된 시각을 얻을 수 있도록 안구의 움직임을 조절하는 반사기능이다.
안구 운동 반응의 비율을 계산할 때, 정상적인 전정 안구 반사 기능을 가진 환자에서 이득(gain) 값은 1에 가까워야 한다. 다시 말해서, 이득이 1에 가까울수록 정상으로 판단될 수 있고, 이득이 1에 가깝지 않으면 비정상으로 판단될 수 있다. 이때, 1에 가까운지 여부를 판단하기 위한 기준값(예를 들면, 0.5)이 설정될 수 있을 수 있다.
전정 안구 반사에 손상이 있을 경우, 눈의 움직임이 머리의 움직임에 비례하지 않게 된다. 대신 눈이 타겟에 미치지 못하게 된다. 그 결과, 교정용 단속성 운동(corrective saccade)으로 알려진 교정 안구 운동이 타겟에 다시 고정되어야 한다.
의사 결정 지원 시스템은 전정 안구 반사의 기능의 정상 또는 비정상을 확인하기 위하여 ICS 임펄스 장치와 비디오 두부 충동 검사를 사용하여 머리와 눈의 임펄스 데이터 셋트에 오버트 교정용 단속성 운동(overt corrective saccade)와 코버트 교정용 단속성 운동(covert corrective saccade), 자발적인 안진 등을 제공할 수 있다.
일례로, 비디오 두부 충동 검사 동안 한 명의 환자로부터 약 30~40회의 임펄스를 획득할 수 있다. 이때, 노이즈에서 실제 데이터를 식별하는 것이 데이터 셋트의 주요 문제일 수 있다. 실시예에서는 노이즈를 이티팩트(artifacts)라고 기재하기로 한다.
의사 결정 지원 시스템은 환자 레이블이 지정된 데이터 세트의 개인 정보를 제외한 비디오 두부 충동 검사 데이터 셋트를 생성하고, 상기 생성된 비디오 두부 충동 검사 데이터 셋트 중 일부의 비디오 두부 충동 검사 데이터를 추출하여 입력 데이터로 사용할 수 있다.
의사 결정 지원 시스템은 데이터 셋트에서 필요한 데이터를 추출하여 기설정된 형식의 데이터로 저장할 수 있다. 예를 들면, 데이터 셋트에서 추출된 데이터를 .csv 형식으로 저장할 수 있다.
도 6을 참고하면, 의사 결정 지원 시스템은 정상 임펄스(정상적인 안구 운동), 비정상 임펄스(비정상적인 안구 운동) 및 아티팩트(노이즈)로 식별하기 위한 기본 클래스를 구성할 수 있다. 의사 결정 지원 시스템은 기본 클래스에 기반한 데이터 셋트에 레이블로 주석을 달고(annotate), 각 환자의 데이터를 포함하는 임펄스 결과와 관련하여 하위 클래스를 생성할 수 있다.
의사 결정 지원 시스템은 입력 데이터에 대한 노이즈를 필터링하기 위한 전처리를 과정을 수행할 수 있다. 예를 들면, 의사 결정 지원 시스템은 입력 데이터를 고주파 노이즈를 필터링하기 위하여 하나의 평활화 필터(Golay Salvitzky Filter)와 복수의 조건부 명령들을 통하여 전처리 과정을 수행할 수 있다.
의사 결정 지원 시스템은 머리의 움직임과 눈의 반응에 대하여 최소값들과 최대값들에 기초하여 최적점을 검출할 수 있다. 이때, 의사 결정 지원 시스템은 눈의 응답을 회복 단속성 운동(catch-up saccade) 탐색을 용이하게 하기 위하여 자동적으로 표시할 수 있다.
예를 들면, 의사 결정 지원 시스템은 눈의 응답에 따른 각각의 모습에 따라 회복 단속성 운동(catch-up saccade)을 탐지할 수 있고, covert catch-up saccade, overt catch-up saccade(자발성안구진탄증), high-peak eye response(최고점 눈의 반응) 등의 3개의 그룹으로 분류할 수 있다.
눈의 반응에 대한 응답 정점은 머리의 충격 정점 이후에 눈의 응답에 대한 첫 극대점으로 정의될 수 있다. 응답 valley라는 오른쪽 눈의 응답 정점 후의 최소값은 covert catch-up saccade와 overt catch-up saccade를 판별하기 위하여 계산될 수 있다. 응답 valley가 0에 도달하지 않을 때, covert catch-up saccade는 오른쪽 눈의 응답 후 첫 최대치로 감지될 수 있다. 응답 valley가 0에 도달하면, overt catch-up saccade일 수 있다. 이 경우는 자발성안구진탄증 환자를 고려하지 않았을 때 적용될 수 있다.
만약, 자발적안구진탄증 환자가 있는 경우, 눈의 응답 정점 영역에서 아무것도 발생하지 않기 때문에, overt catch-up saccade군으로 판별되어 추가적인 검사가 필요하다. 또한, 의사 결정 지원 시스템은 최고점 눈의 응답(예를 들면, 220도 이상)일 경우 추가 검사를 위하여 하나의 그룹으로 그룹화를 수행할 수 있다.
의사 결정 지원 시스템은 최종적으로 position gain은 회복 단속성 운동이 발생함에 따라 각각의 개별적 충격에 대하여 계산할 수 있다. covert catch-up saccade position gain 알고리즘은 매우 높은 눈의 속도와 covert catch-up saccade 충격을 위하여 사용될 수 있고, 일반적인 position gain 알고리즘은 회복 단속성 운동이 아닌 것과 overt catch-up saccade를 대상으로 사용될 수 있다.
의사 결정 지원 시스템은 복수 개의 회복 단속성 운동 정보와 계산된 position gain를 결과값으로 획득할 수 있다. 도 7을 참고하면, 네트워크의 구조를 나타낸 예이다. 의사 결정 지원 시스템은 1D 컨볼루션 레이어를 사용하여 데이터 셋트를 학습시키기 위한 딥러닝 네트워크를 생성할 수 있다. 예를 들면, CNN, DNN, RNN 등 다양한 딥러닝 네트워크가 적용될 수 있다. 의사 결정 지원 시스템은 딥러닝 네트워크를 생성한 딥러닝 모델에 데이터 셋트를 입력하여 학습시킬 수 있다. 의사 결정 지원 시스템은 딥러닝 모델에 데이터 셋트를 입력하여 학습시킴에 따라 학습 결과로서, 클래스 예측 결과를 획득할 수 있다. 의사 결정 지원 시스템은 각각의 데이터를 정상적인 안구 운동, 비정상적인 안구 운동 및 아티팩트를 포함하는 클래스(임펄스 유형)에 기초하여 분류할 수 있다.
의사 결정 지원 시스템은 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공할 수 있다. 의사 결정 지원 시스템은 딥러닝 모델을 통하여 획득한 결과값과 외부 데이터를 기반으로 전정기관 안구 반사에 대한 추정 결과를 제공할 수 있다.
도 3을 참고하면, 정상적인 안구 운동 기능을 나타낸 것이고, 도 4를 참고하면, 비정상적인 안구 운동 기능을 나타낸 것이고, 도 5는 아티팩트를 나타낸 것이다.
의사 결정 지원 시스템은 위치 값으로 계산한 이득(position gain)과 속도값을 계산한 이득(velocity gain) 사이의 성능을 비교하고, 전정기관 안구반사 분석을 통한 회복 단속성 운동을 찾아낼 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

  1. 의사 결정 지원 시스템에 의해 수행되는 비디오 두부 충동 검사 방법에 있어서,
    비디오 두부 충동 검사 데이터를 입력받는 단계;
    임상 의사 결정 지원을 위하여 구성된 딥러닝 모델을 통하여 상기 입력받은 비디오 두부 충동 검사 데이터를 학습시킴에 따라 검사 결과를 획득하는 단계; 및
    상기 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  2. 제1항에 있어서,
    상기 검사 결과를 획득하는 단계는,
    임상 의사 결정 지원을 위한 딥러닝 모델을 구성하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  3. 제2항에 있어서,
    상기 검사 결과를 획득하는 단계는,
    상기 구성된 딥러닝 모델에 상기 비디오 두부 충동 검사 데이터를 입력하여 학습시킴에 따라 학습 결과로서, 임펄스(Impulse) 유형에 대한 비디오 두부 충동 검사 데이터를 분류하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  4. 제3항에 있어서,
    상기 검사 결과를 획득하는 단계는,
    정상적인 임펄스, 비정상 임펄스 및 노이즈를 의미하는 아티팩트를 포함하는 임펄스(Impulse) 유형을 기준으로 비디오 두부 충동 검사 데이터를 분류하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  5. 제2항에 있어서,
    상기 딥러닝 모델은,
    1차원 컨볼루션 레이어를 사용하여 비디오 두부 충동 검사 데이터를 학습하기 위한 딥러닝 네트워크를 생성하고, 상기 생성된 딥러닝 네트워크에 입력된 비디오 두부 충동 검사 데이터를 학습한 결과로서, 임펄스 유형을 획득하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  6. 제1항에 있어서,
    상기 입력받는 단계는,
    환자 레이블이 지정된 데이터 세트의 개인 정보를 제외한 비디오 두부 충동 검사 데이터 셋트를 생성하고, 상기 생성된 비디오 두부 충동 검사 데이터 셋트 중 일부의 비디오 두부 충동 검사 데이터를 추출하여 입력 데이터로 사용하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  7. 제1항에 있어서,
    상기 입력받는 단계는,
    상기 입력 데이터에 대한 노이즈를 필터링하기 위한 전처리를 과정을 수행하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  8. 제6항에 있어서,
    상기 입력받는 단계는,
    정상적인 임펄스, 비정상 임펄스 및 노이즈를 의미하는 아티팩트를 포함하는 클래스를 생성하고, 상기 비디오 두부 충동 검사 데이터 셋트에 상기 생성된 클래스에 기반한 레이블로 주석을 달고, 각 환자 데이터를 포함하는 임펄스 결과를 나타내는 하위 클래스를 생성하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  9. 제1항에 있어서,
    상기 제공하는 단계는,
    상기 획득된 검사 결과로서 안구 운동 비율에 대한 환자의 이득(gain)이 1이 가까울수록 정상으로 판단하는 단계
    를 포함하는 비디오 두부 충동 검사 방법.
  10. 비디오 두부 충동 검사를 위한 의사 결정 지원 시스템에 있어서,
    비디오 두부 충동 검사 데이터를 입력받는 입력부;
    임상 의사 결정 지원을 위하여 구성된 딥러닝 모델을 통하여 상기 입력받은 비디오 두부 충동 검사 데이터를 학습시킴에 따라 검사 결과를 획득하는 획득부; 및
    상기 획득된 검사 결과를 기반으로 전정기관 안구반사에 대한 추정 결과를 제공하는 제공부
    를 포함하는 의사 결정 지원 시스템.
KR1020200002543A 2020-01-08 2020-01-08 딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템 KR102260180B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200002543A KR102260180B1 (ko) 2020-01-08 2020-01-08 딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200002543A KR102260180B1 (ko) 2020-01-08 2020-01-08 딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템

Publications (1)

Publication Number Publication Date
KR102260180B1 true KR102260180B1 (ko) 2021-06-03

Family

ID=76397009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200002543A KR102260180B1 (ko) 2020-01-08 2020-01-08 딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템

Country Status (1)

Country Link
KR (1) KR102260180B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023075560A1 (ko) * 2021-11-01 2023-05-04 고려대학교 산학협력단 두부충동검사의 평가 방법 및 장치
KR20230063336A (ko) 2021-11-01 2023-05-09 고려대학교 산학협력단 두부충동검사의 평가 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101715502B1 (ko) * 2015-09-09 2017-03-13 인하대학교 산학협력단 자동 전정기관 이상 판별 시스템
KR101898414B1 (ko) * 2018-04-24 2018-09-12 한림대학교 산학협력단 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101715502B1 (ko) * 2015-09-09 2017-03-13 인하대학교 산학협력단 자동 전정기관 이상 판별 시스템
KR101898414B1 (ko) * 2018-04-24 2018-09-12 한림대학교 산학협력단 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023075560A1 (ko) * 2021-11-01 2023-05-04 고려대학교 산학협력단 두부충동검사의 평가 방법 및 장치
KR20230063336A (ko) 2021-11-01 2023-05-09 고려대학교 산학협력단 두부충동검사의 평가 방법 및 장치

Similar Documents

Publication Publication Date Title
US11961620B2 (en) Method and apparatus for determining health status
KR102285878B1 (ko) 기계 학습 모델들을 사용한 안저 이미지 프로세싱
US20200237296A1 (en) A sensory evoked diagnostic for the assessment of cognitive brain function
KR101811888B1 (ko) 연상 능력 검사 및/또는 훈련
US20070066916A1 (en) System and method for determining human emotion by analyzing eye properties
US20160302713A1 (en) System and Method for Concussion Detection and Quantification
US20200074380A1 (en) Work support device, work support method, and work support program
KR102260180B1 (ko) 딥 러닝 방법을 이용한 비디오 두부 충동 검사를 위한 임상 의사 결정 지원 시스템
KR101978548B1 (ko) 안구 움직임 측정을 통한 어지럼 진단 서버, 방법, 및 이를 기록한 기록매체
WO2019173237A1 (en) Systems, devices, and methods for tracking and analyzing subject motion during a medical imaging scan and/or therapeutic procedure
US9795335B2 (en) Data collection for vestibulogram construction
Slama et al. A new preprocessing parameter estimation based on geodesic active contour model for automatic vestibular neuritis diagnosis
US11810474B2 (en) Systems and methods for neural pathways creation/reinforcement by neural detection with virtual feedback
EP3478175B1 (en) Real time authentication based on blood flow parameters
US20230230232A1 (en) Machine Learning for Detection of Diseases from External Anterior Eye Images
US20180325447A1 (en) Multi-testing medical/ambiofeedback unit with graphic interface
JP5343790B2 (ja) 脳活動情報出力装置、脳活動情報出力方法、およびプログラム
CN111191639A (zh) 基于眼震的眩晕类型识别方法、装置、介质及电子设备
KR101715502B1 (ko) 자동 전정기관 이상 판별 시스템
JP2022017204A (ja) 神経疾患補助検査方法及びそのシステム
KR20200004725A (ko) 실시간 부정맥 종류 판단 방법 및 판단 장치
Abhishek et al. Stress analysis of a computer game player using electroencephalogram
KR20170050150A (ko) 소아 청소년의 뇌 건강 상태 진단 방법 및 이를 수행하기 위한 장치
Punuganti Automatic detection of nystagmus in bedside VOG recordings from patients with vertigo
Daniol et al. Eye-tracking in Mixed Reality for Diagnosis of Neurodegenerative Diseases

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant