KR102284700B1 - 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치 - Google Patents

의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치 Download PDF

Info

Publication number
KR102284700B1
KR102284700B1 KR1020190100825A KR20190100825A KR102284700B1 KR 102284700 B1 KR102284700 B1 KR 102284700B1 KR 1020190100825 A KR1020190100825 A KR 1020190100825A KR 20190100825 A KR20190100825 A KR 20190100825A KR 102284700 B1 KR102284700 B1 KR 102284700B1
Authority
KR
South Korea
Prior art keywords
body part
identification
medical image
specific body
image data
Prior art date
Application number
KR1020190100825A
Other languages
English (en)
Other versions
KR20210021663A (ko
Inventor
심우현
박범우
정연욱
문석현
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020190100825A priority Critical patent/KR102284700B1/ko
Publication of KR20210021663A publication Critical patent/KR20210021663A/ko
Application granted granted Critical
Publication of KR102284700B1 publication Critical patent/KR102284700B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

의료 영상 비식별화를 위한 신체 부위 위치 특정 방법이 제공된다. 상기 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 컴퓨터가 제1 의료 영상 데이터를 수신하는 단계, 상기 컴퓨터가 상기 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여 상기 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 단계, 상기 컴퓨터가 상기 학습 데이터를 기반으로 하여 상기 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성하는 단계를 포함한다.

Description

의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치{METHOD, PROGRAM AND COMUTING APPARATUS FOR SPECIFIC THE POSITION OF BODY SITES FOR NON-IDENTIFICATION}
본 발명은 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치에 관한 것이다.
병원 등의 의료 기관에서 의료 정보를 확인하거나, 또는 의료 정보를 학습용 데이터로 이용하는 상황 등에서 개인 정보가 유출될 수 있어, 의료 정보에 포함된 개인 정보의 익명화가 필요하다.
특히, 웹 기반 의료정보시스템 환경 형태로 구현되는 경에는, 질환 등의 정보를 포함하는 개인 정보가 유출될 가능성이 더욱 더 높다.
또한, 의료정보는 통합 관리됨으로서 데이터베이스 접근시 업무 관련자 모두 접근 가능하여 진료정보 데이터베이스 시스템에 저장된 각종 의료 데이터에 대한 프라이버시 보호와 정보공유 및 접근 제어 보안문제가 대두된다.
프라이버시 보호와 관련하여, CT, MRI 등 의료 영상에는 개인정보가 영상 파일 내에 포함되어 있어 최근, 의료 영상 내에 포함된 이름, 성별, 나이 등의 정보의 경우에는, 해당 정보를 비식별화하려는 영상의 기술 연구들이 많이 이루어지고 있다.
의료 영상 내에는 이름, 성별, 나이 등의 정보뿐만 아니라, 이외의 다른 정보를 통해서도 누구인지를 알 수 있는 정보를 포함하고 있다. 따라서 현재, 의료정보 중 어떠한 정보를 어떻게 비식별화 할지에 대하여 지속적으로 문제점으로서 대두되고 있다.
한국공개특허공보 제10-2015-0086089호, 2015.07.27.
의료 영상 데이터 공유에 있어서, 환자의 정보로서 이름, 성별, 나이 등의 정보뿐만 아니라, 환자들의 신체 부위 형태를 통해 누구인지 알 수 있는 정보들은 여전히 그대로 방치되고 있어 프라이버시 보호와 관련하여 의료 영상 데이터 공유에 대하여 문제점이 제기되고 있다.
따라서, 본 발명이 해결하고자 하는 과제는 비식별화가 필요한 신체 부위에 대하여 의료 영상 내에서 해당 신체 부위 부분을 비식별화 하는 방법을 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 과제는 비식별화의 이전 단계로서, 의료 영상 데이터 내에서 신체 부위 영역을 추출하고, 해당 신체 부위 영역의 배치 위치를 파악하는 학습 모델을 생성하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 컴퓨터가 제1 의료 영상 데이터를 수신하는 단계, 상기 컴퓨터가 상기 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여 상기 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 단계, 상기 컴퓨터가 상기 학습 데이터를 기반으로 하여 상기 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성하는 단계를 포함한다.
상기 특정 신체 부위는, 안면 영역에 포함되는 눈, 코, 귀, 입 중 적어도 하나를 포함하는 것이다.
상기 식별 학습 모델을 생성하는 단계는, 상기 컴퓨터가 상기 제1 의료 영상 데이터 상에서 상기 하나 이상의 특정 신체 부위의 영역을 도출하는 단계, 상기 컴퓨터가 상기 도출된 특정 신체 부위의 영역에 대하여 레이블링을 수행함으로써, 상기 특정 신체 부위가 레이블링된 복셀 단위의 3차원 영상 데이터를 획득하는 단계, 상기 컴퓨터가 상기 3차원 영상 데이터를 학습 데이터로서, 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 단계를 포함한다.
상기 레이블링은, 상기 제1 의료 영상 데이터 상의 각 복셀 단위에 대하여 각 특정 신체 부위의 식별값을 부여하는 것이다.
상기 기준 위치 모델을 생성하는 단계는, 상기 학습 데이터를 기반으로 하여 신체 내에서 위치하는 각 특정 신체 부위의 평균적 위치를 추출하는 단계; 및 상기 각 특정 신체 부위의 평균적 위치를 해당 특정 신체 부위의 기준 위치로서 설정하는, 기준 위치 모델 생성 단계를 포함한다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 상기 컴퓨터가 제2 의료 영상 데이터를 수신하는 단계, 상기 컴퓨터가 상기 식별 학습 모델을 기반으로 상기 제2 의료 영상 데이터 내의 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계, 상기 컴퓨터가 기준 위치 모델을 기반으로 추출된 상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는지를 판단하는 단계 및 상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는 경우, 상기 컴퓨터가 상기 특정 신체 부위에 대하여 비식별화를 수행하는 단계를 포함한다.
상기 비식별화는 상기 특정 신체 부위에 대한 비가역적 데이터 변환을 수행하는 것이다.
상기 비식별화는, 비식별화 대상 부위에 대하여 마스킹(masking) 또는 블러링(blurring)을 수행하는 것이다.
상기 제2 의료 영상 데이터가 두부에 대한 영상 데이터인 경우에는, 상기 비식별화를 수행하는 단계는, 상기 두부에 대한 영상 데이터 내의 뇌 영역에 대하여는 비식별화가 되지 않도록 방지하는 것을 더 포함한다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 컴퓨터가 제2 의료 영상 데이터를 수신하는 단계, 상기 컴퓨터가 식별 학습 모델을 기반으로 상기 제2 의료 영상 데이터 내의 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계, 상기 컴퓨터가 기준 위치 모델을 기반으로 추출된 상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는지를 판단하는 단계 및 상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는 경우, 상기 컴퓨터가 상기 특정 신체 부위에 대하여 비식별화를 수행하는 단계를 포함하고, 상기 식별 학습 모델은, 컴퓨터가 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여, 상기 하나 이상의 특정 신체 부위를 식별하도록 생성된 것이고, 상기 기준 위치 모델은, 상기 학습 데이터를 기반으로 하여 상기 특정 신체 부위의 신체 내 위치를 특정하도록 생성된 것이고, 상기 제1 의료 영상 데이터는, 상기 식별 학습 모델 및 상기 기준 위치 모델을 생성하기 위해 획득된 의료 영상 데이터이고, 상기 제2 의료 영상 데이터는, 비식별화가 필요한 신규 의료 영상 데이터이다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 컴퓨터 프로그램은, 하드웨어인 컴퓨터와 결합되어, 상기 방법 중 어느 하나의 방법을 실행하기 위해 매체에 저장된다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 컴퓨팅 장치는, 의료 영상 데이터를 수신하는, 의료 영상 수신부, 수신한 상기 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여 상기 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는, 식별 학습 모델 생성부, 상기 학습 데이터를 기반으로 하여 상기 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성하는, 기준 위치 모델 생성부를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기 본 발명에 의하면, 비식별화가 필요한 의료 영상 데이터 내 신체 부위에 대하여 비식별화를 수행함으로써 프라이버시를 보호할 수 있다.
또한, 상기 본 발명에 의하면, 비식별화 수행 시 해당 신체 부위 영역을 도출하고, 해당 신체 부위 영역이 배치되어야 할 위치에 배치되어 있는 것인지까지 확인함으로써, 보다 정확하게 신체 부위 영역을 도출하여 비식별화를 수행할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법을 설명하기 위한 도면이다.
도 2는 식별 학습 모델을 생성하는 구체적인 방법을 설명하기 위한 도면이다.
도 3은 기준 위치 모델을 생성하는 구체적인 방법을 설명하기 위한 도면이다.
도 4는 신규 의료 영상 데이터의 특정 신체 부위를 비식별화하는 방법을 설명하기 위한 도면이다.
도 5는 안면 영역에 대하여 비식별화를 수행한 결과를 예시적으로 나타내는 도면이다.
도 6은 비식별화 방법의 일 실시예를 나타내는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 '컴퓨터'는 연산처리를 수행할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 헤드마운트 디스플레이 기능을 포함할 수 있으며, 헤드마운트 디스플레이 장치 자체가 컴퓨팅 장치인 것도 포함한다. 컴퓨터가 헤드마운트 디스플레이 장치와 유선 또는 무선 연결되는 컴퓨팅 장치로서, 컴퓨팅 장치가 헤드마운드 디스플레이에 영상을 제공해주는 것을 포함한다. 컴퓨터가 헤드마운트 디스플레이 컴퓨팅 장치 자체로서, 영상을 생성하여 제공까지 하는 것을 포함한다. 또한, 컴퓨터는 클라이언트로부터 정보를 수신하는 서버컴퓨터가 해당될 수도 있다.
본 명세서에서 '의료 영상 데이터'는 의학 화상 처리 방식에 의해 획득된 영상은 모두 포함된다. 예를 들어, 영상 데이터는 CT(Computer tomography), 핵자기공명 컴퓨터 단층촬영 영상(Nuclear Magnetic Resonance Computed Tomography, NMR-CT), 양전자 단층촬영 영상(positron emission tomography; PET), CBCT(conebeamCT), 전자빔 단층촬영 영상(Electron beam tomography), 엑스레이(X-ray), 자기공명영상(margnetic resonance imaging)이 해당될 수 있다.
본 명세서에서 '신체 부위'는 신체에 포함된 모든 부위 및 기관을 포함하는 것으로서, 신체의 피부 밖으로 드러나는 신체 부위 및 신체 내외부의 장기를 포함하는 기관을 모두 포함한다. 예컨대, 신체 부위는 안면에 해당하는 눈, 코, 귀, 입과 신체 내부의 각 장기들을 포함할 수 있다.
본 발명의 실시예들에 따른 심층신경망은, 영상분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)가 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)와 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다.
특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘벌루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
콘벌루션 층은 입력 영상의 각 패치에 대하여 필 터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다.
통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘벌루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.
이와 같이, 콘벌루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.
다만, 본 발명의 실시예들에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법을 설명하기 위한 도면이다.
도 2는 식별 학습 모델을 생성하는 구체적인 방법을 설명하기 위한 도면이다.
도 3은 기준 위치 모델을 생성하는 구체적인 방법을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 의료 영상 데이터를 수신하는 단계(S110), 식별 학습 모델을 생성하는 단계(S130) 및 기준 위치 모델을 생성하는 단계(S150)를 포함한다.
의료 영상 데이터를 수신하는 단계(S110)에서, 의료 영상 데이터는 상술한 바와 같이 의학 화상 처리 방식에 의해 획득된 영상은 모두 포함되며, 복수의 2D 영상 또는 3D 영상이 포함된다.
식별 학습 모델을 생성하는 단계(S130)는 컴퓨터가 상기 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습함으로써 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 것이다.
특정 신체 부위는, 상술한 바와 같이 신체에 포함된 모든 부위 및 기관을 포함할 수 있으며, 특히, 안면 영역에 포함되는 눈, 코, 귀, 입을 식별하기 위한 식별 학습 모델을 생성하기 위해, 특정 신체 부위에 눈, 코, 귀, 입 중 적어도 하나가 포함될 수 있다.
식별 학습 모델이란 의료 영상 데이터 상에서 특정 신체 부위의 형태를 식별할 수 있도록 구축된 학습 모델이다. 이 때, 특정 신체 부위를 식별하는 것은 정확하게 해당 신체 부위 영역을 도출하여 신체 부위 형태를 정확하게 식별하거나, 또는 대략적인 영역을 도출하여 대략적으로 도출된 신체 부위 형태가 어떠한 신체 부위에 해당하는지 식별하는 것을 포함한다.
구체적으로, 도 2를 참조하면, 식별 학습 모델을 생성하는 방법은, 특정 신체 부위 영역을 도출하는 단계(S131), 특정 신체 부위가 레이블링된 3차원 영상 데이터를 획득하는 단계(S133) 및 3차원 영상 데이터를 기반으로 식별 학습 모델을 생성하는 단계(S135)를 포함한다.
특정 신체 부위 영역을 도출하는 단계(S131)는 컴퓨터가 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위의 영역을 도출하는 것이다.
특정 신체 부위 영역을 도출하는 것은, 다양한 실시예를 포함하며, 일 실시예로, 외부로부터 선택된 특정 신체 부위 영역의 범위를 수신하여, 컴퓨터가 해당 영역을 특정 신체 부위의 영역으로서 도출한다.
다른 실시예로, 특정 신체 부위 영역을 도출하는 것은, 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 관심 영역(ROI, Region Of Interest)으로 선택되어 컴퓨터가 선택된 해당 영역을 도출한다.
또 다른 실시예로, 특정 신체 부위 영역을 도출하는 것은, 미리 정해진 형태의 영역을 특정 신체 부위의 영역으로서 인식하고 도출한다.
또한, 특정 신체 부위 영역을 도출하는 것은, 복셀 단위로 수행될 수 있다.
특정 신체 부위가 레이블링된 3차원 영상 데이터를 획득하는 단계(S133)는 도출된 특정 신체 부위의 영역에 대하여 레이블링을 수행함으로써, 특정 신체 부위가 레이블링된 복셀 단위의 3차원 영상 데이터를 획득하는 것이다.
레이블링은 의료 영상 데이터 상의 각 복셀 단위에 대하여 각 특정 신체 부위의 식별값을 부여하는 것이다. 즉, 레이블링은 의료 영상 데이터 내의 세부 단위인 각 복셀이 어떠한 신체 부위에 포함되는 것인지 식별값을 부여하는 것을 의미한다.
만일, 의료 영상 데이터 내에서 복수의 특정 신체 부위에 대해 레이블링을 수행한다면, 각각의 특정 신체 부위마다 복셀에 부여되는 식별값은 서로 상이하다. 따라서, 레이블링된 복셀 단위의 3차원 영상 데이터란, 식별값이 서로 다른 각 특정 신체 부위 영역에 대해 상이하게 레이블링되는 3차원 영상 데이터이다.
각 특정 신체 부위 영역에 대하여 식별값을 달리하여 레이블링 함으로써, 3차원 영상 데이터 내에서 각 특정 신체 부위 영역이 어디인지, 또는 해당 영역의 특정 신체 부위가 어떠한 특정 신체 부위인지 확인할 수 있는 효과가 있다.
3차원 영상 데이터를 기반으로 식별 학습 모델을 생성하는 단계(S135)는 컴퓨터가 3차원 영상 데이터를 학습 데이터로서, 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 것이다.
상술한 바와 같이, 레이블링된 복셀 단위의 3차원 영상 데이터를 통해 각 특정 신체 부위 영역이 어디인지, 해당 영역의 특정 신체 부위가 어떠한 특정 신체 부위인지 확인이 가능하므로, 이를 통해 컴퓨터는 3차원 영상 데이터를 학습 데이터로서, 기계 학습을 수행하여 특정 신체 부위를 식별하는 식별 학습 모델을 생성한다.
식별 학습 모델은 상술한 바와 같이 의료 영상 데이터 상에서 특정 신체 부위의 형태를 식별할 수 있도록 구축된 학습 모델이다.
기준 위치 모델을 생성하는 단계(S150)는 컴퓨터가 학습 데이터를 기반으로 하여 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성하는 것이다.
상술한 식별 학습 모델을 통해 의료 영상 데이터 내 특정 신체 부위가 무엇인지 정보를 획득했다 하더라도, 식별 학습 모델은 특정 신체 부위의 형태를 식별하는 것으로서, 형태만이 유사할 뿐이고 전혀 다른 신체 부위에 해당할 수도 있다.
따라서, 본 발명은 특정 신체 부위의 형태를 식별한 이후, 식별한 해당 형태가 신체 내에서 특정 신체 부위가 배치되어 있어야 할 위치에 배치되어 있는지를 확인하기 위해 기준 위치 모델을 생성하는 단계(S150)를 포함한다.
구체적으로 도 3을 참조하면, 기준 위치 모델을 생성하는 단계(S150)는, 특정 신체 부위의 평균적 위치를 추출하는 단계(S151) 및 평균적 위치를 기준 위치로 설정하는 기준 위치 모델 생성 단계(S153)를 포함한다.
특정 신체 부위의 평균적 위치를 추출하는 단계(S151)는 컴퓨터가 학습 데이터를 기반으로 하여 신체 내에서 위치하는 각 특정 신체 부위의 평균적 위치를 추출하는 것이다.
신체 내에서 위치하는 각 특정 신체 부위의 평균적 위치를 추출하는 것은 비지도 학습에 해당하는 클러스터링(clustering)을 통해 추출할 수 있다.
클러스터링이란, 각 개체의 그룹 정보 없이 비슷한 개체를 군집화 하는 것이다.
클러스터링(clustering)을 통해 추출하는 것은, 특정 신체 부위에 해당하는 위치의 데이터를 획득하여, 각 데이터를 나누고 유사도 판단을 통해 해당 특정 신체 부위의 평균적 위치를 추출하는 것이다.
따라서, 특정 신체 부위의 위치는 정확하게 도출하는 것뿐만 아니라, 대략적인 위치만을 파악하는 것도 포함된다.
본 단계에서의 '위치'란 상술한 실시예와 같이 신체 내 특정 신체 부위의 배치 위치를 추출하는 것뿐만 아니라, 특정 신체 부위 주변에 배치되어 있어야 할 다른 신체 부위들이 있는지를 확인하는 정도 또한 포함할 수 있다.
본 단계는 도출된 특정 신체 부위의 형태가 해당 신체 부위로서 원래 배치되어야 할 위치에 있는 것이 맞는지를 확인하기 위함이기 때문이다.
평균적 위치를 기준 위치로 설정하는 기준 위치 모델 생성 단계(S153)는 각 특정 신체 부위의 평균적 위치를 해당 특정 신체 부위의 기준 위치로서 설정하는 것이다.
즉, 각 특정 신체 부위에 대하여 도출된 평균적 위치가 곧 특정 신체 부위의 기준 위치로서 설정함으로써, 각 특정 신체 부위가 어디에 위치하여야 하는지, 도출된 특정 신체 부위의 형태가 해당 신체 부위가 위치하여야 할 위치에 배치되어 있는 것인지를 확인하는 기준 위치 모델을 생성한다.
도 4는 신규 의료 영상 데이터의 특정 신체 부위를 비식별화하는 방법을 설명하기 위한 도면이다.
도 4를 참조하면, 특정 신체 부위를 비식별화하는 방법은, 기준 위치 모델을 생성하는 단계(S150) 이후에, 신규 의료 영상 데이터를 수신하는 단계(S170), 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계(S190), 특정 신체 부위의 신체 내 배치 위치가 기준 위치에 해당하는지 판단하는 단계(S210) 및 특정 신체 부위에 대하여 비식별화를 수행하는 단계(S230)를 더 포함한다.
또한, 도시하지는 않았으나, 특정 신체 부위를 비식별화하는 방법은 다른 실시예로 신규 의료 영상 데이터를 수신하는 단계(S170), 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계(S190), 특정 신체 부위의 신체 내 배치 위치가 기준 위치에 해당하는지 판단하는 단계(S210) 및 특정 신체 부위에 대하여 비식별화를 수행하는 단계(S230)를 포함한다.
이 때, 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계(S190)는 컴퓨터가 식별 학습 모델을 기반으로 상기 제2 의료 영상 데이터 내의 비식별화 대상이 되는 특정 신체 부위를 추출하는 것으로서, 이 때 이용되는 식별 학습 모델은, 컴퓨터가 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여, 하나 이상의 특정 신체 부위를 식별하도록 생성된 것이다.
특정 신체 부위의 신체 내 배치 위치가 기준 위치에 해당하는지 판단하는 단계(S210)는 상기 학습 데이터를 기반으로 하여 특정 신체 부위의 신체 내 위치를 특정하도록 생성된 것이다.
본 실시예에서, 제1 의료 영상 데이터는, 상기 식별 학습 모델 및 상기 기준 위치 모델을 생성하기 위해 획득된 의료 영상 데이터을 의미하고, 제2 의료 영상 데이터는, 비식별화가 필요한 신규 의료 영상 데이터를 의미한다.
따라서, 상술한 실시예에 따르면, 미리 구축된 식별 학습 모델 및 기준 위치 모델을 기반으로 하여 신규 의료 영상 데이터에 대하여 비식별화를 수행할 수 있다.
본 발명에 따른 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 환자의 의료 영상이 연구 등의 목적으로 외부에 제공되는 경우, 환자의 개인 정보가 불필요하게 공개되는 문제를 해결하기 위해 의료 영상 데이터로부터 획득될 수 있는 개인 정보를 제거하는 것을 목적으로 한다.
기존에는 다양한 연구를 통해 환자의 이름, 나이, 성별 등의 텍스트 형태의 개인 정보를 제거하였으나, 본 발명에서는 텍스트 형태의 개인 정보 이외에도, 연구 등의 목적과는 관련없는 의료 영상 데이터의 각 신체 부위의 형태를 통해 환자를 알아볼 수 있는 정보를 제거하는 것을 목적으로 한다.
컴퓨터는 비식별화가 필요한 신규 의료 영상 데이터를 수신하면(S170), 식별 학습 모델을 기반으로 신규 의료 영상 데이터 내의 비식별화 대상이 되는 특정 신체 부위를 추출한다(S190).
신규 의료 영상 데이터는 상술한 의료 영상 데이터와 동일한 범위의 영상 데이터를 포함한다.
컴퓨터는 앞서 생성된 식별 학습 모델에 신규 의료 영상 데이터를 입력하여 신규 의료 영상 데이터 상에서 비식별화가 필요한 특정 신체 부위로 판단되는 부분을 추출한다.
비식별화가 필요한 특정 신체 부위는, 미리 지정되어 있을 수 있고, 외부로부터 선택되어 입력될 수도 있다.
특히, 안면 영역에 해당되는 눈, 코, 귀, 입 등은 환자가 누구인지를 알 수 있는 영상 정보에 해당하므로, 눈, 코, 귀, 입 중 적어도 하나가 비식별화가 필요한 특정 신체 부위로서 미리 지정될 수 있다.
또한, 안면 영역에 해당되지 않더라도, 기타 각종 기관, 장기 등에 해당되는 신체 부위 또한, 비식별화가 필요한 특정 신체 부위로서 미리 지정되거나, 선택될 수 있도록 설정될 수 있다.
컴퓨터는 비식별화가 필요한 특정 신체 부위를 신규 의료 영상 데이터 내에서 추출하면, 기준 위치 모델을 기반으로 추출된 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는지를 판단한다(S210).
컴퓨터는 앞서 생성된 기준 위치 모델에 특정 신체 부위 영역이 표시 또는 레이블링된 신규 의료 영상 데이터를 입력하여, 추출된 특정 신체 부위의 신체 내 배치 위치가 특정 신체 부위로서 인식한 해당 신체 부위의 기준 위치에 해당하는지 판단한다.
만일 이 때, 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는 경우에는 컴퓨터는 해당 특정 신체 부위에 대하여 비식별화를 수행한다(S230).
그러나, 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하지 않는 경우에는, 컴퓨터는 해당 특정 신체 부위에 대하여 비식별화를 수행하지 않는다.
해당 특정 신체 부위의 평균적 위치를 기반으로 하여 클러스터링(Clustering)하여 해당 특정 신체 부위에 해당하는 영역에 대하여 비식별화하는 것이다.
클러스터링은 하나의 데이터를 여러 개의 부분집합(clusters)으로 분할하는 것을 의미하며, 그 때 각 부분집합에 있는 공통된 특징을 공유한다. 다양한 거리 측정법을 사용하여 유사도를 계산함으로써 공통된 특징을 공유하는 것이다.
따라서, 도출된 특정 신체 부위의 형태에 해당하는 영역에 대하여 해당 특정 신체 부위의 평균적 위치를 기반으로 하여 클러스터링 하고, 해당 특정 신체 부위에 해당하지 않는 영역에 대하여는 비식별화를 수행하지 않고, 해당 특정 신체 부위에 해당하는 영역에 대하여는 비식별화를 수행한다.
여기서 수행하는 비식별화는 비가역적(irreversible)변환으로서, 예컨대, 비식별화가 필요한 특정 신체 부위가 코라면, 비식별화를 통해 이후에는 영상 데이터 내에서 환자의 코를 복원하기는 불가능한 것이다.
비식별화는 신규 의료 영상 데이터를 2D 영상으로 변환하여 코를 포함하는 복수의 이미지에 대하여 비식별화(De-Identification)를 수행할 수 있고, 3D 의료 영상 데이터에서 직접 코 영역에 대한 비식별화를 수행할 수 있다. 한편, 3D 의료 영상에 대한 비식별화를 수행한 이후에는, 해당 의료 영상 데이터를 복수의 2D 이미지로 변환할 수 있다.
그러나, 본 발명은 만일 신규 의료 영상 데이터가 두부에 대한 의료 영상 데이터인 경우에는, 해당 영상 데이터 내에서의 뇌 영역에 대하여는 비식별화가 되지 않도록 방지하는 것을 포함한다.
두부에 대한 의료 영상 데이터에서 뇌 영역은 환자를 식별할 수 있는 비식별화 신체 부위가 아니며, 연구가 필요한 영역으로서 뇌 영역이 비식별화 되지 않도록 방지하여, 특정 신체 부위에 대하여 비식별화를 수행한다.
또한, 비식별화는 특정 신체 부위에 대한 마스킹(masking) 또는 블러링(blurring)일 수 있는데, 예컨대 비식별화 특정 신체 부위에 대응하는 데이터를 모두 ‘0’으로 마스킹하거나, 특정 신체 부위를 흐리게 하는 이미지 처리일 수 있다. 또 다른 예로써, 특정 신체 부위에 대해 모자이크(mosaic)를 씌우는 작업이 수행될 수 있다.
도 5는 안면 영역에 대하여 비식별화를 수행한 결과를 예시적으로 나타내는 도면이다.
도 5에서는 안면 영역에 대하여 예시적으로 나타내고 있으나, 본 발명은 안면 영역뿐만 아니라, 비식별화가 필요한 다양한 신체 부위에 대하여 동일하게 적용할 수 있다.
도 5를 참조하면, 도 5의 (a)부터 도 5의 (c)까지 순차적으로 비식별화가 수행되지 않은 의료 영상부터 안면 영역 전체에 대해 비식별화가 수행된 의료 영상이 도시된다. 도 5에 도시되는 의료 영상은 3D 영상이지만, 비식별화는 3D 의료 영상에 대해 직접 수행될 수도 있고 비식별화가 수행된 2D 영상으로부터 도 4의 3D 영상이 얻어질 수도 있다.
도 5의 (a)를 참조하면, 환자의 눈, 코, 입이 개인을 특정할 수 있을 정도로 표현되어 있음을 알 수 있다. 그리고, 도 5의 (b)는 환자의 눈과 입에 대해 비식별화가 수행되어 개인을 특정할 수 없음을 알 수 있다.
본 발명의 식별 학습 모델과 기준 위치 모델을 기반으로 하여, 비식별화가 필요한 특정 신체 부위에 대하여 비식별화를 수행할 수 있다.
도 6은 비식별화 방법의 일 실시예를 나타내는 도면이다.
도 6은 특정 신체 부위에 대하여 마스킹(masking) 또는 블러링(blurring) 처리 하는 방법을 나타내는 것이다.
도 6은 컨벌루션 필터(convolution filter)를 이용하는 비식별화 방법을 예시적으로 나타내며, Source pixel은 비식별화 대상 이미지에 해당하고 Convolution Kernel은 상기 Source pixel에 적용되는 매트릭스에 대응한다.
상기 Source pixel과 상기 Convolution Kernel의 중앙 element는 서로 곱해지고, 이렇게 계산된 결과, 그리고 상기 Source pixel의 주변 element 및 상기 Convolution Kernel의 대응하는 위치의 element 들의 곱의 합이 New pixel value로 결정될 수 있다.
도 6의 예시에서 Source pixel과 Convolution Kernel의 중앙 element의 곱은 0 이지만, 나머지 element 들의 곱의 합이 -8 이므로, New pixel value는 -8 로 결정된다.
한편, 상기 Source pixel과 상기 Convolution Kernel에 대응하는 매트릭스의 크기는 다양하게 결정될 수 있으며, 반드시 도 6에 도시되는 것처럼 3x3로 제한되는 것은 아니다. 마찬가지로, 상기 Convolution Kernel의 각 element의 값(weight)들 또한 도 6에 도시되는 값으로 제한되는 것은 아니므로 Kernel Size와 Kernel Weight를 조절하여 비식별화 정도를 조절할 수 있다.
본 발명에 따른 비식별화 과정에서 비식별화 대상 픽셀에 대해 상기한 바와 같은 Convolution이 수행되면, 정사각행렬이 적용될 수 없는 경계 영역에 대해서는 모든 값을 0으로 지정하거나 주변에 지정된 값을 복제하여 지정하는 방법이 적용될 수 있다.
이렇게 Kernel Convolution이 적용되면 비가역적 비식별화가 이루어진 것으로 판단할 수 있다. 비식별화가 이루어진 이미지는 물체의 대략적인 형태만 추정 가능하며, 원래의 데이터로 변환하는 것이 불가능하다.
한편, 일단의 비가역적 비식별화가 수행된 데이터에 대해 추가적인 비가역성을 확보하기 위해서 Hash mapping 등이 적용될 수 있다. 상기 Hash mapping은 비식별화된 영역의 Voxel의 signal intensity를 기반으로 하여 적용될 수 있다.
이상에서 상술한 본 발명의 일 실시예에 따른 방법인, 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법은 하드웨어인 컴퓨터가 결합되어 실행되기 위해 의료 영상 비식별화를 위한 신체 부위 위치 특정 컴퓨터 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
본 발명의 다른 실시예에 따른, 의료 영상 비식별화를 위한 신체 부위 위치 특정 컴퓨팅 장치는 별도로 도시되지는 않았으나, 의료 영상 수신부, 식별 학습 모델 생성부 및 기준 위치 모델 생성부를 포함한다.
의료 영상 데이터 수신부는, 의료 영상 데이터를 수신하고, 식별 학습 모델 생성부는 수신한 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성한다. 기준 위치 모델 생성부는 학습 데이터를 기반으로 하여 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성한다.
본 실시예의 각 구성들은 도 1 내지 도 6에서 상술한 내용을 동일하게 적용한다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (12)

  1. 컴퓨터가 제1 의료 영상 데이터를 수신하는 단계;
    상기 컴퓨터가 상기 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여, 상기 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 단계; 및
    상기 컴퓨터가 상기 학습 데이터를 기반으로 하여 상기 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성하는 단계를 포함하고,
    상기 식별 학습 모델을 생성하는 단계는,
    상기 컴퓨터가 상기 제1 의료 영상 데이터 상에서 상기 하나 이상의 특정 신체 부위의 영역을 도출하는 단계;
    상기 컴퓨터가 상기 도출된 특정 신체 부위의 영역에 대하여 레이블링을 수행함으로써, 상기 특정 신체 부위가 레이블링된 복셀 단위의 3차원 영상 데이터를 획득하는 단계; 및
    상기 컴퓨터가 상기 3차원 영상 데이터를 학습 데이터로서, 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는 단계를 포함하고,
    상기 기준 위치 모델을 생성하는 단계는,
    상기 학습 데이터를 기반으로 하여 신체 내에서 위치하는 각 특정 신체 부위의 평균적 위치를 추출하는 단계; 및
    상기 각 특정 신체 부위의 평균적 위치를 해당 특정 신체 부위의 기준 위치로서 설정하는, 기준 위치 모델 생성 단계를 포함하는,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  2. 제1항에 있어서,
    상기 특정 신체 부위는,
    안면 영역에 포함되는 눈, 코, 귀, 입 중 적어도 하나를 포함하는 것인,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 레이블링은,
    상기 제1 의료 영상 데이터 상의 각 복셀 단위에 대하여 각 특정 신체 부위의 식별값을 부여하는 것인,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 컴퓨터가 제2 의료 영상 데이터를 수신하는 단계;
    상기 컴퓨터가 상기 식별 학습 모델을 기반으로 상기 제2 의료 영상 데이터 내의 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계;
    상기 컴퓨터가 기준 위치 모델을 기반으로 추출된 상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는지를 판단하는 단계; 및
    상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는 경우, 상기 컴퓨터가 상기 특정 신체 부위에 대하여 비식별화를 수행하는 단계를 포함하는,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  7. 제6항에 있어서,
    상기 비식별화는 상기 특정 신체 부위에 대한 비가역적 데이터 변환을 수행하는 것인,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  8. 제6항에 있어서,
    상기 비식별화는, 비식별화 대상 부위에 대하여 마스킹(masking) 또는 블러링(blurring)을 수행하는 것인,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  9. 제6항에 있어서,
    상기 제2 의료 영상 데이터가 두부에 대한 영상 데이터인 경우에는,
    상기 비식별화를 수행하는 단계는,
    상기 두부에 대한 영상 데이터 내의 뇌 영역에 대하여는 비식별화가 되지 않도록 방지하는 것을 더 포함하는,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  10. 컴퓨터가 제2 의료 영상 데이터를 수신하는 단계;
    상기 컴퓨터가 식별 학습 모델을 기반으로 상기 제2 의료 영상 데이터 내의 비식별화 대상이 되는 특정 신체 부위를 추출하는 단계;
    상기 컴퓨터가 기준 위치 모델을 기반으로 추출된 상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는지를 판단하는 단계; 및
    상기 특정 신체 부위의 신체 내 배치 위치가 해당 신체 부위의 기준 위치에 해당하는 경우, 상기 컴퓨터가 상기 특정 신체 부위에 대하여 비식별화를 수행하는 단계를 포함하고,
    상기 식별 학습 모델은,
    컴퓨터가 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 복셀 단위의 3차원 영상 데이터를 학습 데이터로서 학습하여, 상기 하나 이상의 특정 신체 부위를 식별하도록 생성된 것이고,
    상기 기준 위치 모델은,
    상기 학습 데이터를 기반으로 하여 신체 내에서 위치하는 각 특정 신체 부위의 평균적 위치를 추출하고, 상기 각 특정 신체 부위의 평균적 위치를 해당 특정 신체 부위의 기준 위치로서 설정하도록 생성된 것이며,
    상기 제1 의료 영상 데이터는, 상기 식별 학습 모델 및 상기 기준 위치 모델을 생성하기 위해 획득된 의료 영상 데이터이고,
    상기 제2 의료 영상 데이터는, 비식별화가 필요한 신규 의료 영상 데이터인,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 방법.
  11. 하드웨어인 컴퓨터와 결합되어, 제1항, 제2항, 제4항 및 제6항 내지 제10항 중 어느 한 항의 방법을 실행하기 위해 매체에 저장된, 의료 영상 비식별화를 위한 신체 부위 위치 특정 컴퓨터 프로그램.
  12. 의료 영상 데이터를 수신하는, 의료 영상 수신부;
    수신한 상기 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 3차원 영상 데이터를 학습 데이터로서 학습하여, 상기 하나 이상의 특정 신체 부위를 식별하는 식별 학습 모델을 생성하는, 식별 학습 모델 생성부; 및
    상기 학습 데이터를 기반으로 하여 상기 특정 신체 부위의 신체 내 위치를 특정하는 기준 위치 모델을 생성하는, 기준 위치 모델 생성부를 포함하고,
    상기 식별 학습 모델은,
    컴퓨터가 제1 의료 영상 데이터 상에서 하나 이상의 특정 신체 부위가 레이블링된 복셀 단위의 3차원 영상 데이터를 학습 데이터로서 학습하여, 상기 하나 이상의 특정 신체 부위를 식별하도록 생성된 것이고,
    상기 기준 위치 모델은,
    상기 학습 데이터를 기반으로 하여 신체 내에서 위치하는 각 특정 신체 부위의 평균적 위치를 추출하고, 상기 각 특정 신체 부위의 평균적 위치를 해당 특정 신체 부위의 기준 위치로서 설정하도록 생성된 것인,
    의료 영상 비식별화를 위한 신체 부위 위치 특정 컴퓨팅 장치.
KR1020190100825A 2019-08-19 2019-08-19 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치 KR102284700B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190100825A KR102284700B1 (ko) 2019-08-19 2019-08-19 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190100825A KR102284700B1 (ko) 2019-08-19 2019-08-19 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치

Publications (2)

Publication Number Publication Date
KR20210021663A KR20210021663A (ko) 2021-03-02
KR102284700B1 true KR102284700B1 (ko) 2021-08-02

Family

ID=75169361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190100825A KR102284700B1 (ko) 2019-08-19 2019-08-19 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치

Country Status (1)

Country Link
KR (1) KR102284700B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481564B1 (ko) * 2021-03-17 2022-12-29 재단법인 아산사회복지재단 의료영상 처리 장치와 그 의료영상 학습 방법 및 의료영상 처리 방법
KR102525371B1 (ko) * 2022-10-04 2023-04-25 에이트스튜디오 주식회사 진단 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044239A (ja) 2005-08-10 2007-02-22 Toshiba Corp 医用画像診断装置、医用画像処理装置及び医用画像処理プログラム
JP2012217631A (ja) 2011-04-08 2012-11-12 Hitachi Medical Corp 医用画像処理装置及び医用画像診断装置
KR101861520B1 (ko) * 2017-03-15 2018-05-28 광주과학기술원 얼굴 비식별화 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098904B2 (en) * 2008-03-31 2012-01-17 Google Inc. Automatic face detection and identity masking in images, and applications thereof
KR20150086089A (ko) 2014-01-17 2015-07-27 주식회사 라이브존 전자의무기록을 이용한 의료영상 관리시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044239A (ja) 2005-08-10 2007-02-22 Toshiba Corp 医用画像診断装置、医用画像処理装置及び医用画像処理プログラム
JP2012217631A (ja) 2011-04-08 2012-11-12 Hitachi Medical Corp 医用画像処理装置及び医用画像診断装置
KR101861520B1 (ko) * 2017-03-15 2018-05-28 광주과학기술원 얼굴 비식별화 방법

Also Published As

Publication number Publication date
KR20210021663A (ko) 2021-03-02

Similar Documents

Publication Publication Date Title
WO2020260936A1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Narayan et al. Enhance-Net: An Approach to Boost the Performance of Deep Learning Model Based on Real-Time Medical Images
Zhong et al. Boosting‐based cascaded convolutional neural networks for the segmentation of CT organs‐at‐risk in nasopharyngeal carcinoma
US10679740B2 (en) System and method for patient privacy protection in medical images
Lu et al. Deep learning-based classification for melanoma detection using XceptionNet
Lee et al. Practical window setting optimization for medical image deep learning
WO2021114623A1 (zh) 脊柱变形人群识别方法、装置、计算机设备及存储介质
Vu et al. Deep convolutional neural networks for automatic segmentation of thoracic organs‐at‐risk in radiation oncology–use of non‐domain transfer learning
Jenitta et al. Image retrieval based on local mesh vector co-occurrence pattern for medical diagnosis from MRI brain images
KR102284700B1 (ko) 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치
Pawar et al. Residual encoder and convolutional decoder neural network for glioma segmentation
Sabharwal et al. Recognition of surgically altered face images: an empirical analysis on recent advances
Naga Srinivasu et al. Variational autoencoders-basedself-learning model for tumor identification and impact analysis from 2-d mri images
Feng et al. Supervoxel based weakly-supervised multi-level 3D CNNs for lung nodule detection and segmentation
Chopra et al. [Retracted] Cyclic GAN Model to Classify Breast Cancer Data for Pathological Healthcare Task
Mano et al. Method of multi‐region tumour segmentation in brain MRI images using grid‐based segmentation and weighted bee swarm optimisation
Yanling et al. Segmenting vitiligo on clinical face images using CNN trained on synthetic and internet images
Mohapatra et al. Segmentation and classification of encephalon tumor by applying improved fast and robust FCM algorithm with PSO-based Elm Technique
Alyami et al. Automatic skin lesions detection from images through microscopic hybrid features set and machine learning classifiers
Ding et al. Multi‐modal brain tumor image segmentation based on SDAE
Ramamurthy et al. A novel two‐staged network for skin disease detection using atrous residual convolutional networks
Gino Sophia et al. Zadeh max–min composition fuzzy rule for dominated pixel values in iris localization
Yu et al. Retinal vessel segmentation with constrained-based nonnegative matrix factorization and 3D modified attention U-Net
Hsieh et al. Based on DICOM RT structure and multiple loss function deep learning algorithm in organ segmentation of head and neck image
KR102531368B1 (ko) 원본 의료 이미지의 영역별로 서로 다른 컨실링 프로세스가 수행되도록 하여 원본 의료 이미지를 컨실링 처리하는 변조 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant