KR20210079043A - 의료 영상 데이터의 익명화 방법 및 프로그램 - Google Patents

의료 영상 데이터의 익명화 방법 및 프로그램 Download PDF

Info

Publication number
KR20210079043A
KR20210079043A KR1020190171109A KR20190171109A KR20210079043A KR 20210079043 A KR20210079043 A KR 20210079043A KR 1020190171109 A KR1020190171109 A KR 1020190171109A KR 20190171109 A KR20190171109 A KR 20190171109A KR 20210079043 A KR20210079043 A KR 20210079043A
Authority
KR
South Korea
Prior art keywords
image data
medical image
anonymization
body parts
computer
Prior art date
Application number
KR1020190171109A
Other languages
English (en)
Inventor
정연욱
심우현
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020190171109A priority Critical patent/KR20210079043A/ko
Priority to PCT/KR2020/017888 priority patent/WO2021125671A1/ko
Publication of KR20210079043A publication Critical patent/KR20210079043A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

의료 영상 데이터의 익명화 방법이 제공된다. 상기 의료 영상 데이터의 익명화 방법은 컴퓨터가 식별 학습 모델을 기반으로 의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계, 상기 컴퓨터가 상기 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계, 상기 컴퓨터가 상기 의료 영상 데이터 상에서 상기 특정한 하나 이상의 신체 부위와 상기 추출한 신체의 최외곽면으로 구성된 신체 영역의 겉표면과의 교집합을 추출하는 단계 및 상기 컴퓨터가 추출한 교집합 부분을 상기 의료 영상 데이터에서 익명화하는 단계를 포함한다.

Description

의료 영상 데이터의 익명화 방법 및 프로그램{METHOD AND PROGRAM FOR ANONYMIZING MEDICAL IMAGE DATA}
본 발명은 의료 영상 데이터의 익명화 방법 및 프로그램에 관한 것이다.
병원 등의 의료 기관에서 의료 정보를 확인하거나, 또는 의료 정보를 학습용 데이터로 이용하는 상황 등에서 개인 정보가 유출될 수 있어, 의료 정보에 포함된 개인 정보의 익명화가 필요하다.
특히, 웹 기반 의료정보시스템 환경 형태로 구현되는 경우에는, 질환 등의 정보를 포함하는 개인 정보가 유출될 가능성이 더욱 더 높다.
또한, 의료정보는 통합 관리됨으로서 데이터베이스 접근시 업무 관련자 모두 접근 가능하여 진료정보 데이터베이스 시스템에 저장된 각종 의료 데이터에 대한 프라이버시 보호와 정보공유 및 접근 제어 보안문제가 대두된다.
프라이버시 보호와 관련하여, CT, MRI 등 의료 영상에는 개인정보가 영상 파일 내에 포함되어 있어 최근, 의료 영상 내에 포함된 이름, 성별, 나이 등의 정보의 경우에는, 해당 정보를 익명화하려는 영상의 기술 연구들이 많이 이루어지고 있다.
의료 영상 내에는 이름, 성별, 나이 등의 정보뿐만 아니라, 이외의 다른 정보를 통해서도 누구인지를 알 수 있는 정보를 포함하고 있다. 따라서 현재, 의료정보 중 어떠한 정보를 어떻게 익명화 할지에 대하여 지속적으로 문제점으로서 대두되고 있다.
한국공개특허공보 제10-2015-0086089호, 2015.07.27.
본 발명이 해결하고자 하는 과제는 의료 영상 촬영 시 장비 특성에 따라 달라지는 요소들인 다양한 촬영 방향, 해상도, 밝기, 강도로 촬영된 의료 영상 데이터에서 익명화가 필요한 신체 부위를 익명화하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 의료 영상 데이터 내에서 신체 부위를 익명화하는 과정에서 내부 장기는 익명화하지 않도록 신체 겉표면에 해당되는 부분만 익명화하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 의료 영상 데이터의 익명화 방법은 컴퓨터가 식별 학습 모델을 기반으로 의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계, 상기 컴퓨터가 상기 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계, 상기 컴퓨터가 상기 의료 영상 데이터 상에서 상기 특정한 하나 이상의 신체 부위와 상기 추출한 신체의 최외곽면으로 구성된 신체 영역의 겉표면과의 교집합을 추출하는 단계 및 상기 컴퓨터가 추출한 교집합 부분을 상기 의료 영상 데이터에서 익명화하는 단계를 포함한다.
상기 식별 학습 모델은, 하나 이상의 신체 부위가 지정된 다양한 방향의 의료 영상 데이터를 학습데이터로서 학습한 결과로 도출된 것으로서, 상기 다양한 방향의 의료 영상 데이터는 특정 의료 영상 데이터를 여러 방향으로 회전하여 획득한 것이다.
상기 하나 이상의 신체 부위를 인식하여 특정하는 단계는, 상기 의료 영상 데이터를 상기 식별 학습 모델에 적용하면 상기 의료 영상 데이터의 방향성과 관계없이 상기 하나 이상의 신체 부위를 특정하는 것을 특징으로 한다.
상기 하나 이상의 신체 부위를 인식하여 특정하는 단계는, 상기 의료 영상 데이터의 방향성을 추출하는 단계 및 상기 추출된 방향성에 맞추어 상기 의료 영상 데이터에서 상기 하나 이상의 신체 부위를 추출하는 단계를 포함한다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 의료 영상 데이터의 익명화 방법은 상기 의료 영상 데이터는 안면의 의료 영상 데이터인 것을 특징으로 한다.
상기 최외곽면을 추출하는 단계는, 영상의 밝기 분포를 기반으로 한 미리 정해진 문턱값을 기준으로 상기 의료 영상 데이터를 바이너리 영상 데이터로 변환하는 단계 및 상기 바이너리 영상 데이터에서 3차원 윤곽선 추출기법을 이용하여 신체의 외곽선을 특정하는 단계를 포함한다.
상기 교집합은, 상기 신체 부위의 크기 및 개수 중 적어도 하나의 교집합인 것을 특징으로 한다.
상기 익명화하는 단계는, 상기 특정한 하나 이상의 신체 부위를 미리 정해진 깊이만큼 익명화하는 것을 특징으로 한다.
상기 하나 이상의 신체 부위는, 익명화를 요청하는 사용자로부터 익명화가 필요한 신체 부위로 선택되는 하나 이상의 신체 부위이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 의료 영상 데이터의 익명화 방법은 상기 신체 부위를 인식하여 특정하는 단계 이전에, 상기 컴퓨터가 의료 영상 데이터의 업로드를 요청받는 단계를 더 포함하고, 상기 익명화하는 단계 이후에, 익명화된 의료 영상 데이터를 상기 컴퓨터 내에 저장하여 데이터베이스화 하는 단계를 더 포함하고, 상기 컴퓨터는 클라우드 서버이다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 의료 영상 데이터의 익명화 방법은 하드웨어인 컴퓨터와 결합되어, 상기 방법 중 어느 하나의 방법을 실행시키기 위해 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기 본 발명에 의하면 다양한 제조회사 별 장비와 다양한 병원에서 촬영되는 의료 영상 데이터에서 익명화가 필요한 신체 부위의 일괄적인 익명화를 영상 내 공간적 위치, 해상도, 밝기, 강도에 제약받지 않고 수행할 수 있다.
또한, 상기 본 발명에 의하면 내부 장기 부분의 데이터는 손상시키지 않으면서도 누구의 의료 영상 데이터인지 식별하지 못하도록 신체 부위를 신체의 겉표면만 익명화할 수 있다.
또한, 상기 본 발명에 의하면 의료 영상 데이터의 공유를 위한 클라우드 서버에 업로드 시에도 의료 영상 데이터의 익명화 과정을 거쳐, 익명화된 의료 영상 데이터를 데이터베이스화 하고, 익명화된 의료 영상 데이터를 공유하여 2차적 용도로 사용될 수 있다.
또한, 상기 본 발명에 의하면 3차원 상에서의 표면 또는 원하는 신체 부위만을 레이블링하는 것을 보다 쉽게 제공하여 눈과 귀 등 원하는 신체 부위의 표면을 특정할 수 있으며, 특정된 해당 신체부위를 기반으로 하여 학습데이터로 사용하는 경우 복잡한 전후처리 없이도 특정이 필요한 신체부위의 표면을 특정할 수 있는 인공지능 모델을 생성할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 의료 영상 데이터의 익명화 방법을 설명하기 위한 도면이다.
도 2는 신체 부위를 인식하여 특정하는 방법을 설명하기 위한 도면이다.
도 3은 의료 영상 데이터에서 신체의 최외곽면을 추출하는 방법을 설명하기 위한 도면이다.
도 4는 의료 영상 데이터에서 익명화를 위해 특정된 신체의 부위의 최외곽면을 추출하는 과정의 예시적인 도면이다.
도 5 내지 도 7은 신체의 최외곽면과 특정한 신체 부위의 교집합을 추출하여 교집합 부분을 익명화하는 과정의 예시적인 도면이다.
도 8은 클라우드 서버에 의료 영상 데이터를 업로드 하는 방법을 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 '컴퓨터'는 연산처리를 수행할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 헤드마운트 디스플레이 기능을 포함할 수 있으며, 헤드마운트 디스플레이 장치 자체가 컴퓨팅 장치인 것도 포함한다. 컴퓨터가 헤드마운트 디스플레이 장치와 유선 또는 무선 연결되는 컴퓨팅 장치로서, 컴퓨팅 장치가 헤드마운드 디스플레이에 영상을 제공해주는 것을 포함한다. 컴퓨터가 헤드마운트 디스플레이 컴퓨팅 장치 자체로서, 영상을 생성하여 제공까지 하는 것을 포함한다. 또한, 컴퓨터는 클라이언트로부터 정보를 수신하는 서버컴퓨터가 해당될 수도 있으며, 컴퓨터는 클라우드 서버에 해당될 수도 있다.
본 명세서에서 '의료 영상 데이터'는 의학 화상 처리 방식에 의해 획득된 영상은 모두 포함된다. 예를 들어, 영상 데이터는 CT(Computer tomography), 핵자기공명 컴퓨터 단층촬영 영상(Nuclear Magnetic Resonance Computed Tomography, NMR-CT), 양전자 단층촬영 영상(positron emission tomography; PET), CBCT(conebeamCT), 전자빔 단층촬영 영상(Electron beam tomography), 엑스레이(X-ray), 자기공명영상(margnetic resonance imaging)이 해당될 수 있다.
본 명세서에서 '신체 부위'는 신체에 포함된 모든 부위 및 기관을 포함하는 것으로서, 신체의 피부 밖으로 드러나는 신체 부위 및 신체 내외부의 장기를 포함하는 기관을 모두 포함한다. 예컨대, 신체 부위는 안면에 해당하는 눈, 코, 귀, 입과 신체 내부의 각 장기들을 포함할 수 있다.
본 발명의 실시예들에 따른 심층신경망은, 영상분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)가 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)와 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다.
특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘벌루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
콘벌루션 층은 입력 영상의 각 패치에 대하여 필 터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다.
통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘벌루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.
이와 같이, 콘벌루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.
다만, 본 발명의 실시예들에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 의료 영상 데이터의 익명화 방법을 설명하기 위한 도면이다.
도 2는 신체 부위를 인식하여 특정하는 방법을 설명하기 위한 도면이다.
도 3은 의료 영상 데이터에서 신체의 최외곽면을 추출하는 방법을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 의료 영상 데이터의 익명화 방법은, 의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계(S110), 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계(S130), 하나 이상의 신체 부위와 신체 영역의 겉표면과의 교집합을 추출하는 단계(S150) 및 교집합 부분을 의료 영상 데이터에서 익명화하는 단계(S170)를 포함한다.
의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계(S110)는 컴퓨터가 식별 학습 모델을 기반으로 의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 것이다.
의료 영상 데이터는, 상술한 바와 같이 의학 화상 처리 방식에 의해 획득된 영상은 모두 포함되며, 복수의 2D 영상 또는 3D 영상이 포함된다. 3D 영상의 경우에는, 3D 영상 자체로 형성되는 의료 영상 데이터를 포함할 수 있고, 또한, 복수의 2D 영상을 기반으로 3D의 형태로 형성되는 의료 영상 데이터를 포함할 수도 있다.
식별 학습 모델은, 하나 이상의 신체 부위가 지정된 다양한 방향의 의료 영상 데이터를 학습데이터로서 학습한 결과로 도출된 것으로서, 다양한 방향의 의료 영상 데이터는 특정 의료 영상 데이터를 여러 방향으로 회전하여 획득한 것이다.
즉, 식별 학습 모델은 의료 영상 데이터를 넣으면 의료 영상 데이터 내의 특정 신체 부위를 특정해주는 학습 모델이고, 식별 학습 모델을 구축하는 방법으로는 복수의 의료 영상 데이터를 학습데이터로서 학습하여 도출하는 것으로서, 복수의 의료 영상 데이터 각각을 다양한 방향으로 회전한 데이터를 기반으로 학습한다.
다시 설명하면, 식별 학습 모델의 학습 데이터는, 하나의 특정 의료 영상 데이터를 여러 방향으로 회전하여 획득한 다양한 방향의 의료 영상 데이터가 복수 개인 것이다.
식별 학습 모델을 이용하여 의료 영상 데이터 내에서 하나 이상의 신체 부위를 특정하는 방법은, 콘볼루셔널 신경망을 이용할 수 있다.
일 실시예로, 식별 학습 모델을 이용하여 의료 영상 데이터 내에서 하나 이상의 신체 부위를 특정하는 방법은, 콘볼루셔널 신경망 중 U-NET(Convolutional Networks for image Segmentation)을 이용하여 의료 영상 데이터 내에서 특정 신체 부위를 찾고, 이후에 후처리로서 연결요소 라벨링(Conneted Componet Labeling) 알고리즘을 이용하여 잘못 추출된 신체 부위를 제거하고 나머지 신체 위치의 해당 위치에 박스의 형태로 특정할 수 있다.
U-NET이란, 분류(Classification)뿐만 아니라, 로컬리제이션(Localization)까지 함께 수행하는 것으로서, 네트워크 형태가 알파벳 U자의 형태에 해당되는 것이다. 구체적으로, 이미지 인식 단위인 패치(Patch)를 슬라이딩 윈도우(Sliding window) 방식이 아니라, 검증이 끝난 부분은 건너뛰고 다음 패치 부분에 대하여 검증을 하는 것으로서, 패치 단위로 검증을 수행하며, 패치는 이미지 영역 상에서 겹치지 않는 부분이다.
U-NET은 일반적인 CNN 구조보다 수행 속도가 훨씬 빠르며, 로컬리제이션도 보다 정확한 특징이 있다.
연결요소 라벨링이란, 인접한 화소에는 동일한 라벨을 붙이고, 연결되지 않은 다른 성분에는 다른 라벨을 붙이는 것이다. 연결요소 라벨링을 기반으로 하여 올바르게 추출된 신체 부위와 연결되지 않은 잘못 추출된 다른 신체 부위들을 노이즈로 인식할 수 있고 제거할 수 있다.
종래에는 의료 영상 데이터 내에서 신체 부위를 추출하여 익명화하기 위해서는, 정해진 촬영 방향에 의해 촬영된 의료 영상 데이터 내에서 정해진 위치의 부분의 익명화함으로써 신체 부위를 추출하여 익명화하였다.
그러나, 의료 영상 데이터가 조금이라도 다른 방향으로 촬영되는 등의 경우에는 종래의 방법을 이용하여서는 신체 부위를 익명화하기가 어려웠다.
본 발명과 같이, 콘볼루셔널 신경망을 이용한 식별 학습 모델을 이용하는 경우, 의료 영상 데이터가 어떠한 방향에서 촬영된 것이든지와 관계없이, 익명화를 원하는 신체 부위를 추출하여, 해당 부위를 익명화할 수 있으므로 의료 영상 데이터의 방향과 무관하게 신체 부위를 익명화할 수 있는 효과가 있다.
의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계(S110)는 일 실시예로, 의료 영상 데이터를 식별 학습 모델에 적용하면 의료 영상 데이터의 방향성과 관계없이, 즉, 어떠한 좌표계이든 관계없이 식별 학습 모델이 의료 영상 데이터 내에서 하나 이상의 신체 부위를 인식하여 특정하는 것이다.
또한, 다른 실시예로, 의료 영상 데이터를 식별 학습 모델에 적용하면 다양한 제조회사 별 장비와 다양한 병원에서 촬영되는 의료 영상 데이터에서 영상 내 공간적 위치, 해상도, 밝기, 강도에 제약받지 않고 식별 학습 하나 이상의 신체 부위를 인식하여 특정할 수 있다. 이 때, 강도는 MRI와 CT 상에서의 신호 강도를 의미하는 것이다.
의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계(S110)는 다른 실시예로, 도 2를 참조하면, 의료 영상 데이터의 방향성을 추출하는 단계(S111) 및 방향성에 맞추어 의료 영상 데이터에서 하나 이상의 신체 부위를 추출하는 단계(S113)를 포함한다.
의료 영상 데이터의 방향성이란, 신체 부위가 촬영된 방향성으로서, 좌표계의 방향을 의미하는 것이다. 따라서, 의료 영상 데이터의 방향성을 추출하는 단계(S111)는 의료 영상 데이터의 좌표계를 먼저 추출하는 것이다.
방향성에 맞추어 의료 영상 데이터에서 하나 이상의 신체 부위를 추출하는 단계(S113)는 추출된 방향성에 맞추어 하나 이상의 신체 부위를 추출하는 것으로서, 방향성에 따라 좌표를 일정 기준으로 맞춘 후, 예측되는 위치에서 하나 이상의 신체 부위를 추출하는 것이다.
의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계(S130)는, 일 실시예로, 식별 학습 모델을 기반으로 하나 이상의 신체 부위를 인식하여 특정한 의료 영상 데이터에 대하여 신체의 최외곽면을 추출할 수 있고, 다른 실시예로, 신체 부위가 특정되지 않은 상태의 의료 영상 데이터에 대하여 신체의 최외곽면을 추출할 수도 있다.
구체적으로, 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계(S130)는, 도 3을 참조하면, 의료 영상 데이터를 바이너리(binary) 영상 데이터로 변환하는 단계(S131) 및 3차원 윤곽선 추출기법(marching cubes algorithm)을 이용하여 신체의 외곽선을 특정하는 단계(S133)를 포함한다.
의료 영상 데이터를 바이너리(binary) 영상 데이터로 변환하는 단계(S131)는 영상 데이터 내의 밝기 분포를 기반으로 한 미리 정해진 문턱값을 기준으로 의료 영상 데이터를 바이너리 영상 데이터로 변환하는 것이다.
미리 정해진 문턱값은 신체의 최외곽면이 도출되기에 적절한 값이면 모두 해당될 수 있으며, 문턱값 미만은 0(검정), 문턱값 이상은 1(흰색)로 표현하는 방법을 통해 바이너리 영상 데이터로 변환할 수 있다.
별도로 도시하지는 않았으나, 바이너리 영상 데이터로 변환한 후에는 신체 내부에 포함되어 있는 빈 공간 등이 영상에서 도출될 수 있으므로, 빈 공간에 해당하는 신체 내부 구멍을 채우는 알고리즘(fill holes)를 이용하여 2차원 또는 3차원의 신체 내부가 채워진 바이너리 영상 데이터를 만드는 과정을 포함할 수 있다.
이후, 3차원 윤곽선 추출기법을 이용하여 신체의 외곽면을 특정한다(S133).
이 경우는, 의료 영상 데이터는 2D가 아닌, 3D의 의료 영상 데이터가 사용된 경우이다.
3차원 윤곽선 추출기법이란, CT 또는 MRI를 이용한 영상 데이터를 시각화하는 방법으로서, 3D 모델링에 해당된다.
구체적으로, 가상 큐브를 형성하고, 큐브를 통과하는 등면의 일부를 나타내는 다각형을 가상 큐브 안에 표시하는 등의 방법을 이용하여 3차원 윤곽선을 추출할 수 있다.
의료 영상 데이터에서 신체의 최외곽면을 추출하는 방법의 예시적인 설명은 도 4에서 후술한다.
하나 이상의 신체 부위와 신체 영역의 겉표면과의 교집합을 추출하는 단계(S150)는 컴퓨터가 의료 영상 데이터 상에서 특정한 하나 이상의 신체 부위와 추출한 신체의 최외곽면으로 구성된 신체 영역의 겉표면과의 교집합을 추출하는 것이다.
상술한 식별 학습 모델을 이용하여 3차원 박스 형태로 특정된 신체 부위를 그대로 익명화하는 경우에는, 해당 신체 부위를 어느 정도 깊이로 익명화해야 할지 결정하는 데에 어려움이 있다.
신체 부위를 너무 깊은 깊이로 익명화하는 경우에는, 내부 장기 부분까지 익명화가 되기 때문에 정작 확인이 필요한 부위의 영상을 확보하기가 어렵다.
신체 부위의 익명화는 의료 영상 데이터를 외부에 공유하거나 연구의 목적으로 활용하는 경우 주로 필요한 것으로서, 형태만 익명화하면 된다. 따라서, 본 발명에서는 상기와 같은 문제점을 해결하기 위하여 의료 영상 데이터에서 신체의 최외곽면을 추출하여, 신체 영역의 겉표면을 확보하고, 해당 신체 영역의 겉표면과 3차원 박스로 표시된 특정한 하나 이상의 신체 부위의 교집합 부분을 추출하는 것이다.
이 때, 교집합이란, 신체 부위의 크기 및 개수 중 적어도 하나의 교집합이다.
신체 부위의 크기에 대한 교집합이란, 신체 부위가 잘못 특정된 경우의 익명화를 방지하기 위한 것으로서, 예컨대, 의료 영상 데이터가 안면에 대한 의료 영상 데이터일 때, 식별 학습 모델을 통해 눈으로 추출된 부분이 있으나, 신체의 최외곽면을 통해 도출된 눈의 크기와 일정 비율 범위 이상이 차이나는 경우, 해당 부분은 교집합으로 도출되지 않고, 해당 부위는 익명화되지 않는다.
개수의 교집합이란, 예컨대, 신체 부위 중 귀는 2개인데, 3개가 도출되는 경우 1개는 귀가 아닌 것이 잘못 도출된 것이다. 이와 같이 개수 또한 교집합에 해당하는 부분이 해당 신체 부위에 해당되는 것이므로, 개수의 교집합도 포함될 수 있다.
교집합 부분을 추출하면, 해당 부분을 의료 영상 데이터에서 익명화한다(S170).
익명화가 필요한 신체 부위를 신체 겉표면 부분만 익명화한다면 내부 장기가 익명화되는 것을 방지할 수 있다.
상술한 바와 같이, 신체의 최외곽면을 추출하여, 해당 신체 부위의 겉표면에 해당되는 부분만 익명화하는 것이 가장 바람직하나, 신체의 최외곽면을 추출하지 않는 경우에도, 특정된 신체 부위에 대하여 미리 정해진 일정 깊이만큼 익명화하도록 설정할 수도 있다. 다만, 이와 같은 경우에는 신체 부위마다 익명화가 필요한 깊이가 상이할 수 있으므로, 각 신체 부위마다 일정 깊이가 상이하게 정해질 수 있다.
따라서, 교집합 부분을 의료 영상 데이터에서 익명화하는 단계(S170)는 식별 학습 모델을 기반으로 특정한 하나 이상의 신체 부위를 미리 정해진 깊이만큼 익명화할 수 있다.
신체 부위의 익명화는 익명화를 요청하는 사용자로부터 선택된 신체 부위만을 익명화할 수도 있다.
도 4는 의료 영상 데이터에서 신체의 최외곽면을 추출하는 과정의 예시적인 도면이다.
도 4의 (a), (c), (e)는 환자의 안면 영상 중 위에서 찍은 영상에 해당되고, 도 4의 (b), (d), (f)는 환자의 안면 영상 중 측면에서 찍은 영상에 해당된다.
도 4의 (a) 및 (b)는 의료 영상 데이터를 바이너리 영상 데이터로 변환한 것으로서, 영상 데이터 내의 밝기 분포를 기반으로 한 미리 정해진 문턱값을 기준으로 의료 영상 데이터를 바이너리 영상 데이터로 변환한 것이다. 상술한 바와 같이, 바이너리 영상 데이터는 흑백 영상 데이터로 나타난다.
도 4의 (a) 및 (b)와 같이 바이너리 영상 데이터로 변환한 영상 데이터는 신체 내부에 포함되어 있는 빈 공간 등이 도출될 수 있다. 따라서, 빈 공간에 해당하는 신체 내부 구멍을 채우는 알고리즘(fill holes)를 이용하면, 도 4의 (c) 및 (d)와 같이, 신체 내부가 채워진 바이너리 영상 데이터를 생성할 수 있다.
이후에는, 3차원 윤곽선 추출기법을 이용하여 신체의 외곽선을 특정하면, 도 4의 (e) 및 (f)와 같이 나타나게 된다.
도 4의 (e) 및 (f)와 같이 신체의 외곽선이 특정되면, 의료 영상 데이터 내에서 특정한 신체 부위와 추출한 신체의 최외곽면으로 구성된 신체 영역의 겉표면과의 교집합을 추출하는 것이다.
도 5 내지 도 7은 신체의 최외곽면과 특정한 신체 부위의 교집합을 추출하여 교집합 부분을 익명화하는 과정의 예시적인 도면이다.
도 5의 (a), (b), (c), (d)와 도 6의 (a), (b), (c), (d)와 도 7의 (a), (b), (c), (d)는 각각 대응되는 도면으로서, 도 5의 (a), 도 6의 (a) 및 도 7의 (a)는 환자의 얼굴 및 머리를 위에서 찍은 영상에 해당되고, 도 5의 (b), 도 6의 (b) 및 도 7의 (b)는 환자 얼굴의 측면에서 찍은 영상에 해당, 도 5의 (c), 도 6의 (c) 및 도 7의 (c)는 환자 얼굴의 후면에서 찍은 영상에 해당, 도 5의 (d), 도 6의 (d) 및 도 7의 (d)는 환자 얼굴의 측면에서 찍은 영상으로서 도 5의 (b), 도 6의 (b) 및 도 7의 (b)과 동일한 측면이나 다른 신체부위의 익명화를 설명하기 위해 추가적으로 도시되거나, 반대 측면을 나타내는 영상에 해당될 수 있다.
먼저, 도 5는 의료 영상 데이터 내에서 특정한 신체 부위와 추출한 신체의 최외곽면으로 구성된 신체 영역의 겉표면과의 교집합을 추출한 것이다.
도 5의 (a)는 양쪽 눈, 양쪽 귀 및 코에 대한 교집합을 추출한 것이고, 도 5의 (b)는 코에 대한 교집합을 추출한 것이고, 도 5의 (c)는 양쪽 귀에 대한 교집합을 추출한 것이고, 도 5의 (d)는 측면에서의 눈에 대한 교집합을 추출한 것이다.
도 6은 해당 교집합 부분을 흐리게 처리한 것으로, 해당 신체부위 형태가 희미하게 남아있는 것을 확인할 수 있다.
도 7은 해당 교집합 부분을 삭제 처리한 것으로, 해당 신체부위 형태가 전혀 남아있지 않는 것을 확인할 수 있다.
익명화의 목적에 따라 교집합 부분을 흐리게 처리하거나 삭제 처리할 수 있으며, 흐리게 처리하는 정도 또한 설정에 의해 변경될 수도 있다.
도 8은 클라우드 서버에 의료 영상 데이터를 업로드 하는 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 클라우드 서버에 의료 영상 데이터를 업로드 하는 방법은, 의료 영상 데이터의 업로드를 요청받는 단계(S100), 의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계(S110), 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계(S130), 하나 이상의 신체 부위와 신체 영역의 겉표면과의 교집합을 추출하는 단계(S150), 교집합 부분을 의료 영상 데이터에서 익명화하는 단계(S170) 및 익명화된 의료 영상 데이터를 컴퓨터 내에 저장하여 데이터베이스화 하는 단계(S190)를 포함한다.
이 때, 컴퓨터는 클라우드 서버에 해당된다. 클라우드 서버는 의료 영상 데이터를 각 기관 별로 보관한 후, 인공 지능을 이용한 학습 모델 생성을 위해 의료 영상 데이터를 학습용 데이터로서 제공할 수 있다. 또한, 학습용 데이터가 아니더라도 참고자료 등으로 제공할 수도 있다.
학습용 데이터 또는 참고자료용으로 의료 영상 데이터를 제공하기 위해 클라우드 서버에 의료 영상 데이터를 업로드 하는 경우에는, 환자의 정보나 해당 환자가 누구인지 알 수 있는 형태를 익명화하는 것이 필수적이다.
따라서, 본 발명은 클라우드 서버에 익명화된 의료 영상 데이터를 저장하도록 하는 것으로, 일 실시예로. 초기의 의료 영상 데이터 자체를 클라우드 서버에 업로드하면 클라우드 서버 내에서 의료 영상 데이터의 익명화를 진행할 수 있고, 다른 실시예로, 클라우드 서버에 업로드 하기 전 의료 영상 데이터를 익명화하여, 익명화된 의료 영상 데이터를 업로드 할 수도 있다.
의료 영상 데이터의 업로드를 요청받는 단계(S100)는 컴퓨터, 즉, 클라우드 서버가 의료 영상 데이터의 업로드를 요청받는 것이다. 상술한 바와 같이, 업로드 요청을 받을 때에는 익명화된 의료 영상 데이터의 업로드를 요청 받거나, 또는 익명화 과정을 거치지 않은 초기의 의료 영상 데이터의 업로드를 요청 받을 수 있다.
의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계(S110), 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계(S130), 하나 이상의 신체 부위와 신체 영역의 겉표면과의 교집합을 추출하는 단계(S150) 및 교집합 부분을 의료 영상 데이터에서 익명화하는 단계(S170)는 도 1 내지 도 4에서 상술한 내용과 동일하다.
익명화된 의료 영상 데이터를 컴퓨터 내에 저장하여 데이터베이스화 하는 단계(S190)는 익명화된 의료 영상 데이터를 클라우드 서버 내에 저장하여 특정 질환별, 의료 기관별 등으로 분류하는 등 데이터베이스화 하는 것이다.
이상에서 상술한 본 발명의 일 실시예에 따른 방법인, 의료 영상 데이터의 익명화 방법은 하드웨어인 컴퓨터가 결합되어 실행되기 위해 의료 영상 데이터의 익명화 컴퓨터 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있으며, 의료 영상 데이터의 익명화 방법은 하드웨어인 컴퓨터가 결합되어 실행되기 위해 의료 영상 데이터의 익명화 컴퓨터 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (11)

  1. 컴퓨터가 식별 학습 모델을 기반으로 의료 영상 데이터에서 하나 이상의 신체 부위를 인식하여 특정하는 단계;
    상기 컴퓨터가 상기 의료 영상 데이터에서 신체의 최외곽면을 추출하는 단계;
    상기 컴퓨터가 상기 의료 영상 데이터 상에서 상기 특정한 하나 이상의 신체 부위와 상기 추출한 신체의 최외곽면으로 구성된 신체 영역의 겉표면과의 교집합을 추출하는 단계; 및
    상기 컴퓨터가 추출한 교집합 부분을 상기 의료 영상 데이터에서 익명화하는 단계를 포함하는,
    의료 영상 데이터의 익명화 방법.
  2. 제1항에 있어서,
    상기 식별 학습 모델은,
    하나 이상의 신체 부위가 지정된 다양한 방향의 의료 영상 데이터를 학습데이터로서 학습한 결과로 도출된 것으로서, 상기 다양한 방향의 의료 영상 데이터는 특정 의료 영상 데이터를 여러 방향으로 회전하여 획득한 것인,
    의료 영상 데이터의 익명화 방법.
  3. 제1항에 있어서,
    상기 하나 이상의 신체 부위를 인식하여 특정하는 단계는,
    상기 의료 영상 데이터를 상기 식별 학습 모델에 적용하면 상기 의료 영상 데이터의 방향성과 관계없이 상기 하나 이상의 신체 부위를 특정하는 것을 특징으로 하는,
    의료 영상 데이터의 익명화 방법.
  4. 제1항에 있어서,
    상기 하나 이상의 신체 부위를 인식하여 특정하는 단계는,
    상기 의료 영상 데이터의 방향성을 추출하는 단계; 및
    상기 추출된 방향성에 맞추어 상기 의료 영상 데이터에서 상기 하나 이상의 신체 부위를 추출하는 단계를 포함하는,
    의료 영상 데이터의 익명화 방법.
  5. 제1항에 있어서,
    상기 의료 영상 데이터는 안면의 의료 영상 데이터인 것을 특징으로 하는,
    의료 영상 데이터의 익명화 방법.
  6. 제1항에 있어서,
    상기 최외곽면을 추출하는 단계는,
    영상의 밝기 분포를 기반으로 한 미리 정해진 문턱값을 기준으로 상기 의료 영상 데이터를 바이너리 영상 데이터로 변환하는 단계; 및
    상기 바이너리 영상 데이터에서 3차원 윤곽선 추출기법을 이용하여 신체의 외곽선을 특정하는 단계를 포함하는,
    의료 영상 데이터의 익명화 방법.
  7. 제1항에 있어서,
    상기 교집합은,
    상기 신체 부위의 크기 및 개수 중 적어도 하나의 교집합인 것을 특징으로 하는,
    의료 영상 데이터의 익명화 방법.
  8. 제1항에 있어서,
    상기 익명화하는 단계는,
    상기 특정한 하나 이상의 신체 부위를 미리 정해진 깊이만큼 익명화하는 것을 특징으로 하는,
    의료 영상 데이터의 익명화 방법.
  9. 제1항에 있어서,
    상기 하나 이상의 신체 부위는, 익명화를 요청하는 사용자로부터 익명화가 필요한 신체 부위로 선택되는 하나 이상의 신체 부위인,
    의료 영상 데이터의 익명화 방법.
  10. 제1항에 있어서,
    상기 신체 부위를 인식하여 특정하는 단계 이전에,
    상기 컴퓨터가 의료 영상 데이터의 업로드를 요청받는 단계를 더 포함하고,
    상기 익명화하는 단계 이후에,
    익명화된 의료 영상 데이터를 상기 컴퓨터 내에 저장하여 데이터베이스화 하는 단계를 더 포함하고,
    상기 컴퓨터는 클라우드 서버인,
    의료 영상 데이터의 익명화 방법.
  11. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제10항 중 어느 한 항의 방법을 실행시키기 위해 저장된, 의료 영상 데이터의 익명화 컴퓨터 프로그램.
KR1020190171109A 2019-12-19 2019-12-19 의료 영상 데이터의 익명화 방법 및 프로그램 KR20210079043A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190171109A KR20210079043A (ko) 2019-12-19 2019-12-19 의료 영상 데이터의 익명화 방법 및 프로그램
PCT/KR2020/017888 WO2021125671A1 (ko) 2019-12-19 2020-12-08 의료 영상 데이터의 익명화 방법, 프로그램, 컴퓨터 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171109A KR20210079043A (ko) 2019-12-19 2019-12-19 의료 영상 데이터의 익명화 방법 및 프로그램

Publications (1)

Publication Number Publication Date
KR20210079043A true KR20210079043A (ko) 2021-06-29

Family

ID=76476795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171109A KR20210079043A (ko) 2019-12-19 2019-12-19 의료 영상 데이터의 익명화 방법 및 프로그램

Country Status (2)

Country Link
KR (1) KR20210079043A (ko)
WO (1) WO2021125671A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150086089A (ko) 2014-01-17 2015-07-27 주식회사 라이브존 전자의무기록을 이용한 의료영상 관리시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633482B2 (en) * 2014-08-12 2017-04-25 Toshiba Medical Systems Corporation Apparatus and method for restricting image data visualization
US10275927B2 (en) * 2016-11-16 2019-04-30 Terarecon, Inc. System and method for three-dimensional printing, holographic and virtual reality rendering from medical image processing
KR102044237B1 (ko) * 2018-10-23 2019-11-13 연세대학교 산학협력단 2차원 음영 영상 기반 기계학습을 이용한 자동 3차원 랜드마크 검출 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150086089A (ko) 2014-01-17 2015-07-27 주식회사 라이브존 전자의무기록을 이용한 의료영상 관리시스템 및 방법

Also Published As

Publication number Publication date
WO2021125671A1 (ko) 2021-06-24

Similar Documents

Publication Publication Date Title
US10496898B2 (en) State detection using machine-learning model trained on simulated image data
US10929708B2 (en) Deep learning network for salient region identification in images
CN110785767B (zh) 紧凑的无语言面部表情嵌入和新颖三元组的训练方案
JP6754619B2 (ja) 顔認識方法及び装置
WO2021184933A1 (zh) 一种人体三维模型重建方法
EP3937124A1 (en) Image processing method, device and apparatus, and storage medium
US10853409B2 (en) Systems and methods for image search
JP2022502751A (ja) 顔キーポイント検出方法、装置、コンピュータ機器及びコンピュータプログラム
WO2020098257A1 (zh) 一种图像分类方法、装置及计算机可读存储介质
CN111369576A (zh) 图像分割模型的训练方法、图像分割方法、装置及设备
CN106326857A (zh) 基于人脸图像的性别识别方法及装置
EP4006776A1 (en) Image classification method and apparatus
WO2022052530A1 (zh) 人脸矫正模型的训练方法、装置、电子设备及存储介质
EP4006777A1 (en) Image classification method and device
US20230095182A1 (en) Method and apparatus for extracting biological features, device, medium, and program product
WO2024109374A1 (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
CN111091010A (zh) 相似度确定、网络训练、查找方法及装置和存储介质
CN111091055A (zh) 脸型识别方法、装置、设备及计算机可读存储介质
CN115147261A (zh) 图像处理方法、装置、存储介质、设备及产品
CN114821736A (zh) 基于对比学习的多模态人脸识别方法、装置、设备及介质
CN113822965A (zh) 图像渲染处理方法、装置和设备及计算机存储介质
KR20210021663A (ko) 의료 영상 비식별화를 위한 신체 부위 위치 특정 방법, 프로그램 및 컴퓨팅 장치
WO2023160157A1 (zh) 三维医学图像的识别方法、装置、设备、存储介质及产品
KR20210079043A (ko) 의료 영상 데이터의 익명화 방법 및 프로그램
BR112021016734A2 (pt) Método para identificação de um usuário utilizando uma imagem de um objeto do usuário que possui uma característica biométrica do usuário e dispositivo móvel

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right