WO2019221586A1 - Medical image management system, method, and computer-readable recording medium - Google Patents

Medical image management system, method, and computer-readable recording medium Download PDF

Info

Publication number
WO2019221586A1
WO2019221586A1 PCT/KR2019/095016 KR2019095016W WO2019221586A1 WO 2019221586 A1 WO2019221586 A1 WO 2019221586A1 KR 2019095016 W KR2019095016 W KR 2019095016W WO 2019221586 A1 WO2019221586 A1 WO 2019221586A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
image
learning
database
information
Prior art date
Application number
PCT/KR2019/095016
Other languages
French (fr)
Korean (ko)
Inventor
심우현
박범우
박채리
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Publication of WO2019221586A1 publication Critical patent/WO2019221586A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • An object of the present invention is to provide a medical image management system, a method and a computer-readable recording medium capable of quickly and accurately determining the type and quality of medical images.
  • the database may include information about a result of learning brightness contrast according to a plurality of medical image capturing techniques and a result of learning whether noise is included in the medical image and characteristics of the noise.
  • the de-identification unit may perform irreversible data conversion for the eyes, nose, and mouth.
  • irreversible data transformation may be performed on the eyes, nose, and mouth.
  • FIG. 1 is a view schematically showing the configuration of a medical image management system according to an embodiment of the present invention.
  • FIG. 10 is a flowchart schematically illustrating a medical image management method according to another exemplary embodiment of the present invention.
  • the information about the characteristics of the medical image may include information about a method of obtaining an image such as whether the medical image is an MRI image, which is a CT image, and information about a situation or condition in which the medical image is obtained.
  • the purpose of the study may vary and the body parts of the study may vary.
  • the client may request a medical image of at least one of eyes, nose and mouth.
  • the patient may be identified through the 3D medical image, and even if the 2D medical image is provided, the 3D image may be generated by combining the patient information. Can be.
  • the medical image that has been de-identified according to the client's request may be a 3D image as shown in FIG. 6, but the information provided to the client may be a 2D image as shown in FIG. 3. Therefore, the client may utilize the provided 2D image according to the necessary purpose, but even if the 3D image is generated by using the 2D image, the client cannot obtain information enough to identify the individual patient.
  • the size of the matrix corresponding to the source pixel and the convolution kernel can be variously determined, and is not necessarily limited to 3x3 as shown in FIG.
  • the weights of the elements of the convolution kernel are not limited to the values shown in FIG. 7, and thus the degree of de-identification can be controlled by adjusting the kernel size and the kernel weight.
  • FIG. 9 illustrates the medical image type learning step S11, the noise learning step S12, and the header information learning step S13, but the sequence shown in FIG. 8 is not necessarily required. Regardless of the type, noise and header information may be learned.
  • the present invention can be embodied as computer readable codes on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Disclosed are a medical image management system, method, and computer readable recording medium. The medical image management system according to one embodiment of the present invention comprises: a database containing information on the characteristics of a medical image and the characteristics of artifacts contained in the medical image; an image receiving unit for receiving a medical image; an image classification unit for determining the type of the received medical image by using the information on the characteristics of the medical image stored in the database; and a quality determination unit for determining the quality of the received medical image by using information on the characteristics of the artifacts stored in the database.

Description

의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체Medical Image Management Systems, Methods, and Computer-readable Records
본 발명은 의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체에 관한 것으로, 보다 구체적으로는 의료영상의 종류와 품질을 신속하고 정확하게 판단할 수 있는 의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체에 관한 것이다.The present invention relates to a medical image management system, a method and a computer readable recording medium, and more particularly, to a medical image management system, a method and a computer readable recording medium capable of quickly and accurately determining the type and quality of a medical image. It is about.
의료영상의 종류가 다양하고 의료영상의 종류에 따라 동일한 물질이나 장기가 서로 다른 밝기로 표시될 수 있고, 의료영상을 촬영하는 동안에 예측하기 어려운 상황이 발생함에 따라 의료영상에 잡음이 포함될 수 있다.Different types of medical images may be displayed, and the same substance or organ may be displayed with different brightness according to the type of medical image, and noise may be included in the medical image as an unpredictable situation occurs while taking the medical image.
정확한 진단을 위해서 기초적으로 의료영상의 종류를 구분하는 과정이 필요하고, 잡음의 정도에 따라서는 진단에 쓰일 수 없는 의료영상이 존재하므로 이러한 의료영상을 선별하는 과정도 필요하다.For accurate diagnosis, it is necessary to basically classify the types of medical images. Depending on the degree of noise, there is a medical image that cannot be used for diagnosis.
다만, 이러한 과정들이 사람의 눈에 의해 이루어지므로 과도한 시간이 소요되거나 정확한 판단이 이루어지지 않는 문제가 발생할 수 있다.However, since these processes are performed by the human eye, it may cause a problem that excessive time is taken or accurate judgment is not made.
본 발명은 의료영상의 종류와 품질을 신속하고 정확하게 판단할 수 있는 의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a medical image management system, a method and a computer-readable recording medium capable of quickly and accurately determining the type and quality of medical images.
본 발명의 일 실시예에 따른 의료영상 관리 시스템은, 의료영상의 특성 및 의료영상에 포함된 잡음(artifacts)의 특성에 관한 정보를 포함하는 데이터베이스, 의료영상을 수신하는 영상 수신부, 상기 데이터베이스에 저장된 상기 의료영상의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 종류를 판단하는 영상 분류부 및 상기 데이터베이스에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 품질을 판단하는 품질 판단부를 포함한다.Medical image management system according to an embodiment of the present invention, a database containing information on the characteristics of the medical image and the characteristics of the artifacts (artifacts) in the medical image, an image receiving unit for receiving a medical image, stored in the database An image classifier that determines the type of the medical image received by using the information about the characteristics of the medical image and a quality that determines the quality of the received medical image by using information about the characteristics of the noise stored in the database. It includes a determination unit.
또한, 상기 데이터베이스는 복수의 의료영상의 촬영 기법에 따른 밝기 대조도를 학습한 결과 및 의료영상에 잡음의 포함 여부 및 잡음의 특성을 학습한 결과에 관한 정보를 포함할 수 있다.The database may include information about a result of learning brightness contrast according to a plurality of medical image capturing techniques and a result of learning whether noise is included in the medical image and characteristics of the noise.
또한, 상기 데이터베이스는 상기 복수의 의료영상에 포함된 헤더 정보(Header Information)를 학습한 결과에 관한 정보를 더 포함할 수 있고, 상기 밝기 대조도를 학습하는 것은 상기 복수의 의료영상에서 정상 영역들의 밝기 대조도를 학습하는 것일 수 있다.The database may further include information about a result of learning header information included in the plurality of medical images, and the learning of the brightness contrast may be performed by the normal regions of the plurality of medical images. It may be to learn brightness contrast.
또한, 상기 영상 분류부는 수신된 상기 의료영상의 밝기 대조도를 기준으로 상기 의료영상의 종류를 판단할 수 있다.The image classifying unit may determine the type of the medical image based on the brightness contrast degree of the received medical image.
또한, 상기 의료영상에서 안면 영역을 분리하는 안면 영역 분리부, 클라이언트로부터 상기 안면 영역에 포함되는 눈, 코, 입 중 적어도 어느 하나에 대한 자료 제공 요청을 수신하는 요청 수신부 및 요청된 부위를 제외한 나머지 안면 영역에 대하여 비식별화를 수행하는 비식별화부를 더 포함할 수 있다.In addition, except for a facial region separating unit for separating the facial region in the medical image, a request receiving unit for receiving a data providing request for at least one of the eyes, nose, mouth included in the facial region from the client and the requested portion The apparatus may further include a non-identification unit performing de-identification on the facial area.
또한, 상기 데이터베이스는 의료영상에 포함되는 눈, 코, 입 학습 결과에 관한 정보를 더 포함하고, 상기 안면 영역 분리부는 상기 눈, 코, 입 학습 결과를 이용하여 상기 안면 영역을 분리할 수 있다.The database may further include information on eye, nose and mouth learning results included in a medical image, and the face area separator may separate the face area using the eye, nose and mouth learning results.
또한, 상기 비식별화부는 상기 눈, 코, 입에 대한 비가역적 데이터 변환을 수행할 수 있다.In addition, the de-identification unit may perform irreversible data conversion for the eyes, nose, and mouth.
한편, 본 발명의 일 실시예에 따른 의료영상 관리 방법은, 의료영상의 특성 및 의료영상에 포함된 잡음(artifacts)의 특성에 관한 정보를 포함하는 데이터베이스를 구축하는 단계, 의료영상을 수신하는 단계, 상기 데이터베이스에 저장된 상기 의료영상의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 종류를 판단하는 단계 및 상기 데이터베이스에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 품질을 판단하는 단계를 포함한다.On the other hand, the medical image management method according to an embodiment of the present invention, the step of constructing a database including information on the characteristics of the medical image and the characteristics of the artifacts (artifacts) included in the medical image, receiving the medical image Determining a type of the received medical image by using information about the characteristic of the medical image stored in the database, and determining the quality of the received medical image by using information about the characteristic of the noise stored in the database. Determining.
또한, 상기 데이터베이스를 구축하는 단계는, 복수의 의료영상의 촬영 기법에 따른 밝기 대조도를 학습하는 단계 및 의료영상에 잡음의 포함 여부 및 잡음의 특성을 학습하는 단계를 포함할 수 있다.In addition, the building of the database may include learning brightness contrast according to a plurality of medical image capturing techniques, and learning whether noise is included in the medical image and characteristics of the noise.
또한, 상기 데이터베이스를 구축하는 단계는, 상기 복수의 의료영상에 포함된 헤더 정보(Header Information)를 학습하는 단계를 더 포함할 수 있고, 상기 밝기 대조도를 학습하는 단계에서는, 상기 복수의 의료영상에서 정상 영역들의 밝기 대조도를 학습할 수 있다.The establishing of the database may further include learning header information included in the plurality of medical images, and in the learning of the brightness contrast, the plurality of medical images. You can learn the brightness contrast of the normal areas in.
또한, 상기 의료영상의 종류를 판단하는 단계에서는 수신된 상기 의료영상의 밝기 대조도를 기준으로 상기 의료영상의 종류를 판단할 수 있다.In the determining of the type of the medical image, the type of the medical image may be determined based on the brightness contrast degree of the received medical image.
또한, 수신된 상기 의료영상에서 안면 영역을 분리하는 단계, 클라이언트로부터 상기 안면 영역에 포함되는 눈, 코, 입 중 적어도 어느 하나에 대한 자료 제공 요청을 수신하는 단계 및 요청된 부위를 제외한 나머지 안면 영역에 대하여 비식별화를 수행하는 단계를 더 포함할 수 있다.The method may further include separating a facial area from the received medical image, receiving a request for providing a data for at least one of eyes, nose, and mouth included in the facial area from a client, and remaining facial areas except for the requested area. The method may further include performing de-identification on.
또한, 상기 데이터베이스는 의료영상에 포함되는 눈, 코, 입 학습 결과에 관한 정보를 더 포함하고, 상기 안면 영역을 분리하는 단계에서는 상기 눈, 코, 입에 대한 기계 학습 결과를 이용하여 상기 안면 영역을 분리할 수 있다.The database may further include information about eye, nose, and mouth learning results included in a medical image, and in the step of separating the face area, the face area using machine learning results for the eyes, nose, and mouth. Can be separated.
또한, 상기 비식별화를 수행하는 단계에서는 상기 눈, 코, 입에 대한 비가역적 데이터 변환을 수행할 수 있다.In the performing of the de-identification, irreversible data transformation may be performed on the eyes, nose, and mouth.
한편, 본 발명에 따른 의료영상 관리 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공될 수 있다.Meanwhile, a computer-readable recording medium having a program recorded thereon for performing the medical image management method according to the present invention may be provided.
본 발명은 의료영상의 종류와 품질을 신속하고 정확하게 판단할 수 있는 의료영상 관리 시스템, 방법 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.The present invention can provide a medical image management system, a method and a computer-readable recording medium that can quickly and accurately determine the type and quality of medical images.
도 1은 본 발명의 일 실시예에 따른 의료영상 관리 시스템의 구성을 개략적으로 나타내는 도면이다.1 is a view schematically showing the configuration of a medical image management system according to an embodiment of the present invention.
도 2 및 도 3은 촬영기법 차이에 따른 의료영상의 대조도 차이를 예시적으로 나타내는 도면이다.2 and 3 are views illustrating differences in contrast of medical images according to differences in imaging techniques.
도 4는 의료영상에 존재하는 잡음(artifact)을 예시적으로 나타내는 도면이다.4 is a diagram exemplarily illustrating an artifact existing in a medical image.
도 5는 본 발명의 다른 실시예에 따른 의료영상 관리 시스템의 구성을 개략적으로 나타내는 도면이다.5 is a view schematically showing the configuration of a medical image management system according to another embodiment of the present invention.
도 6은 의료 영상 비식별화의 결과를 예시적으로 나타내는 도면이다.6 is a diagram exemplarily illustrating a result of medical image de-identification.
도 7은 비식별화 방법의 일 실시예를 개략적으로 나타내는 도면이다.7 is a diagram schematically illustrating an embodiment of a de-identification method.
도 8은 본 발명의 일 실시예에 따른 의료영상 관리 방법을 개략적으로 나타내는 순서도이다.8 is a flowchart schematically illustrating a medical image management method according to an exemplary embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 데이터베이스 구축 단계를 개략적으로 나타내는 순서도이다.9 is a flowchart schematically illustrating a database building step according to an embodiment of the present invention.
도 10은 본 발명의 다른 실시예에 따른 의료영상 관리 방법을 개략적으로 나타내는 순서도이다.10 is a flowchart schematically illustrating a medical image management method according to another exemplary embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.Advantages and features of the present invention, and methods of achieving them will be apparent with reference to the embodiments described in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be embodied in many different forms and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. do. The embodiments set forth below are provided to make the disclosure of the present invention complete, and to fully inform the scope of the invention to those skilled in the art. In the following description of the present invention, when it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprises" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
도 1은 본 발명의 일 실시예에 따른 의료영상 관리 시스템의 구성을 개략적으로 나타내는 도면이다.1 is a view schematically showing the configuration of a medical image management system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 의료영상 관리 시스템(100)은 데이터베이스(110), 영상 수신부(120), 영상 분류부(130), 및 품질 판단부(140)를 포함한다. 데이터베이스(110)는 의료영상의 특성 및 의료영상에 포함된 잡음(artifacts)의 특성에 관한 정보를 포함한다. 상기 의료영상은 CT(Computed Tomography), MRI(Magnetic Resonance Imaging) 등의 영상일 수 있고, 복수의 2D 영상 또는 3D 영상일 수 있다.Referring to FIG. 1, the medical image management system 100 according to an exemplary embodiment of the present invention includes a database 110, an image receiving unit 120, an image classifying unit 130, and a quality determining unit 140. . The database 110 includes information about the characteristics of the medical image and the characteristics of artifacts included in the medical image. The medical image may be an image such as CT (Computed Tomography), MRI (Magnetic Resonance Imaging), or a plurality of 2D images or 3D images.
상기 의료영상의 특성에 관한 정보는 예컨대 해당 의료영상이 CT 영상인 MRI 영상인지와 같은 영상이 획득된 방법에 관한 정보와 해당 의료영상이 획득된 상황이나 조건에 관한 정보를 포함할 수 있다.The information about the characteristics of the medical image may include information about a method of obtaining an image such as whether the medical image is an MRI image, which is a CT image, and information about a situation or condition in which the medical image is obtained.
한편, 데이터베이스(110)에 저장되는 상기 의료영상의 특성에 관한 정보는 복수의 의료영상에 대한 촬영 기법에 따른 밝기 대조도를 학습한 결과를 포함할 수 있는데, 상기 밝기 대조도를 기준으로 의료영상의 종류가 판단될 수 있다.On the other hand, the information on the characteristics of the medical image stored in the database 110 may include a result of learning the brightness contrast according to the imaging technique for a plurality of medical images, the medical image based on the brightness contrast The type of can be determined.
일 실시예에서 상기 밝기 대조도를 학습하는 것은 상기 복수의 의료영상에서 정상 영역들의 밝기 대조도를 학습하는 것일 수 있다. 상기 정상 영역은 질병이나 이상이 존재하지 않는 영역을 의미하며, 정상 영역들의 밝기 대조도를 학습함으로써 의료영상의 종류를 판단하기에 충분하고 적합한 정보를 얻을 수 있다.In one embodiment, the learning of the brightness contrast may be learning the brightness contrast of the normal areas in the plurality of medical images. The normal area means an area where no disease or abnormality exists, and sufficient information suitable for determining the type of medical image may be obtained by learning brightness contrast of the normal areas.
상기 밝기 대조도는 혈액, 뼈, 지방, 부종 등에 대한 영상 종류별 밝기의 차이를 의미하며, 의료영상에 포함된 상기 혈액, 뼈, 지방, 부종 등이 어떤 밝기로 표시되는지를 판단함으로써 의료영상의 종류가 판단될 수 있다.The brightness contrast degree means a difference in brightness for each image type for blood, bone, fat, and edema, and the type of medical image is determined by determining the brightness of the blood, bone, fat, and edema included in the medical image. Can be determined.
상기 잡음(artifacts)은 의료영상에 포함될 수 있는 노이즈(noise)를 의미하며, 의료영상에 잡음이 존재하는 경우에는 의료영상을 통한 진단이 정확하게 이루어지지 않을 수 있으므로 잡음이 포함된 의료영상은 사용되지 않을 수 있다. 따라서, 상기 잡음의 특성에 관한 정보는 의료영상의 품질을 판단하기 위한 중요한 지표가 될 수 있고 데이터베이스(110)는 의료영상에 잡음이 포함되어 있는지 여부 및 잡음의 특성을 학습한 결과를 포함할 수 있다.The artifacts refer to noise that may be included in the medical image. If the noise exists in the medical image, the diagnosis may not be accurately made through the medical image, and thus the medical image including the noise may not be used. You may not. Therefore, the information about the characteristics of the noise may be an important indicator for determining the quality of the medical image, and the database 110 may include a result of learning whether the noise is included in the medical image and the characteristics of the noise. have.
영상 수신부(120)는 의료영상을 수신하며, 상기 의료영상에 대해서 데이터베이스(110)에 저장된 정보를 바탕으로 종류와 품질이 판단될 수 있다. 영상 수신부(120)는 데이터베이스(110)로부터 상기 의료영상을 수신하거나 사용자로부터 직접 상기 의료영상을 수신할 수 있다.The image receiver 120 receives the medical image, and the type and quality may be determined based on the information stored in the database 110 for the medical image. The image receiver 120 may receive the medical image from the database 110 or may directly receive the medical image from a user.
일반적으로 의료영상이 획득되면 의사에게 제공되기 이전 단계에서 그 종류와 품질을 판단하는 것이 바람직할 수 있으므로 의료영상기기에 의해 의료영상이 생성되면 그 즉시 데이터베이스(110)에 저장될 수 있다. 데이터베이스(110)에 저장된 의료영상은 자동으로 영상 수신부(120)에 제공되거나, 사용자에 의한 영상 수신부(120)의 요청에 대응하여 영상 수신부(120)에 제공될 수 있다.In general, when the medical image is acquired, it may be desirable to determine the type and quality of the medical image before the medical image is acquired. Therefore, when the medical image is generated by the medical imaging apparatus, the medical image may be immediately stored in the database 110. The medical image stored in the database 110 may be automatically provided to the image receiving unit 120 or may be provided to the image receiving unit 120 in response to a request of the image receiving unit 120 by a user.
영상 수신부(120)에 제공된 의료영상은 영상 분류부(130)와 품질 판단부(140)에 제공되며 의료영상에 대한 영상 분류부(130)와 품질 판단부(140)의 동작은 실시간으로 수행되거나 순차적으로 수행될 수 있다. 일 실시예에서 영상 분류부(130)에 의한 동작이 먼저 수행되거나 품질 판단부(140)의 동작이 먼저 수행될 수 있으며, 본 발명에 따른 동작은 특정한 순서로 제한되지 않는다.The medical image provided to the image receiving unit 120 is provided to the image classifying unit 130 and the quality determining unit 140, the operation of the image classifying unit 130 and the quality determining unit 140 for the medical image is performed in real time or It may be performed sequentially. In an embodiment, an operation by the image classifying unit 130 may be performed first or an operation of the quality determining unit 140 may be performed first, and the operation according to the present invention is not limited to a specific order.
영상 분류부(130)는 데이터베이스(110)에 저장된 상기 의료영상의 특성에 관한 정보를 이용하여 상기 의료영상의 종류를 판단한다. 영상 분류부(130)에 의한 의료영상 종류 판단이 수행되면 해당 의료영상이 CT 영상인지 MRI 영상인지 여부가 판단되고, MRI 영상인 경우 에는 T1 영상인지 T2 영상인지 여부가 판단될 수 있다.The image classification unit 130 determines the type of the medical image by using information about the characteristics of the medical image stored in the database 110. When determining the type of medical image by the image classifying unit 130, it may be determined whether the corresponding medical image is a CT image or an MRI image, and if the MRI image is a T1 image or a T2 image.
앞서 설명한 바와 같이, 영상의 촬영 기법에 따라 영상 대조도의 차이가 발생하며, 데이터베이스(110)는 이러한 차이를 학습한 결과를 저장하고 있으므로 영상 분류부(130)는 상기 학습 결과를 이용하여 해당 의료영상의 종류를 판단할 수 있다.As described above, a difference in image contrast occurs according to an image capturing technique, and since the database 110 stores the result of learning the difference, the image classifying unit 130 uses the corresponding learning result to perform the corresponding medical treatment. The type of image can be determined.
MRI T1 영상은 T1 강조 영상을 의미하며 MRI T1 영상에서는 물이 검은색, 지방은 흰색으로 보이고, MRI T2 영상에서는 물이 흰색, 지방이 검은색으로 보이게 된다. 한편, CT 영상에서는 뼈가 흰색으로 보이고 물은 검은색으로 보이게 된다.MRI T1 image means T1-weighted image. Water is black and fat is white on MRI T1 image, water is white and fat is black on MRI T2 image. On the other hand, in the CT image, bones appear white and water appears black.
영상 분류부(130)는 영상 수신부(120)로부터 제공되는 의료영상이 어느 부위를 촬영한 영상인지 여부를 고려하여, 상기 의료영상에 포함된 부위가 어느 정도의 밝기로 보이는지를 기준으로 상기 의료영상의 종류를 판단할 수 있다.The image classifying unit 130 considers which part of the medical image provided from the image receiving unit 120 is an image taken by the image, and on the basis of how much brightness of the part included in the medical image is viewed as a reference. The type of can be judged.
한편, 데이터베이스(110)는 의료영상에 포함된 헤더 정보(Header Information)를 학습한 결과를 더 저장할 수 있는데, 상기 헤더 정보는 환자의 개인 정보, 의료 정보 등을 포함할 수 있고, 상기 의료영상이 CT 영상인지 MRI 영상인지에 관한 정보를 포함할 수도 있다. 또한, 상기 헤더 정보는 상기 의료영상에 포함된 부위 내지는 장기에 관한 정보를 포함할 수 있다.Meanwhile, the database 110 may further store a result of learning the header information included in the medical image. The header information may include personal information of the patient, medical information, and the like. It may also include information on whether the CT image or MRI image. In addition, the header information may include information about a part or an organ included in the medical image.
품질 판단부(140)는 데이터베이스(110)에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 상기 의료영상의 품질을 판단한다.The quality determining unit 140 determines the quality of the medical image by using information about the characteristic of the noise stored in the database 110.
품질 판단을 통해 해당 의료영상이 진단 및/또는 처방에 활용되기에 적합한지 여부가 결정될 수 있고, 의료영상의 품질이 일정 기준을 충족하지 못하는 경우에는 해당 의료영상을 사용하지 않도록 결정할 수 있다.The quality judgment may determine whether the medical image is suitable for use in diagnosis and / or prescription. If the quality of the medical image does not meet a predetermined standard, the medical image may be determined not to be used.
품질 판단부(140)는 데이터베이스(110)에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 영상 수신부(120)로부터 제공된 의료영상에 잡음(artifacts)이 존재하는지 여부 및 상기 의료영상에 존재하는 잡음의 정도를 고려하여 상기 의료영상의 품질을 판단할 수 있다.The quality determining unit 140 uses information about the characteristics of the noise stored in the database 110 to determine whether artifacts are present in the medical image provided from the image receiving unit 120 and the noise of the noise present in the medical image. The quality of the medical image may be determined in consideration of the degree.
한편, 앞서 설명한 바와 같이 상기 의료영상은 영상 수신부(120)로부터 영상 분류부(130) 및 품질 판단부(140)에 동시에 제공될 수 있고, 영상 분류부(130) 및 품질 판단부(140)에 의한 동작이 동시에 수행될 수 있으나, 진단 및/또는 처방에 활용 되기에 적합하지 않은 품질을 가진 의료영상에 대해서는 그 종류를 판단하는 과정이 불필요할 수 있으므로, 사용자의 선택에 따라서는 품질 판단부(140)에 의한 품질 판단 동작을 먼저 수행한 이후에 일정 수준 이상의 품질을 만족하는 의료영상에 한하여 영상 분류부(130)에 제공하여 종류가 판단되도록 할 수 있다.Meanwhile, as described above, the medical image may be simultaneously provided to the image classifying unit 130 and the quality determining unit 140 from the image receiving unit 120 and provided to the image classifying unit 130 and the quality determining unit 140. May be performed simultaneously, but the process of determining the type may not be necessary for the medical image having a quality that is not suitable for use in diagnosis and / or prescription. After performing the quality determination operation by the first step 140, only the medical image that satisfies the quality of a predetermined level or more may be provided to the image classification unit 130 to determine the type.
다만, 이러한 동작은 사용자의 선택에 의해 이루어지는 것으로 종류를 판단하고 품질을 판단하는 과정이 특정한 순서로 제한되는 것은 아니다.However, the operation is performed by the user's selection, and the process of determining the type and determining the quality is not limited to a specific order.
도 2 및 도 3은 촬영기법 차이에 따른 의료영상의 대조도 차이를 예시적으로 나타내는 도면이다.2 and 3 are views illustrating differences in contrast of medical images according to differences in imaging techniques.
도 2는 뇌의 수평단면을 촬영한 MRI 영상을 예시적으로 나타낸다. 도 2(a)와 도 2(b)는 각각 질환이 발생한 뇌와 정상적인 뇌를 나타내며, 서로 다른 방법으로 촬영된 MRI 영상을 나타낸다.2 exemplarily shows an MRI image of a horizontal cross section of the brain. 2 (a) and 2 (b) respectively show a brain in which a disease occurs and a normal brain, and show MRI images photographed by different methods.
도 2(a)와 도 2(b)의 왼쪽 영상은 MRI T1 영상이다. MRI T1 영상에서는 뇌척수액(Colony-Stimulating Factor, CSF)이 검은색으로 보여지는데, 도 2(a)의 왼쪽 영상을 참조하면 뇌실에 존재하는 뇌척수액이 검은색으로 보여지는 것을 확인할 수 있다. 이와 반대로 도 2(a)의 오른쪽 영상에서는 뇌척수액이 흰색으로 보여지는데, 이 영상은 MRI T2 영상이다.2 (a) and 2 (b) are left MRI T1 images. In the MRI T1 image, the cerebrospinal fluid (Colony-Stimulating Factor, CSF) is shown in black. Referring to the left image of FIG. 2 (a), it can be seen that the cerebrospinal fluid in the ventricles is shown in black. In contrast, cerebrospinal fluid is shown in white in the right image of FIG. 2 (a), which is an MRI T2 image.
도 2(b)에서도 뇌척수액이 표시되는 밝기 대조도를 고려하여 MRI T1 영상과 MRI T2 영상을 구분할 수 있다.In FIG. 2 (b), the MRI T1 image and the MRI T2 image may be distinguished in consideration of the brightness contrast of the cerebrospinal fluid.
한편, 도 1을 참조로 하여 설명한 바와 같이, 데이터베이스(110)는 헤더 정보를 더 포함할 수 있고 상기 헤더 정보는 해당 의료영상에 포함되는 부위 내지는 장기에 관한 정보를 포함할 수 있다. 영상 분류부(130)는 상기 헤더 정보를 통해 해당 의료영상이 어느 부위를 촬영한 것인지를 판단하고, 해당 의료영상의 밝기 대조도를 통해 그 종류를 판단할 수 있다.Meanwhile, as described with reference to FIG. 1, the database 110 may further include header information, and the header information may include information about a part or an organ included in a corresponding medical image. The image classifying unit 130 may determine which part of the medical image is photographed based on the header information, and determine the type of the medical image through the brightness contrast of the medical image.
또한, 도 2에 도시되는 뇌 영상의 경우 해당 의료영상이 뇌를 촬영한 영상인 점이 상기 헤더 정보에 포함되어 있다고 하더라도 상기 의료영상의 어느 픽셀을 밝기 대조도를 판단해야 하는지가 중요한 요소가 될 수 있다. 예를 들어, 뇌척수액의 밝기 대조도를 판단하기 위해서는 뇌실에 대응하는 픽셀의 밝기 대조도를 판단해야 한다.Also, in the case of the brain image shown in FIG. 2, even if the corresponding medical image is an image of the brain, the header information may determine which pixel of the medical image should be used to determine the brightness contrast. have. For example, in order to determine the brightness contrast of the cerebrospinal fluid, it is necessary to determine the brightness contrast of the pixels corresponding to the ventricles.
따라서, 영상 분류부(130)는 뇌의 형태에 관한 정보를 포함할 수 있고, 다른 부위 내지는 장기의 형태에 관한 정보를 포함할 수 있다. 상기 부위 내지는 장기의 형태에 관한 정보는 기계 학습(Machine Learning)을 통해 얻어질 수 있다.Therefore, the image classifying unit 130 may include information about the shape of the brain, and may include information about the shape of other parts or organs. Information about the shape of the site or organ may be obtained through machine learning.
도 3은 의료영상 종류별 밝기 대조도의 특성을 나타낸다. CT Scan 영상의 경우를 참조하면, 뇌척수액(CSF)은 가장 어둡게 보여지고 뼈(Bone)는 가장 밝게 보여진다. 또한, 혈액(Blood)은 뼈보다 어둡게 보여진다.3 illustrates the characteristics of brightness contrast for each medical image type. Referring to the CT scan image, the cerebrospinal fluid (CSF) is the darkest and the bones are the brightest. Blood also appears darker than bones.
MRI T1 영상에서는 도 1을 참조로 하여 설명한 바와 같이 물은 가장 어둡게 보여지고 지방은 가장 밝게 보여진다. 도 3에 도시되는 바와 같이, 촬영 기법에 따라 동일한 물질이라도 서로 다른 밝기로 보여지게 되므로, 촬영 기법에 따른 밝기 대조도 학습을 통해 의료영상의 종류를 판단할 수 있다.In the MRI T1 image, water is darkest and fat is lightest, as described with reference to FIG. 1. As shown in FIG. 3, even the same material is shown at different brightnesses according to the imaging technique, and thus, the type of medical image may be determined through learning the brightness contrast according to the imaging technique.
도 4는 의료영상에 존재하는 잡음(artifact)을 예시적으로 나타내는 도면이다.4 is a diagram exemplarily illustrating an artifact existing in a medical image.
의료영상의 잡음은 환자에 의해 발생하는 경우와 화학물질의 이동(Chemical Shift) 또는 RF 신호에 의해 artifact가 발생하는 경우로 구분할 수 있다. 환자에 의해 발생하는 잡음은, 환자의 호흡에 의한 정기적인 움직임, 촬영 도중 환자의 움직임 또는 환자의 특정한 자세에 의해 MRI에서 발생할 수 있다.Noise in medical images can be classified into cases generated by a patient and artifacts caused by chemical shifts or RF signals. Noise generated by the patient may be generated in the MRI by regular movement by the patient's breathing, movement of the patient during imaging or specific posture of the patient.
도 4(a)와 도 4(b)를 참조하면, 영상에 각각 물결 형태의 잡음과 블러(blur) 형태의 잡음이 발생하였음을 알 수 있다. 도 4에 도시되는 바와 같이 의료영상에 잡음이 발생하면 영상 진단에 치명적으로 작용하여 정확한 진단에 방해가 된다.4 (a) and 4 (b), it can be seen that the noise in the wave form and the noise in the blur form occur in the image, respectively. As shown in FIG. 4, when noise occurs in a medical image, the image is fatally acted on to diagnose the image and thus interfere with accurate diagnosis.
따라서, 의료영상이 획득되면 의료진에 의해 육안으로 의료영상의 품질을 검토하는 과정을 거치게 되는데, 의료진의 숙련도 등에 의해 정확한 품질 판단이 이루어지지 않을 수 있고 상당한 시간이 소요될 수 있다.Therefore, when a medical image is acquired, the medical staff undergoes a process of examining the quality of the medical image with the naked eye. However, accurate quality judgment may not be made due to the skill of the medical staff and may take a considerable time.
데이터베이스(110)에 저장되는 잡음의 특성에 관한 정보는 도 4에 도시되는 바와 같은 잡음의 형태나 픽셀 데이터의 특성에 관한 정보로 이루어질 수 있고, 품질 판단부(140)는 상기 잡음의 특성에 관한 정보를 이용하여 의료영상에 잡음이 존재하는지 여부를 판단하고, 그 정도에 따라서 의료영상의 품질을 판단할 수 있다.Information on the characteristics of the noise stored in the database 110 may be made of information about the shape of the noise or the characteristics of the pixel data as shown in Figure 4, the quality determination unit 140 relates to the characteristics of the noise The information may be used to determine whether noise exists in the medical image, and the quality of the medical image may be determined according to the degree.
이를 통해 정확한 진단이 이루어질 수 있는 의료영상을 선별하고 저품질의 의료영상에 대해서는 재촬영 등의 조치를 취하도록 할 수 있으며, 또한 이러한 과정을 빠른 시간안에 처리하는 효과를 기대할 수 있다.Through this, it is possible to select a medical image that can be accurately diagnosed, and to take a retake, etc. for a low-quality medical image, and also to expect the effect of processing this process in a short time.
도 5는 본 발명의 다른 실시예에 따른 의료영상 관리 시스템의 구성을 개략적으로 나타내는 도면이다.5 is a view schematically showing the configuration of a medical image management system according to another embodiment of the present invention.
도 5를 참조하면, 본 발명의 다른 실시예에 따른 의료영상 관리 시스템(200)은 데이터베이스(210), 영상 수신부(220), 영상 분류부(230), 품질 판단부(240), 안면 영역 분리부(250), 요청 수신부(260), 및 비식별화부(270)를 포함한다. 데이터베이스(210), 영상 수신부(220), 영상 분류부(230), 및 품질 판단부(240)는 도 1을 참조로 하여 설명한 데이터베이스(110), 영상 수신부(120), 영상 분류부(130), 및 품질 판단부(140)와 실질적으로 동일한 기능을 수행하므로 중복되는 내용에 한하여 구체적인 설명은 생략하도록 한다.Referring to FIG. 5, the medical image management system 200 according to another exemplary embodiment of the present invention may include a database 210, an image receiver 220, an image classifier 230, a quality determiner 240, and a face region separation. The unit 250 includes a request receiving unit 260 and a de-identifying unit 270. The database 210, the image receiver 220, the image classifier 230, and the quality determiner 240 may include the database 110, the image receiver 120, and the image classifier 130 described with reference to FIG. 1. , And performs substantially the same function as the quality determination unit 140, so that detailed description thereof will be omitted only for the overlapping contents.
안면 영역 분리부(250)는 상기 영상 수신부(220)로부터 의료영상을 제공 받고, 상기 의료영상에서 안면 영역을 분리한다. 도 5에 도시되는 의료영상 관리 시스템(200)은 환자의 의료 영상이 연구 등의 목적으로 외부에 제공되는 경우, 상기 환자의 개인 정보가 불필요하게 공개되는 문제를 해결하기 위해서 상기 의료 영상으로부터 획득될 수 있는 개인 정보를 제거하는 것을 목적으로 한다.The face area separator 250 receives a medical image from the image receiver 220 and separates a face area from the medical image. The medical image management system 200 illustrated in FIG. 5 may be obtained from the medical image to solve a problem in which the personal information of the patient is unnecessarily disclosed when the medical image of the patient is provided to the outside for research and the like. It is intended to remove personal information that may be.
따라서, 영상 수신부(220)가 제공하는 상기 의료영상은 상기 환자의 안면 영역을 식별할 수 있는 영상으로, 상기 환자의 눈, 코, 입 등 얼굴의 형태가 개인을 특정할 수 있을 정도인 영상으로 이해할 수 있다.Therefore, the medical image provided by the image receiving unit 220 is an image for identifying the facial region of the patient, and is an image in which the shape of the face of the patient's eyes, nose, mouth, etc. can be specified. I can understand.
안면 영역 분리부(250)는 상기 의료영상에서 환자의 안면 영역을 분리한다. 상기 안면 영역은 해당 환자의 눈, 코, 입, 귀 등을 포함하는 얼굴 영역으로 이해할 수 있다. 상기 의료영상으로부터 상기 안면 영역을 분리하기 위해 안면 영역 분리부(250)는 사람의 눈, 코, 입, 귀 등에 대한 기계 학습 결과를 이용할 수 있다. 예를 들어, 안면 영역 분리부(250)는 복수의 환자에 대한 머리 부분의 CT 또는 MRI 영상으로부터 눈, 코, 입 등의 위치를 판단하는 학습을 통해 새롭게 입력되는 의료영상에서 눈, 코, 입의 위치를 판단할 수 있다.The facial region separator 250 separates the facial region of the patient from the medical image. The facial region may be understood as a facial region including the eyes, nose, mouth, and ears of the patient. In order to separate the face region from the medical image, the face region separator 250 may use a machine learning result of a human eye, nose, mouth, ear, and the like. For example, the facial region separator 250 may be a new eye, nose, or mouth in a newly input medical image through learning to determine positions of eyes, nose, and mouth from CT or MRI images of a head of a plurality of patients. It is possible to determine the position of.
이 때, 상기 기계 학습의 대상은 2D 영상이거나 3D 영상일 수 있는데, 상기 의료영상이 2D 영상인 경우 여러 장의 2D 영상에서 눈, 코, 입, 귀의 위치를 학습할 수 있다. 또는, 상기 의료영상이 3D 영상인 경우에는 환자의 눈, 코, 입, 귀를 포함하는 안면 영역을 판단하는 학습이 수행될 수 있다.In this case, the object of the machine learning may be a 2D image or a 3D image. When the medical image is a 2D image, the positions of the eyes, the nose, the mouth, and the ear may be learned from a plurality of 2D images. Alternatively, when the medical image is a 3D image, learning may be performed to determine a facial area including an eye, a nose, a mouth, and an ear of a patient.
따라서, 2D 영상을 학습하고, 해당 학습 결과를 활용하는 경우에는 눈, 코, 입, 귀를 포함하는 복수의 이미지가 안면 영역 분리부(250)에 의해 선별될 수 있다.Therefore, when learning a 2D image and utilizing the corresponding learning result, a plurality of images including an eye, a nose, a mouth, and an ear may be selected by the face region separator 250.
상기 의료영상은 환자의 신체 부위를 촬영한 이미지뿐만 아니라 상기 환자의 개인 정보를 나타내는 텍스트 정보를 더 포함할 수 있다. 예컨대, 상기 의료영상은 해당 환자의 이름, 연락처, 진단명 등의 정보를 텍스트 형태로 포함할 수 있다.The medical image may further include text information indicating personal information of the patient as well as an image of a body part of the patient. For example, the medical image may include information such as the name, contact information, diagnosis name, etc. of the patient in a text form.
요청 수신부(260)는 클라이언트로부터 상기 안면 영역에 포함되는 눈, 코, 입 중 적어도 어느 하나에 대한 자료 제공 요청을 수신한다. 의료영상은 연구 등의 목적으로 활용될 수 있는데 상기 클라이언트는 상기 의료영상을 활용하기를 원하는 사람, 기관 또는 또 다른 시스템일 수 있다.The request receiving unit 260 receives a data providing request for at least one of an eye, a nose, and a mouth included in the face area from a client. The medical image may be used for research and the like, and the client may be a person, an institution, or another system that wants to use the medical image.
연구의 목적은 다양하고 연구의 대상이 되는 신체 부위도 다양할 수 있는데 상기 클라이언트는 눈, 코, 입 중 적어도 한 부위에 대한 의료영상을 요청할 수 있다. 이 때, 환자의 의료영상에 대한 별도의 처리 없이 그대로 제공하는 경우, 3D 의료 영상을 통해 환자가 식별 가능하고, 2D 의료영상을 제공하더라도 이를 조합하여 3D 영상을 생성할 수 있으므로 환자 정보가 노출될 수 있다.The purpose of the study may vary and the body parts of the study may vary. The client may request a medical image of at least one of eyes, nose and mouth. In this case, if the medical image of the patient is provided without additional processing, the patient may be identified through the 3D medical image, and even if the 2D medical image is provided, the 3D image may be generated by combining the patient information. Can be.
비식별화부(270)는 의도하지 않은 환자 정보가 노출되는 것을 방지하기 위해서 상기 클라이언트가 요청한 부위를 제외한 나머지 안면 영역에 대하여 비식별화를 수행한다.The de-identification unit 270 performs de-identification on the remaining facial areas except for the area requested by the client in order to prevent the unintended patient information from being exposed.
예를 들어, 상기 클라이언트가 환자의 코에 대한 자료 요청을 한 경우, 비식별화부(140)는 코를 제외한 눈, 입, 귀 등에 대하여 비식별화를 수행한다. 상기 비식별화는 비가역적(irreversible) 변환으로 상기 클라이언트가 코에 대한 비식별화가 수행된 의료 영상을 제공 받으면 해당 의료 영상으로부터 상기 환자의 코를 복원하기 불가능하다.For example, when the client requests a data for the nose of the patient, the de-identification unit 140 performs de-identification on eyes, mouths, ears, etc. except the nose. The de-identification is an irreversible transformation and when the client is provided with a medical image on which the nose has been de-identified, it is impossible to restore the patient's nose from the medical image.
비식별화부(270)는 상기 의료영상을 2D 영상으로 변환하여 코를 포함하는 복수의 이미지에 대하여 비식별화(De-Identification)를 수행할 수 있고, 3D 의료영상에서 직접 코 영역에 대한 비식별화를 수행할 수 있다. 한편, 비식별화부(270)는 3D 의료영상에 대한 비식별화를 수행한 이후, 해당 의료영상을 복수의 2D 이미지로 변환할 수 있다. 즉, 상기 클라이언트에게 제공되는 의료영상은 2D 형태인 것으로 이해할 수 있다.The de-identifier 270 may perform de-identification on a plurality of images including the nose by converting the medical image into a 2D image, and de-identifying the nose area directly in the 3D medical image. You can carry out anger. Meanwhile, the de-identifier 270 may convert the medical image into a plurality of 2D images after de-identifying the 3D medical image. That is, the medical image provided to the client may be understood as having a 2D form.
상기 비식별화는 대상 부위에 대한 마스킹(masking) 또는 블러링(blurring)일 수 있는데, 예컨대 비식별화 대상 부위에 대응하는 데이터를 모두 '0'으로 마스킹하거나, 상기 대상 부위를 흐리게 하는 이미지 처리일 수 있다. 또 다른 예로써, 상기 대상 부위에 대해 모자이크(mosaic)를 씌우는 작업이 수행될 수 있다.The de-identification may be masking or blurring of a target site, for example, an image processing that masks all data corresponding to the non-identifying target site to '0' or blurs the target site. Can be. As another example, a mosaicing operation may be performed on the target site.
한편, 본 발명의 다른 실시예에서, 비식별화부(270)는 상기 의료영상에 포함되는 개인 식별 텍스트를 제거하거나 다른 텍스트로 대체할 수 있다. 앞서 설명한 바와 같이, 환자의 개인 정보에 해당하는 데이터는 본 발명에 의한 비식별화 대상으로 볼 수 있는데, 상기 개인 식별 텍스트는 환자의 개인 정보로 볼 수 있다.Meanwhile, in another embodiment of the present invention, the non-identifying unit 270 may remove or replace the personal identification text included in the medical image with another text. As described above, the data corresponding to the personal information of the patient can be viewed as a non-identification target according to the present invention, and the personal identification text can be viewed as the personal information of the patient.
따라서, 비식별화부(270)는 상기 의료영상에 해당 환자 개인을 특정할 수 있는 텍스트가 포함되어 있는 경우, 이를 다른 삭제하거나 다른 텍스트로 대체하는 방법을 통해 비식별화를 수행할 수 있다.Accordingly, when the medical image includes text for identifying the patient individual in the medical image, the de-identification unit 270 may perform de-identification by deleting or replacing the text with another text.
도 6은 의료 영상 비식별화의 결과를 예시적으로 나타내는 도면이다.6 is a diagram exemplarily illustrating a result of medical image de-identification.
도 6을 참조하면, 도 6(a)부터 도 6(c)까지 순차적으로 비식별화가 수행되지 않은 의료영상부터 안면 영역 전체에 대해 비식별화가 수행된 의료영상이 도시된다. 도 6에 도시되는 의료영상은 3D 영상이지만, 비식별화는 3D 의료영상에 대해 직접 수행될 수도 있고 비식별화가 수행된 2D 영상으로부터 도 6의 3D 영상이 얻어질 수도 있다.Referring to FIG. 6, a medical image in which de-identification is performed on the entire facial region from a medical image in which de-identification is not performed sequentially from FIGS. 6 (a) to 6 (c) is illustrated. Although the medical image shown in FIG. 6 is a 3D image, the de-identification may be performed directly on the 3D medical image or the 3D image of FIG. 6 may be obtained from the 2D image on which the non-identification has been performed.
도 6(a)를 참조하면, 환자의 눈, 코, 입이 개인을 특정할 수 있을 정도로 표현되어 있음을 알 수 있다. 그리고, 도 6(b)는 환자의 눈과 입에 대해 비식별화가 수행되어 개인을 특정할 수 없음을 알 수 있다. 도 5를 참조로 하여 설명한 바와 같이, 요청 수신부(260)는 클라이언트로부터 특정 부위에 대한 자료 제공 요청을 수신하는데, 도 6(b)를 참조하면, 클라이언트로부터 코에 대한 자료 제공 요청을 수신한 것으로 이해할 수 있다.Referring to Figure 6 (a), it can be seen that the eyes, nose, mouth of the patient is represented to the extent that the individual can be specified. And, it can be seen that Figure 6 (b) can not identify the individual by performing de-identification for the eyes and mouth of the patient. As described with reference to FIG. 5, the request receiving unit 260 receives a request for providing a data for a specific part from a client. Referring to FIG. 6 (b), the request receiving unit 260 receives a request for providing a data for a nose from a client. I can understand.
한편, 도 6(c)는 환자의 눈, 코, 입 모두에 대해 비식별화가 수행된 것으로 이해할 수 있는데, 상기 클라이언트가 눈, 코, 입에 대한 자료 요청을 하지 않은 것으로 이해할 수 있다. 다만, 도 6(c)에 도시되는 바와 같이 환자의 눈, 코, 입 모두에 대해 비식별화가 수행되더라도 뇌, 혈관을 비롯한 피하 영역에 대해서는 이미지 손상이 발생하지 않으므로 상기 비식별화로 인해 환자 개인을 특정할 수 없을 뿐 필요한 정보를 사용하는데에는 문제가 발생하지 않는다.On the other hand, Figure 6 (c) can be understood that the de-identification was performed for all eyes, nose, mouth of the patient, it can be understood that the client did not request data for the eyes, nose, mouth. However, as shown in FIG. 6 (c), even if de-identification is performed on all eyes, noses, and mouths of the patient, image damage does not occur in subcutaneous areas including the brain and blood vessels. It cannot be specified and there is no problem with using the necessary information.
또한, 클라이언트의 요청에 따라 비식별화가 수행된 의료영상은 도 6에 도시되는 것처럼 3D 영상일 수 있으나, 상기 클라이언트에게 제공되는 정보는 도 3에 도시되는 것과 같은 2D 영상일 수 있다. 따라서, 상기 클라이언트는 제공되는 2D 영상을 필요한 목적에 맞게 활용할 수는 있되, 상기 2D 영상을 활용하여 3D 영상을 생성하더라도 환자 개인을 특정할 수 있을 정도의 정보는 얻을 수 없게 된다.In addition, the medical image that has been de-identified according to the client's request may be a 3D image as shown in FIG. 6, but the information provided to the client may be a 2D image as shown in FIG. 3. Therefore, the client may utilize the provided 2D image according to the necessary purpose, but even if the 3D image is generated by using the 2D image, the client cannot obtain information enough to identify the individual patient.
도 7은 비식별화 방법의 일 실시예를 개략적으로 나타내는 도면이다.7 is a diagram schematically illustrating an embodiment of a de-identification method.
도 5를 참조로 하여 설명한 바와 같이, 비식별화부(270)는 의료 영상에 대하여 비식별화를 수행할 수 있고, 상기 비식별화는 비식별화 대상 부위에 대한 마스킹(masking) 또는 블러링(blurring) 등일 수 있다. As described with reference to FIG. 5, the de-identification unit 270 may perform de-identification on the medical image, and the de-identification may be performed by masking or blurring the de-identification target site. blurring).
도 7은 컨벌루션 필터(convolution filter)를 이용하는 비식별화 방법을 예시적으로 나타내며, Source pixel은 비식별화 대상 이미지에 해당하고 Convolution Kernel은 상기 Source pixel에 적용되는 매트릭스에 대응한다.7 exemplarily illustrates a non-identification method using a convolution filter, where a source pixel corresponds to a non-identification target image and a convolution kernel corresponds to a matrix applied to the source pixel.
상기 Source pixel과 상기 Convolution Kernel의 중앙 element는 서로 곱해지고, 이렇게 계산된 결과, 그리고 상기 Source pixel의 주변 element 및 상기 Convolution Kernel의 대응하는 위치의 element 들의 곱의 합이 New pixel value로 결정될 수 있다.The source pixel and the central element of the convolution kernel are multiplied with each other, and as a result of the calculation, the sum of the product of the peripheral element of the source pixel and the elements of the corresponding positions of the convolution kernel may be determined as a new pixel value.
도 7의 예시에서 Source pixel과 Convolution Kernel의 중앙 element의 곱은 0 이지만, 나머지 element 들의 곱의 합이 -8 이므로, New pixel value는 -8 로 결정된다.In the example of FIG. 7, the product of the source pixel and the center element of the convolution kernel is 0, but since the sum of the products of the remaining elements is -8, the new pixel value is determined to be -8.
한편, 상기 Source pixel과 상기 Convolution Kernel에 대응하는 매트릭스의 크기는 다양하게 결정될 수 있으며, 반드시 도 7에 도시되는 것처럼 3x3로 제한되는 것은 아니다. 마찬가지로, 상기 Convolution Kernel의 각 element의 값(weight)들 또한 도 7에 도시되는 값으로 제한되는 것은 아니므로 Kernel Size와 Kernel Weight를 조절하여 비식별화 정도를 조절할 수 있다.On the other hand, the size of the matrix corresponding to the source pixel and the convolution kernel can be variously determined, and is not necessarily limited to 3x3 as shown in FIG. Similarly, the weights of the elements of the convolution kernel are not limited to the values shown in FIG. 7, and thus the degree of de-identification can be controlled by adjusting the kernel size and the kernel weight.
본 발명에 따른 비식별화 과정에서 비식별화 대상 픽셀에 대해 상기한 바와 같은 Convolution이 수행되면, 정사각행렬이 적용될 수 없는 경계 영역에 대해서는 모든 값을 0으로 지정하거나 주변에 지정된 값을 복제하여 지정하는 방법이 적용될 수 있다.In the de-identification process according to the present invention, when the convolution as described above is performed on the non-identification target pixel, all values are designated as 0 for the boundary region to which the square matrix cannot be applied or designated by duplicating the values assigned to the surroundings. The method may be applied.
이렇게 Kernel Convolution이 적용되면 비가역적 비식별화가 이루어진 것으로 판단할 수 있다. 비식별화가 이루어진 이미지는 물체의 대략적인 형태만 추정 가능하며, 원래의 데이터로 변환하는 것이 불가능하다.If Kernel Convolution is applied, it can be judged that irreversible de-identification has been made. De-identified images can only approximate the approximate shape of the object and cannot be converted to the original data.
한편, 일단의 비가역적 비식별화가 수행된 데이터에 대해 추가적인 비가역성을 확보하기 위해서 Hash mapping 등이 적용될 수 있다. 상기 Hash mapping은 비식별화된 영역의 Voxel의 signal intensity를 기반으로 하여 적용될 수 있다.On the other hand, hash mapping may be applied to secure additional irreversibility for data on which irreversible de-identification has been performed. The hash mapping may be applied based on the signal intensity of Voxel of the unidentified region.
도 8은 본 발명의 일 실시예에 따른 의료영상 관리 방법을 개략적으로 나타내는 순서도이다.8 is a flowchart schematically illustrating a medical image management method according to an exemplary embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시예에 따른 의료영상 관리 방법은, 데이터베이스 구축 단계(S10), 의료영상 수신 단계(S20), 의료영상 종류 판단 단계(S30), 및 의료영상 품질 판단 단계(S40)를 포함한다.Referring to FIG. 8, in the medical image management method according to an embodiment of the present invention, a database construction step (S10), a medical image reception step (S20), a medical image type determination step (S30), and a medical image quality determination step (S40).
데이터베이스 구축 단계(S10)에서는 의료영상의 특성 및 의료영상에 포함된 잡음(artifacts)의 특성에 관한 정보를 포함하는 데이터베이스를 구축한다. 상기 의료영상은 CT(Computed Tomography), MRI(Magnetic Resonance Imaging) 등의 영상일 수 있고, 복수의 2D 영상 또는 3D 영상일 수 있다.In the database construction step (S10), a database including information on characteristics of the medical image and characteristics of artifacts included in the medical image is constructed. The medical image may be an image such as CT (Computed Tomography), MRI (Magnetic Resonance Imaging), or a plurality of 2D images or 3D images.
상기 의료영상의 특성에 관한 정보는 예컨대 해당 의료영상이 CT 영상인 MRI 영상인지와 같은 영상이 획득된 방법에 관한 정보와 해당 의료영상이 획득된 상황이나 조건에 관한 정보를 포함할 수 있다.The information about the characteristics of the medical image may include information about a method of obtaining an image such as whether the medical image is an MRI image, which is a CT image, and information about a situation or condition in which the medical image is obtained.
한편, 상기 데이터베이스에 저장되는 상기 의료영상의 특성에 관한 정보는 복수의 의료영상에 대한 촬영 기법에 따른 밝기 대조도를 학습한 결과를 포함할 수 있는데, 상기 밝기 대조도를 기준으로 의료영상의 종류가 판단될 수 있다.Meanwhile, the information about the characteristics of the medical image stored in the database may include a result of learning brightness contrast according to a photographing technique for a plurality of medical images, the type of medical image based on the brightness contrast degree. Can be determined.
일 실시예에서 상기 밝기 대조도를 학습하는 것은 상기 복수의 의료영상에서 정상 영역들의 밝기 대조도를 학습하는 것일 수 있다. 상기 정상 영역은 질병이나 이상이 존재하지 않는 영역을 의미하며, 정상 영역들의 밝기 대조도를 학습함으로써 의료영상의 종류를 판단하기에 충분하고 적합한 정보를 얻을 수 있다.In one embodiment, the learning of the brightness contrast may be learning the brightness contrast of the normal areas in the plurality of medical images. The normal area means an area where no disease or abnormality exists, and sufficient information suitable for determining the type of medical image may be obtained by learning brightness contrast of the normal areas.
상기 밝기 대조도는 혈액, 뼈, 지방, 부종 등에 대한 영상 종류별 밝기의 차이를 의미하며, 의료영상에 포함된 상기 혈액, 뼈, 지방, 부종 등이 어떤 밝기로 표시되는지를 판단함으로써 의료영상의 종류가 판단될 수 있다.The brightness contrast degree means a difference in brightness for each image type for blood, bone, fat, and edema, and the type of medical image is determined by determining the brightness of the blood, bone, fat, and edema included in the medical image. Can be determined.
상기 잡음(artifacts)은 의료영상에 포함될 수 있는 노이즈(noise)를 의미하며, 의료영상에 잡음이 존재하는 경우에는 의료영상을 통한 진단이 정확하게 이루어지지 않을 수 있으므로 잡음이 포함된 의료영상은 사용되지 않을 수 있다. 따라서, 상기 잡음의 특성에 관한 정보는 의료영상의 품질을 판단하기 위한 중요한 지표가 될 수 있고 상기 데이터베이스는 의료영상에 잡음이 포함되어 있는지 여부 및 잡음의 특성을 학습한 결과를 포함할 수 있다.The artifacts refer to noise that may be included in the medical image. If the noise exists in the medical image, the diagnosis may not be accurately made through the medical image, and thus the medical image including the noise may not be used. You may not. Therefore, the information about the characteristics of the noise may be an important indicator for determining the quality of the medical image, and the database may include a result of learning whether the noise is included in the medical image and the characteristics of the noise.
의료영상 수신 단계(S20)에서는 의료영상을 수신하며, 상기 의료영상에 대해서 상기 데이터베이스에 저장된 정보를 바탕으로 종류와 품질이 판단될 수 있다. 상기 의료영상 수신 단계(S20)에서는 상기 데이터베이스로부터 상기 의료영상을 수신하거나 사용자로부터 직접 상기 의료영상을 수신할 수 있다.In the medical image receiving step (S20), the medical image is received, and the type and quality of the medical image may be determined based on the information stored in the database. In the medical image receiving step (S20), the medical image may be received from the database or directly from the user.
일반적으로 의료영상이 획득되면 의사에게 제공되기 이전 단계에서 그 종류와 품질을 판단하는 것이 바람직할 수 있으므로 의료영상기기에 의해 의료영상이 생성되면 그 즉시 상기 데이터베이스에 저장될 수 있다. 상기 데이터베이스에 저장된 의료영상은 자동으로 상기 의료영상 수신 단계(S20)에 제공되거나, 사용자에 의한 요청에 대응하여 제공될 수 있다.In general, when a medical image is acquired, it may be desirable to determine the type and quality of the medical image before the medical image is acquired, so that the medical image may be immediately stored in the database when the medical image is generated by the medical imaging apparatus. The medical image stored in the database may be automatically provided to the medical image receiving step S20 or may be provided in response to a request by the user.
의료영상 종류 판단 단계(S30)에서는 상기 데이터베이스에 저장된 상기 의료영상의 특성에 관한 정보를 이용하여 수신된 의료영상의 종류를 판단한다. 상기 의료영상 종류 판단 단계(S30)에서의 의료영상 종류 판단이 수행되면 해당 의료영상이 CT 영상인지 MRI 영상인지 여부가 판단되고, MRI 영상인 경우 에는 T1 영상인지 T2 영상인지 여부가 판단될 수 있다.In the medical image type determination step (S30), the type of the received medical image is determined by using information about the characteristics of the medical image stored in the database. When the medical image type determination in the medical image type determination step (S30) is performed, it may be determined whether the medical image is a CT image or an MRI image, and in the case of an MRI image, whether the medical image type is a T1 image or a T2 image. .
앞서 설명한 바와 같이, 영상의 촬영 기법에 따라 영상 대조도의 차이가 발생하며, 상기 데이터베이스는 이러한 차이를 학습한 결과를 저장하고 있으므로 상기 의료영상 종류 판단 단계(S30)에서는 상기 학습 결과를 이용하여 해당 의료영상의 종류를 판단할 수 있다.As described above, a difference in image contrast occurs according to an image capturing technique, and since the database stores the result of learning the difference, the medical image type determination step (S30) uses the learning result. The type of medical image can be determined.
MRI T1 영상은 T1 강조 영상을 의미하며 MRI T1 영상에서는 물이 검은색, 지방은 흰색으로 보이고, MRI T2 영상에서는 물이 흰색, 지방이 검은색으로 보이게 된다. 한편, CT 영상에서는 뼈가 흰색으로 보이고 물은 검은색으로 보이게 된다.MRI T1 image means T1-weighted image. Water is black and fat is white on MRI T1 image, water is white and fat is black on MRI T2 image. On the other hand, in the CT image, bones appear white and water appears black.
상기 의료영상 종류 판단 단계(S30)에서는 제공되는 의료영상이 어느 부위를 촬영한 영상인지 여부를 고려하여, 상기 의료영상에 포함된 부위가 어느 정도의 밝기로 보이는지를 기준으로 상기 의료영상의 종류를 판단할 수 있다.In the step of determining the type of medical image (S30), the type of the medical image is determined based on the brightness of the part included in the medical image in consideration of which part of the medical image is taken. You can judge.
한편, 상기 데이터베이스는 의료영상에 포함된 헤더 정보(Header Information)를 학습한 결과를 더 저장할 수 있는데, 상기 헤더 정보는 환자의 개인 정보, 의료 정보 등을 포함할 수 있고, 상기 의료영상이 CT 영상인지 MRI 영상인지에 관한 정보를 포함할 수도 있다. 또한, 상기 헤더 정보는 상기 의료영상에 포함된 부위 내지는 장기에 관한 정보를 포함할 수 있다.The database may further store a result of learning header information included in the medical image. The header information may include personal information of the patient, medical information, and the like, and the medical image may be a CT image. It may also include information about whether it is an MRI image. In addition, the header information may include information about a part or an organ included in the medical image.
의료영상 품질 판단 단계(S40)에서는 상기 데이터베이스에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 수신된 의료영상의 품질을 판단한다. 품질 판단을 통해 해당 의료영상이 진단 및/또는 처방에 활용되기에 적합한지 여부가 결정될 수 있고, 의료영상의 품질이 일정 기준을 충족하지 못하는 경우에는 해당 의료영상을 사용하지 않도록 결정할 수 있다.In the medical image quality determining step (S40), the quality of the received medical image is determined by using information about the characteristic of the noise stored in the database. The quality judgment may determine whether the medical image is suitable for use in diagnosis and / or prescription. If the quality of the medical image does not meet a predetermined standard, the medical image may be determined not to be used.
상기 의료영상 품질 판단 단계(S40)에서는 상기 데이터베이스에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 의료영상에 잡음(artifacts)이 존재하는지 여부 및 상기 의료영상에 존재하는 잡음의 정도를 고려하여 상기 의료영상의 품질을 판단할 수 있다.In the medical image quality determining step (S40), the medical image is determined in consideration of whether artifacts exist in the medical image and the degree of noise present in the medical image by using the information on the characteristics of the noise stored in the database. The quality of the image can be determined.
한편, 앞서 설명한 바와 같이 상기 의료영상은 상기 의료영상 수신 단계(S20)를 거쳐 상기 의료영상 종류 판단 단계(S30) 및 의료영상 품질 판단 단계(S40)에 동시에 제공될 수 있고, 상기 의료영상 종류 판단 단계(S30) 및 의료영상 품질 판단 단계(S40)에서의 동작이 동시에 수행될 수 있으나, 진단 및/또는 처방에 활용 되기에 적합하지 않은 품질을 가진 의료영상에 대해서는 그 종류를 판단하는 과정이 불필요할 수 있으므로, 사용자의 선택에 따라서는 의료영상 품질 판단 단계(S40)에 의한 품질 판단 동작을 먼저 수행한 이후에 일정 수준 이상의 품질을 만족하는 의료영상에 한하여 상기 의료영상 종류 판단 단계(S30)에 제공하여 종류가 판단되도록 할 수 있다.Meanwhile, as described above, the medical image may be simultaneously provided to the medical image type determining step S30 and the medical image quality determining step S40 through the medical image receiving step S20. The operation in step S30 and the medical image quality determining step S40 may be performed at the same time, but the process of determining the type is unnecessary for the medical image having a quality that is not suitable for use in diagnosis and / or prescription. Therefore, according to the user's selection, only after performing the quality determination operation by the medical image quality determination step (S40), the medical image type determination step (S30) is limited to the medical image that satisfies a certain level or more. Can be provided to determine the type.
다만, 이러한 동작은 사용자의 선택에 의해 이루어지는 것으로 종류를 판단하고 품질을 판단하는 과정이 특정한 순서로 제한되는 것은 아니다.However, the operation is performed by the user's selection, and the process of determining the type and determining the quality is not limited to a specific order.
도 9는 본 발명의 일 실시예에 따른 데이터베이스 구축 단계를 개략적으로 나타내는 순서도이다.9 is a flowchart schematically illustrating a database building step according to an embodiment of the present invention.
도 9를 참조하면, 본 발명의 일 실시예에 따른 데이터베이스 구축 단계는, 의료영상 종류 학습 단계(S11), 잡음 학습 단계(S12), 및 헤더 정보 학습 단계(S13)를 포함할 수 있다.Referring to FIG. 9, the database construction step according to an embodiment of the present invention may include a medical image type learning step S11, a noise learning step S12, and a header information learning step S13.
의료영상 종류 학습 단계(S11)에서는 복수의 의료영상의 촬영 기법에 따른 밝기 대조도를 학습한다. 이 때, 도 2를 통해 도시되는 바와 같은 의료영상에 대하여 특정 물질에 대한 밝기를 학습함으로써 촬영 기법에 따른 밝기 대조도를 학습할 수 있고, 이를 통해 의료영상 종류 판단 단계(S30)에서 의료영상의 종류를 정확하게 판단할 수 있다.In the medical image type learning step (S11), the brightness contrast degree according to the photographing technique of the plurality of medical images is learned. At this time, by learning the brightness of a specific material for the medical image as shown in Figure 2 can learn the brightness contrast according to the imaging technique, through which the medical image type determination step (S30) The type can be judged accurately.
잡음 학습 단계(S12)에서는 의료영상에 잡음의 포함 여부 및 잡음의 특성을 학습한다. 이 단계에서는 도 4를 통해 도시되는 바와 같은 의료영상에 대하여 잡음의 포함 여부를 학습하고, 잡음이 포함되어 있는 경우에는 잡음의 특성을 학습함으로써 의료영상 품질 판단 단계(S40)에서 의료영상의 품질을 판단할 수 있다.In the noise learning step (S12), whether the noise is included in the medical image and learning the characteristics of the noise. In this step, by learning whether the noise is included in the medical image as shown in Figure 4, if the noise is included in the medical image quality determination step (S40) by learning the characteristics of the noise You can judge.
헤더 정보 학습 단계(S13)에서는 복수의 의료영상에 포함된 헤더 정보(Header Information)를 학습한다. 앞서 설명한 바와 같이 상기 헤더 정보는 환자의 개인 정보, 의료 정보 등을 포함할 수 있고, 상기 의료영상이 CT 영상인지 MRI 영상인지에 관한 정보를 포함할 수도 있다. 또한, 상기 헤더 정보는 상기 의료영상에 포함된 부위 내지는 장기에 관한 정보를 포함할 수 있다.In the header information learning step (S13), header information included in the plurality of medical images is learned. As described above, the header information may include personal information, medical information, and the like of the patient, and may include information about whether the medical image is a CT image or an MRI image. In addition, the header information may include information about a part or an organ included in the medical image.
따라서, 헤더 정보 학습 단계(S13)에서는 상기 헤더 정보를 구성하는 데이터와 각 데이터가 의미하는 바를 학습함으로써 의료영상의 종류를 판단하거나 의료영상의 품질을 판단하는데 보조적인 도구로 활용하도록 할 수 있다.Therefore, in the header information learning step (S13), by learning the data constituting the header information and what each data means, it can be used as an auxiliary tool to determine the type of medical image or the quality of the medical image.
한편, 도 9는 의료영상 종류 학습 단계(S11), 잡음 학습 단계(S12), 및 헤더 정보 학습 단계(S13)를 순차적으로 도시하고 있으나, 반드시 순차적인 학습이 필요하지 않으므로 도 8에 도시된 순서와 무관하여 의료영상의 종류, 잡음 및 헤더 정보에 대한 학습이 이루어질 수 있다.9 illustrates the medical image type learning step S11, the noise learning step S12, and the header information learning step S13, but the sequence shown in FIG. 8 is not necessarily required. Regardless of the type, noise and header information may be learned.
도 10은 본 발명의 다른 실시예에 따른 의료영상 관리 방법을 개략적으로 나타내는 순서도이다.10 is a flowchart schematically illustrating a medical image management method according to another exemplary embodiment of the present invention.
도 10을 참조하면, 본 발명의 다른 실시예에 따른 의료영상 관리 방법은, 데이터베이스 구축 단계(S10), 의료영상 수신 단계(S20), 의료영상 종류 판단 단계(S30), 의료영상 품질 판단 단계(S40), 안면 영역 분리 단계(S50), 자료 제공 요청 수신 단계(S60), 및 비식별화 수행 단계(S70)를 포함한다. 데이터베이스 구축 단계(S10), 의료영상 수신 단계(S20), 의료영상 종류 판단 단계(S30), 및 의료영상 품질 판단 단계(S40)에서는 도 7을 참조로 하여 설명한 데이터베이스 구축 단계(S10), 의료영상 수신 단계(S20), 의료영상 종류 판단 단계(S30), 의료영상 품질 판단 단계(S40)에서와 동일한 동작이 수행되므로 중복되는 내용에 한하여 구체적인 설명은 생략하도록 한다.10, the medical image management method according to another embodiment of the present invention, database construction step (S10), medical image reception step (S20), medical image type determination step (S30), medical image quality determination step ( S40), a face region separating step S50, a data providing request receiving step S60, and a de-identifying performing step S70. In the database building step (S10), the medical image receiving step (S20), the medical image type determining step (S30), and the medical image quality determining step (S40), the database building step (S10) and the medical image described with reference to FIG. Since the same operations as in the reception step (S20), the medical image type determination step (S30), and the medical image quality determination step (S40) are performed, detailed descriptions thereof will be omitted only for overlapping contents.
안면 영역 분리 단계(S50) 에서는 상기 의료영상에서 상기 안면 영역을 분리한다. 상기 안면 영역은 해당 환자의 눈, 코, 입, 귀 등을 포함하는 얼굴 영역으로 이해할 수 있다. 상기 의료영상으로부터 상기 안면 영역을 분리하기 위해 안면 영역 분리 단계(S50)에서는 사람의 눈, 코, 입, 귀 등에 대한 기계 학습 결과를 이용할 수 있다. 예를 들어, 안면 영역 분리 단계(S50)에서는 복수의 환자에 대한 머리 부분의 CT 또는 MRI 영상으로부터 눈, 코, 입 등의 위치를 판단하는 학습을 통해 새롭게 입력되는 의료영상에서 눈, 코, 입의 위치를 판단할 수 있다.In the facial region separating step (S50), the facial region is separated from the medical image. The facial region may be understood as a facial region including the eyes, nose, mouth, and ears of the patient. In order to separate the face region from the medical image, in the face region separation step (S50), machine learning results of a human eye, nose, mouth, and ear may be used. For example, in the face region separation step (S50), eyes, nose, mouth in a newly input medical image through learning to determine the position of eyes, nose, mouth, etc. from CT or MRI images of the head portion of a plurality of patients. It is possible to determine the position of.
이 때, 상기 기계 학습의 대상은 2D 영상이거나 3D 영상일 수 있는데, 상기 의료영상이 2D 영상인 경우 여러 장의 2D 영상에서 눈, 코, 입, 귀의 위치를 학습할 수 있다. 또는, 상기 의료영상이 3D 영상인 경우에는 환자의 눈, 코, 입, 귀를 포함하는 안면 영역을 판단하는 학습이 수행될 수 있다.In this case, the object of the machine learning may be a 2D image or a 3D image. When the medical image is a 2D image, the positions of the eyes, the nose, the mouth, and the ear may be learned from a plurality of 2D images. Alternatively, when the medical image is a 3D image, learning may be performed to determine a facial area including an eye, a nose, a mouth, and an ear of a patient.
따라서, 2D 영상을 학습하고, 해당 학습 결과를 활용하는 경우에는 눈, 코, 입, 귀를 포함하는 복수의 이미지가 안면 영역 분리 단계(S50)에서 선별될 수 있다.Therefore, when learning the 2D image and utilizing the corresponding learning result, a plurality of images including eyes, nose, mouth, and ears may be selected in the face region separation step S50.
자료 제공 요청 수신 단계(S60)에서는 클라이언트로부터 상기 안면 영역에 포함되는 눈, 코, 입 중 적어도 어느 하나에 대한 자료 제공 요청을 수신한다. 의료영상은 연구 등의 목적으로 활용될 수 있는데 상기 클라이언트는 상기 의료 영상을 활용하기를 원하는 사람, 기관 또는 또 다른 시스템일 수 있다.In the data providing request receiving step (S60), a data providing request for at least one of an eye, a nose, and a mouth included in the face area is received from a client. The medical image may be used for research and the like, and the client may be a person, an institution, or another system that wants to use the medical image.
연구의 목적은 다양하고 연구의 대상이 되는 신체 부위도 다양할 수 있는데 상기 클라이언트는 눈, 코, 입 중 적어도 한 부위에 대한 의료영상을 요청할 수 있다. 이 때, 환자의 의료영상에 대한 별도의 처리 없이 그대로 제공하는 경우, 3D 의료영상을 통해 환자가 식별 가능하고, 2D 의료영상을 제공하더라도 이를 조합하여 3D 영상을 생성할 수 있으므로 환자 정보가 노출될 수 있다.The purpose of the study may vary and the body parts of the study may vary. The client may request a medical image of at least one of eyes, nose and mouth. In this case, if the patient is provided as it is without further processing for the medical image of the patient, the patient can be identified through the 3D medical image, and even if the 2D medical image is provided, the 3D image may be generated by combining the patient information, thereby providing patient information. Can be.
비식별화 수행 단계(S70) 에서는 의도하지 않은 환자 정보가 노출되는 것을 방지하기 위해서 상기 클라이언트가 요청한 부위를 제외한 나머지 안면 영역에 대하여 비식별화를 수행한다.In the de-identification step (S70), in order to prevent the unintended patient information from being exposed, the de-identification is performed on the remaining facial areas except for the area requested by the client.
예를 들어, 상기 클라이언트가 환자의 코에 대한 자료 요청을 한 경우, 상기 비식별화 단계(S70)에서는 코를 제외한 눈, 입, 귀 등에 대하여 비식별화를 수행한다. 상기 비식별화는 비가역적(irreversible) 변환으로 상기 클라이언트가 코에 대한 비식별화가 수행된 의료영상을 제공 받으면 해당 의료 영상으로부터 상기 환자의 코를 복원하기 불가능하다.For example, when the client makes a request for data on the nose of the patient, the de-identification step (S70) performs de-identification on eyes, mouths, ears, etc. except the nose. The de-identification is an irreversible transformation and when the client is provided with a medical image on which the nose is de-identified, it is impossible to restore the patient's nose from the medical image.
비식별화 단계(S70)에서는 상기 의료영상을 2D 영상으로 변환하여 코를 포함하는 복수의 이미지에 대하여 비식별화(De-Identification)를 수행할 수 있고, 3D 의료영상에서 직접 코 영역에 대한 비식별화를 수행할 수 있다. 한편, 비식별화 단계(S70)에서는 3D 의료영상에 대한 비식별화를 수행한 이후, 해당 의료영상을 복수의 2D 이미지로 변환할 수 있다. 즉, 상기 클라이언트에게 제공되는 의료영상은 2D 형태인 것으로 이해할 수 있다.In the de-identification step (S70), the medical image may be converted into a 2D image, and de-identification may be performed on a plurality of images including the nose. Identification can be performed. In the de-identification step (S70), after de-identification of the 3D medical image, the medical image may be converted into a plurality of 2D images. That is, the medical image provided to the client may be understood as having a 2D form.
상기 비식별화는 대상 부위에 대한 마스킹(masking) 또는 블러링(blurring)일 수 있는데, 예컨대 비식별화 대상 부위에 대응하는 데이터를 모두 '0'으로 마스킹하거나, 상기 대상 부위를 흐리게 하는 이미지 처리일 수 있다. 또 다른 예로써, 상기 대상 부위에 대해 모자이크(mosaic)를 씌우는 작업이 수행될 수 있다.The de-identification may be masking or blurring of a target site, for example, an image processing that masks all data corresponding to the non-identifying target site to '0' or blurs the target site. Can be. As another example, a mosaicing operation may be performed on the target site.
한편, 본 발명의 다른 실시예에서, 비식별화 단계(S70)에서는 상기 의료영상에 포함되는 개인 식별 텍스트를 제거하거나 다른 텍스트로 대체할 수 있다. 앞서 설명한 바와 같이, 환자의 개인 정보에 해당하는 데이터는 본 발명에 의한 비식별화 대상으로 볼 수 있는데, 상기 개인 식별 텍스트는 환자의 개인 정보로 볼 수 있다.On the other hand, in another embodiment of the present invention, in the non-identification step (S70) may be removed or replaced with other text of the personal identification text included in the medical image. As described above, the data corresponding to the personal information of the patient can be viewed as a non-identification target according to the present invention, and the personal identification text can be viewed as the personal information of the patient.
따라서, 비식별화 단계(S70)에서는 상기 의료영상에 해당 환자 개인을 특정할 수 있는 텍스트가 포함되어 있는 경우, 이를 다른 삭제하거나 다른 텍스트로 대체하는 방법을 통해 비식별화를 수행할 수 있다.Therefore, in the non-identification step (S70), if the medical image includes the text for identifying the individual patient, de-identification may be performed by deleting another or replacing the text with another text.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있다.Meanwhile, the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.
또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다.If the steps constituting the method according to the invention are not explicitly stated or contrary to the steps, the steps may be performed in a suitable order. The present invention is not necessarily limited to the description order of the above steps.
본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한 해당 기술 분야의 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터(factor)에 따라 구성될 수 있음을 알 수 있다.The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for describing the present invention in detail, and the scope of the present invention is limited by the examples or exemplary terms unless the scope of the claims is defined. It is not limited. Also, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라, 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and all the scope equivalent to or equivalent to the scope of the claims, as well as the claims to be described later, are defined by the spirit of the invention. It belongs to the category.
[부호의 설명][Description of the code]
100, 200: 의료영상 관리 시스템100, 200: medical image management system
110, 210: 데이터베이스110, 210: database
120, 220: 영상 수신부120, 220: video receiver
130, 230: 영상 분류부130, 230: image classification unit
140, 240: 품질 판단부140, 240: quality judgment
250: 안면 영역 분리부250: face area separator
260: 요청 수신부260: request receiving unit
270: 비식별화부270: de-identification unit

Claims (17)

  1. 의료영상의 특성 및 의료영상에 포함된 잡음(artifacts)의 특성에 관한 정보를 포함하는 데이터베이스;A database containing information about characteristics of the medical image and characteristics of artifacts included in the medical image;
    의료영상을 수신하는 영상 수신부;Image receiving unit for receiving a medical image;
    상기 데이터베이스에 저장된 상기 의료영상의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 종류를 판단하는 영상 분류부; 및An image classification unit which determines a type of the received medical image by using information about characteristics of the medical image stored in the database; And
    상기 데이터베이스에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 품질을 판단하는 품질 판단부;A quality determination unit that determines the quality of the received medical image by using information about the characteristic of the noise stored in the database;
    를 포함하는 의료영상 관리 시스템.Medical image management system comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 데이터베이스는 복수의 의료영상의 촬영 기법에 따른 밝기 대조도를 학습한 결과 및 의료영상에 잡음의 포함 여부 및 잡음의 특성을 학습한 결과에 관한 정보를 포함하는 의료영상 관리 시스템.The database includes a medical image management system including information about a result of learning brightness contrast according to a plurality of medical image capturing techniques, and a result of learning whether noise is included in the medical image and characteristics of the noise.
  3. 제2항에 있어서,The method of claim 2,
    상기 데이터베이스는 상기 복수의 의료영상에 포함된 헤더 정보(Header Information)를 학습한 결과에 관한 정보를 더 포함하는 의료영상 관리 시스템.The database further includes information about a result of learning the header information included in the plurality of medical images.
  4. 제2항에 있어서,The method of claim 2,
    상기 밝기 대조도를 학습하는 것은 상기 복수의 의료영상에서 정상 영역들의 밝기 대조도를 학습하는 것인 의료영상 관리 시스템.The learning of the brightness contrast degree is a medical image management system for learning the brightness contrast degree of the normal region in the plurality of medical images.
  5. 제2항에 있어서,The method of claim 2,
    상기 영상 분류부는 수신된 상기 의료영상의 밝기 대조도를 기준으로 상기 의료영상의 종류를 판단하는 의료영상 관리 시스템.The image classification unit determines a type of the medical image based on the brightness contrast of the received medical image management system.
  6. 제1항에 있어서,The method of claim 1,
    상기 의료영상에서 안면 영역을 분리하는 안면 영역 분리부;A face region separator for separating a face region from the medical image;
    클라이언트로부터 상기 안면 영역에 포함되는 눈, 코, 입 중 적어도 어느 하나에 대한 자료 제공 요청을 수신하는 요청 수신부; 및A request receiving unit which receives a request for providing data for at least one of an eye, a nose and a mouth included in the face area from a client; And
    요청된 부위를 제외한 나머지 안면 영역에 대하여 비식별화를 수행하는 비식별화부;De-identification unit for performing non-identification for the remaining facial region except the requested area;
    를 더 포함하는 의료영상 관리 시스템.Medical image management system further comprising.
  7. 제6항에 있어서,The method of claim 6,
    상기 데이터베이스는 의료영상에 포함되는 눈, 코, 입 학습 결과에 관한 정보를 더 포함하고,The database further includes information about eye, nose and mouth learning results included in the medical image,
    상기 안면 영역 분리부는 상기 눈, 코, 입 학습 결과를 이용하여 상기 안면 영역을 분리하는 의료영상 관리 시스템.The face region separator may separate the face region using the eye, nose, and mouth learning results.
  8. 제6항에 있어서,The method of claim 6,
    상기 비식별화부는 상기 눈, 코, 입에 대한 비가역적 데이터 변환을 수행하는 의료영상 관리 시스템.The non-identifying unit is a medical image management system for performing irreversible data conversion for the eyes, nose, mouth.
  9. 의료영상을 수신하는 단계;Receiving a medical image;
    의료영상의 특성 및 의료영상에 포함된 잡음(artifacts)의 특성에 관한 정보를 포함하는 데이터베이스에 저장된 상기 의료영상의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 종류를 판단하는 단계; 및Determining a type of the received medical image by using information about the characteristic of the medical image stored in a database including information about the characteristic of the medical image and the characteristics of the artifacts included in the medical image; And
    상기 데이터베이스에 저장된 상기 잡음의 특성에 관한 정보를 이용하여 수신된 상기 의료영상의 품질을 판단하는 단계;Determining the quality of the received medical image by using information about the characteristic of the noise stored in the database;
    를 포함하는 의료영상 관리 방법.Medical image management method comprising a.
  10. 제9항에 있어서,The method of claim 9,
    상기 의료영상 관리 방법은 상기 데이터 베이스를 구축하는 단계;를 더 포함하고,The medical image management method further comprises the step of building the database;
    상기 데이터베이스를 구축하는 단계는,The step of building the database,
    복수의 의료영상의 촬영 기법에 따른 밝기 대조도를 학습하는 단계; 및Learning brightness contrast according to a technique of photographing a plurality of medical images; And
    의료영상에 잡음의 포함 여부 및 잡음의 특성을 학습하는 단계;Learning whether noise is included in the medical image and characteristics of the noise;
    를 포함하는 의료영상 관리 방법.Medical image management method comprising a.
  11. 제10항에 있어서,The method of claim 10,
    상기 데이터베이스를 구축하는 단계는,The step of building the database,
    상기 복수의 의료영상에 포함된 헤더 정보(Header Information)를 학습하는 단계를 더 포함하는 의료영상 관리 방법.Medical image management method further comprising the step of learning the header information (Header Information) included in the plurality of medical images.
  12. 제10항에 있어서,The method of claim 10,
    상기 밝기 대조도를 학습하는 단계에서는, 상기 복수의 의료영상에서 정상 영역들의 밝기 대조도를 학습하는 의료영상 관리 방법.In the step of learning the brightness contrast degree, medical image management method for learning the brightness contrast degree of the normal region in the plurality of medical images.
  13. 제9항에 있어서,The method of claim 9,
    상기 의료영상의 종류를 판단하는 단계에서는 수신된 상기 의료영상의 밝기 대조도를 기준으로 상기 의료영상의 종류를 판단하는 의료영상 관리 방법.And determining the type of the medical image based on the brightness contrast degree of the received medical image.
  14. 제9항에 있어서,The method of claim 9,
    수신된 상기 의료영상에서 안면 영역을 분리하는 단계;Separating a facial region from the received medical image;
    클라이언트로부터 상기 안면 영역에 포함되는 눈, 코, 입 중 적어도 어느 하나에 대한 자료 제공 요청을 수신하는 단계; 및Receiving a request for providing data for at least one of an eye, a nose, and a mouth included in the face region from a client; And
    요청된 부위를 제외한 나머지 안면 영역에 대하여 비식별화를 수행하는 단계;Performing de-identification on the remaining facial regions except for the requested site;
    를 더 포함하는 의료영상 관리 방법.Medical image management method further comprising.
  15. 제14항에 있어서,The method of claim 14,
    상기 데이터베이스는 의료영상에 포함되는 눈, 코, 입 학습 결과에 관한 정보를 더 포함하고,The database further includes information about eye, nose and mouth learning results included in the medical image,
    상기 안면 영역을 분리하는 단계에서는 상기 눈, 코, 입에 대한 기계 학습 결과를 이용하여 상기 안면 영역을 분리하는 의료영상 관리 방법.In the step of separating the face area medical image management method for separating the face area using the machine learning results for the eyes, nose, mouth.
  16. 제14항에 있어서,The method of claim 14,
    상기 비식별화를 수행하는 단계에서는 상기 눈, 코, 입에 대한 비가역적 데이터 변환을 수행하는 의료영상 관리 방법.In the step of performing the de-identification, medical image management method for performing irreversible data conversion for the eyes, nose, mouth.
  17. 제9항 내지 제16항 중 어느 한 항에 따른 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a program for performing the method according to any one of claims 9 to 16.
PCT/KR2019/095016 2018-05-16 2019-05-16 Medical image management system, method, and computer-readable recording medium WO2019221586A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0056175 2018-05-16
KR1020180056175A KR102034648B1 (en) 2018-05-16 2018-05-16 Medical Image Management System, Method and Computer Readable Recording Medium

Publications (1)

Publication Number Publication Date
WO2019221586A1 true WO2019221586A1 (en) 2019-11-21

Family

ID=68420291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/095016 WO2019221586A1 (en) 2018-05-16 2019-05-16 Medical image management system, method, and computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR102034648B1 (en)
WO (1) WO2019221586A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798439A (en) * 2020-07-11 2020-10-20 大连东软教育科技集团有限公司 Medical image quality interpretation method and system for online and offline fusion and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102556225B1 (en) * 2020-08-26 2023-07-18 서울대학교산학협력단 Neuroimaging analysis system and method
EP4226840A4 (en) * 2020-10-09 2024-03-20 FUJIFILM Corporation Medical image processing device and operation method for same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179977A (en) * 1995-12-21 1997-07-11 Shimadzu Corp Automatic processor for intensity level of medical image
KR20100010973A (en) * 2008-07-24 2010-02-03 울산대학교 산학협력단 Method for automatic classifier of lung diseases
JP2013058060A (en) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd Person attribute estimation device, person attribute estimation method and program
KR20140012474A (en) * 2012-07-20 2014-02-03 한국전자통신연구원 Apparatus and method for protecting privacy based on face recognition
US20180108430A1 (en) * 2016-09-30 2018-04-19 Board Of Regents, The University Of Texas System Method and system for population health management in a captivated healthcare system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09179977A (en) * 1995-12-21 1997-07-11 Shimadzu Corp Automatic processor for intensity level of medical image
KR20100010973A (en) * 2008-07-24 2010-02-03 울산대학교 산학협력단 Method for automatic classifier of lung diseases
JP2013058060A (en) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd Person attribute estimation device, person attribute estimation method and program
KR20140012474A (en) * 2012-07-20 2014-02-03 한국전자통신연구원 Apparatus and method for protecting privacy based on face recognition
US20180108430A1 (en) * 2016-09-30 2018-04-19 Board Of Regents, The University Of Texas System Method and system for population health management in a captivated healthcare system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798439A (en) * 2020-07-11 2020-10-20 大连东软教育科技集团有限公司 Medical image quality interpretation method and system for online and offline fusion and storage medium

Also Published As

Publication number Publication date
KR102034648B1 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
WO2019221586A1 (en) Medical image management system, method, and computer-readable recording medium
WO2019132168A1 (en) System for learning surgical image data
WO2016171341A1 (en) Cloud-based pathology analysis system and method
WO2019103440A1 (en) Method for supporting reading of medical image of subject and device using same
WO2013095032A1 (en) Method for automatically detecting mid-sagittal plane by using ultrasound image and apparatus thereof
WO2015041451A1 (en) Image diagnosis device for photographing breast by using matching of tactile image and near-infrared image and method for acquiring breast tissue image
WO2016072586A1 (en) Medical image processing apparatus and method
WO2021054518A1 (en) Method, device, and software program for diagnosing cervical cancer by using medical image analysis based on artificial intelligence technology
WO2016159726A1 (en) Device for automatically sensing lesion location from medical image and method therefor
WO2021230417A1 (en) Image standardization device for standardizing images captured by heterogeneous image capturing devices and storing and managing same
WO2017099375A1 (en) Image processing apparatus and image processing method thereof
WO2022131642A1 (en) Apparatus and method for determining disease severity on basis of medical images
WO2018117360A1 (en) Medical imaging device and medical image processing method
WO2015005623A1 (en) Apparatus, method and system for automatically removing visual noise in surgical operation image in real time
WO2024111914A1 (en) Method for converting medical images by means of artificial intelligence with improved versatility and device therefor
CN110197722B (en) AI-CPU system platform
WO2020116878A1 (en) Intracranial aneurysm prediction device using fundus photo, and method for providing intracranial aneurysm prediction result
WO2022158843A1 (en) Method for refining tissue specimen image, and computing system performing same
WO2020226455A1 (en) Optic neuropathy prediction device using fundus image, and method for providing optic neuropathy prediction result
WO2022034955A1 (en) Apparatus for detecting corneal ulcer on basis of image processing, and method therefor
WO2022114357A1 (en) Image diagnosis system for lesion
WO2024101484A1 (en) Artificial intelligence-based lesion detection method and device
WO2018088649A1 (en) Glint detection method
WO2021015340A1 (en) X-ray imaging system and method based on captured image
WO2020218754A1 (en) Physical examination method and system using health check query performed by chatbot, and physical examination method and system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19803241

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19803241

Country of ref document: EP

Kind code of ref document: A1