KR102542016B1 - Method and apparatus for pseudonymizing medical image - Google Patents

Method and apparatus for pseudonymizing medical image Download PDF

Info

Publication number
KR102542016B1
KR102542016B1 KR1020200107873A KR20200107873A KR102542016B1 KR 102542016 B1 KR102542016 B1 KR 102542016B1 KR 1020200107873 A KR1020200107873 A KR 1020200107873A KR 20200107873 A KR20200107873 A KR 20200107873A KR 102542016 B1 KR102542016 B1 KR 102542016B1
Authority
KR
South Korea
Prior art keywords
image
body part
target body
medical
pseudonymized
Prior art date
Application number
KR1020200107873A
Other languages
Korean (ko)
Other versions
KR20220026845A (en
Inventor
김예현
Original Assignee
(주)어셈블써클
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)어셈블써클 filed Critical (주)어셈블써클
Priority to KR1020200107873A priority Critical patent/KR102542016B1/en
Publication of KR20220026845A publication Critical patent/KR20220026845A/en
Application granted granted Critical
Publication of KR102542016B1 publication Critical patent/KR102542016B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

본 발명은 의료 영상의 가명화 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 가명화 방법은 전자 장치가 수행하는 의료 영상의 가명화 방법으로서, 대상자의 대상 신체 부위에 대한 의료 영상에서 상기 대상 신체 부위 중 식별 부분과 비식별 부분을 구분하는 단계; 및 상기 비식별 부분을 다른 대상자의 해당 대상 신체 부위의 영상(가공 영상)으로 매핑함으로써 가명화 영상을 생성하는 단계;를 포함한다.The present invention relates to a method and apparatus for pseudonymizing medical images. A pseudonymization method according to an embodiment of the present invention is a method of pseudonymizing a medical image performed by an electronic device, comprising the steps of distinguishing an identified part from a non-identified part of a target body part in a medical image of a target body part of a subject. ; and generating a pseudonymized image by mapping the non-identified part to an image (processed image) of a corresponding target body part of another target person.

Description

의료 영상의 가명화 방법 및 장치{METHOD AND APPARATUS FOR PSEUDONYMIZING MEDICAL IMAGE}Medical image pseudonymization method and apparatus {METHOD AND APPARATUS FOR PSEUDONYMIZING MEDICAL IMAGE}

본 발명은 의료 영상 처리에 관한 것으로서, 더욱 상세하게는 의료 영상의 가명화 방법 및 장치에 관한 것이다.The present invention relates to medical image processing, and more particularly, to a method and apparatus for pseudonymizing medical images.

최근, 의료 정보(또는 건강 정보)를 활용한 헬스 캐어 빅데이터(health care big-data) 분석 기술이 각광을 받고 있다. 이러한 헬스 캐어 빅데이터 분석 기술을 구현하려면 먼저 대량의 의료 정보를 수집해야 한다. 하지만, 해당 의료 정보 수집과 관련하여, 개인정보보호 등에 관련된 법에 대한 저촉 문제가 새롭게 대두되고 있다.Recently, a health care big-data analysis technology using medical information (or health information) is in the limelight. To implement these healthcare big data analysis technologies, a large amount of medical information must first be collected. However, in relation to the collection of medical information, a new problem of conflict with laws related to personal information protection is emerging.

이에 따라, 의료 정보에서 개인 정보를 가명화(pseudonymization)함으로써 비식별화 처리하는 다양한 가명화 기술이 제시되고 있다. 이때, 가명화는 개인 정보에 대해 임의의 코드 또는 번호 등(Pseudonym; 가명)을 부여함으로써, 원래의 상태로 복원하기 위한 추가 정보의 사용 결합 없이는 특정 개인에 대한 파악이 불가능하도록 하는 처리를 의미한다. 또한, 이와 같이 가명화 처리된 정보를 “가명 정보”라 지칭한다.Accordingly, various pseudonymization techniques for de-identification processing by pseudonymizing personal information in medical information have been proposed. At this time, pseudonymization refers to the process of assigning a random code or number (pseudonym) to personal information so that it is impossible to identify a specific individual without combining the use of additional information to restore it to its original state. . In addition, the pseudonymized information is referred to as "pseudonym information".

종래의 의료 정보에 대한 가명화 기술은 이름, 나이, 성별, 전화번호 등과 같은 개인 신상에 관련된 텍스트 형태의 개인 정보에 대한 가명화 기술에 불과하였다. 이러한 테스트 형태의 개인 정보 외에 영상 형태인 의료 영상 등도 경우에 따라 개인 정보로 인식될 수 있다. 하지만, 현재까지 이러한 의료 영상에 대한 가명화 기술, 즉 의료 영상을 가명화 처리하여 가명 정보인 가명화 영상을 생성하는 기술은 전무한 실정이었다. Conventional pseudonymization technology for medical information was only a pseudonymization technology for text-type personal information related to personal information such as name, age, gender, and phone number. In addition to personal information in the form of tests, medical images in the form of images may also be recognized as personal information in some cases. However, until now, there has been no pseudonymization technology for such medical images, that is, technology for pseudonymizing medical images to generate pseudonymized images, which are pseudonymous information.

한편, 의료 영상에 대한 가명화를 위해, 의료 영상에서 특정 영역에 대해 마스킹, 블러링 등의 단순한 영상 처리 기법을 적용하는 기술이 제안될 수도 있다. 하지만, 이러한 제안 기술의 경우, 영상 처리 결과로 얻어진 가명화 영상 자체가 가지는 리얼리티(reality)가 떨어지는 문제점이 있다. 가령, 사람 안면에 대한 의료 영상을 제안 기술로 가명화 처리할 경우, 생성된 가명화 영상은 의료인(의사 등)에게 사람 안면에 대한 영상이 아닌 것으로 인식되거나 상당히 변형되어 실제로 존재하지 않을 거 같은 형태의 사람 안면에 대한 영상으로 인식될 수 있다.Meanwhile, in order to pseudonymize the medical image, a technique of applying a simple image processing technique such as masking or blurring to a specific region in the medical image may be proposed. However, in the case of this proposed technology, there is a problem in that the reality of the pseudonymized image itself obtained as a result of image processing is poor. For example, when a medical image of a human face is pseudonymized using the proposed technology, the pseudonymized image generated is recognized by medical personnel (such as doctors) as not being an image of a human face, or is significantly deformed so that it is unlikely to actually exist. can be recognized as an image of a human face.

다만, 상기의 배경기술로서 설명된 사항들은 본 발명의 배경에 대한 이해 증진을 위한 것일 뿐, 본 발명의 기술분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안될 것이다.However, the matters described as the background art above are only for the purpose of improving understanding of the background of the present invention, and should not be taken as acknowledging that they correspond to prior art already known to those skilled in the art. It won't.

JP 2011-508332 AJP 2011-508332 A

상기한 바와 같은 문제점을 해결하기 위하여, 본 발명은 의료 영상에 대해 가명화 처리하는 새로운 기술을 제안함으로써 의료 영상 활용 시 개인정보보호 등에 관련된 법에 저촉되는 이슈를 방지할 수 있는 의료 영상의 가명화 방법 및 장치를 제공하는데 그 목적이 있다.In order to solve the above problems, the present invention proposes a new technology for pseudonymizing medical images, thereby pseudonymizing medical images that can prevent issues related to laws related to personal information protection when using medical images. Its purpose is to provide a method and apparatus.

또한, 본 발명은 리얼리티(reality)가 유지되는, 즉 의료인(의사 등)에게 실제로 존재하는 것으로 인식될 수 있는 가명화 영상을 생성하는 가명화 방법 및 장치를 제공하는데 그 다른 목적이 있다.Another object of the present invention is to provide a pseudonymization method and apparatus for generating a pseudonymized image that maintains reality, that is, that can be recognized as actually existing by a medical person (doctor, etc.).

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the description below. There will be.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예에 따른 가명화 방법은 전자 장치가 수행하는 의료 영상의 가명화 방법으로서, 대상자의 대상 신체 부위에 대한 의료 영상에서 상기 대상 신체 부위 중 식별 부분과 비식별 부분을 구분하는 단계; 및 상기 비식별 부분을 다른 대상자의 해당 대상 신체 부위의 영상(가공 영상)으로 매핑함으로써 가명화 영상을 생성하는 단계;를 포함한다.To solve the above problems, a pseudonymization method according to an embodiment of the present invention is a method for pseudonymizing a medical image performed by an electronic device, and includes an identification part of a target body part in a medical image of a target body part of a subject. and separating the non-identified part; and generating a pseudonymized image by mapping the non-identified part to an image (processed image) of a corresponding target body part of another target person.

상기 가공 영상은 해당 대상 신체 부위의 신체 구조를 가지면서 다른 대상자의 해당 대상 신체 부위로 인식되는 페이크 영상(fake image)일 수 있다.The processed image may be a fake image that has a body structure of the corresponding target body part and is recognized as a corresponding target body part of another target person.

상기 가공 영상은 다양한 다른 대상자의 해당 대상 신체 부위의 의료 영상을 이용하여 합성된 영상일 수 있다.The processed image may be a synthesized image using medical images of corresponding target body parts of various other subjects.

상기 가공 영상 또는 상기 가명화 영상은 기 학습된 머신 러닝 모델을 이용해 생성될 수 있다.The processed image or the pseudonymized image may be generated using a pre-learned machine learning model.

상기 머신 러닝 모델은 GAN(Generative Adversarial Network) 알고리즘의 머신 러닝으로 학습될 수 있다.The machine learning model may be learned through machine learning of a generative adversarial network (GAN) algorithm.

상기 구분하는 단계는 사용자의 선택에 따라 상기 식별 부분을 조절할 수 있다.In the classifying step, the identification part may be adjusted according to a user's selection.

상기 구분하는 단계는 대상자의 대상 신체 부위를 중요도의 가중치 범위에 따라 다수의 부분 영역으로 구분하며, 적용 가중치에 따라 상기 식별 부분에 포함되는 부분 영역의 종류를 조절할 수 있다.In the classifying step, the target body part of the subject is divided into a plurality of subregions according to weight ranges of importance, and types of subregions included in the identification part may be adjusted according to the applied weight.

상기 구분하는 단계는 상기 의료 영상에서 각 부분 영역을 다양한 색상으로 표시할 수 있다.In the classifying, each partial area in the medical image may be displayed in various colors.

상기 부분 영역은 가중치 범위가 가장 높은 제1 부분 영역, 가중치 범위가 제1 부분 영역 보다 낮은 제2 부분 영역, 및 가중치 범위가 가장 낮은 제3 부분 영역을 포함할 수 있다.The subregion may include a first subregion having the highest weight range, a second subregion having a lower weight range than the first subregion, and a third subregion having the lowest weight range.

상기 구분하는 단계는 적어도 제1 부분 영역에서 상기 식별 부분을 선택할 수 있고, 적어도 제3 부분 영역에서 상기 비식별 부분을 선택할 수 있다.In the distinguishing, the identification part may be selected from at least a first partial area, and the non-identified part may be selected from at least a third partial area.

상기 구분하는 단계는 적용 가중치가 낮아짐에 따라 제1 부분 영역 외에 제2 부분 영역도 식별 부분에 포함할 수 있다.In the classifying step, as the applied weight decreases, the second partial area in addition to the first partial area may also be included in the identification part.

상기 구분하는 단계는 대상 신체 부위의 윤곽선을 이루는 윤곽점들 중 서로 이격된 복수개를 식별 부분으로 구분할 수 있다.In the dividing step, a plurality of spaced apart contour points among the contour points constituting the contour of the target body part may be divided into identification parts.

본 발명의 일 실시예에 따른 가명화 방법은 상기 식별 부분에 대한 정보를 메타 정보로 저장하는 단계를 더 포함할 수 있다.The pseudonymization method according to an embodiment of the present invention may further include storing information on the identification part as meta information.

본 발명의 일 실시예에 따른 가명화 방법은 상기 가명화 영상을 타 전자 장치로 전송 시, 상기 메타 정보의 전송 여부를 선택하는 단계를 더 포함할 수 있다.The pseudonymization method according to an embodiment of the present invention may further include selecting whether or not to transmit the meta information when transmitting the pseudonymized video to another electronic device.

본 발명의 일 실시예에 따른 가명화 장치는, 대상자의 대상 신체 부위에 대한 의료 영상을 저장한 메모리; 및 상기 의료 영상에 대한 가명화 처리를 제어하는 제어부;를 포함하며, 상기 제어부는, 상기 의료 영상의 상기 대상 신체 부위 중 식별 부분과 비식별 부분을 구분하며, 상기 비식별 부분을 다른 대상자의 해당 대상 신체 부위의 영상(가공 영상)으로 매핑함으로써 가명화 영상을 생성한다.A pseudonymization device according to an embodiment of the present invention includes a memory storing a medical image of a target body part of a subject; and a controller for controlling pseudonymization of the medical image, wherein the controller distinguishes between an identified part and a non-identified part among the target body parts of the medical image, and the non-identified part is classified as a corresponding part of another subject. A pseudonymized image is generated by mapping to an image (processed image) of a target body part.

본 발명의 일 실시예에 따른 가명화 서버는 단말로부터 수신한 대상자의 대상 신체 부위에 대한 의료 영상을 가명화 처리하는 서버로서, 상기 단말로부터 상기 의료 영상을 수신하며, 상기 단말로 가명화 영상을 전송하는 통신부; 및 상기 가명화 처리를 제어하는 제어부;를 포함하며, 상기 제어부는, 상기 의료 영상의 상기 대상 신체 부위 중 식별 부분과 비식별 부분을 구분하며, 상기 비식별 부분을 다른 대상자의 해당 대상 신체 부위의 영상(가공 영상)으로 매핑함으로써 가명화 영상을 생성한다.A pseudonymization server according to an embodiment of the present invention is a server for pseudonymizing a medical image of a target body part of a subject received from a terminal, receives the medical image from the terminal, and transmits the pseudonymized image to the terminal. a communication unit that transmits; and a control unit controlling the pseudonymization process, wherein the control unit distinguishes between an identified part and a non-identified part among the target body parts of the medical image, and identifies the non-identified part as a corresponding target body part of another subject. A pseudonymized image is generated by mapping to an image (processed image).

상기와 같이 구성되는 본 발명은 의료 영상에 대해 가명화 처리하는 새로운 기술을 제안함으로써 의료 영상 활용 시 개인정보보호 등에 관련된 법에 저촉되는 이슈를 방지할 수 있는 이점이 있다.The present invention configured as described above has an advantage of preventing issues that violate laws related to personal information protection when using medical images by proposing a new technology for pseudonymizing medical images.

또한, 본 발명은 리얼리티(reality)가 유지되는, 즉 의료인(의사 등)에게 실제로 존재하는 것으로 인식될 수 있는 가명화 영상을 생성할 수 있는 이점이 있다.In addition, the present invention has an advantage of being able to generate a pseudonymized image that maintains reality, that is, can be recognized as actually existing by a medical person (doctor, etc.).

또한, 본 발명은 GAN 알고리즘을 적용하여 가명화 영상을 생성하는 경우 그 학습 시간 및 그 가명화 처리 시간이 상당히 단축될 수 있는 이점이 있다.In addition, the present invention has an advantage in that the learning time and the pseudonymization processing time can be significantly reduced when a pseudonymized image is generated by applying the GAN algorithm.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 가명화 장치(100)의 블록 구성도를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 가명화 방법의 순서도를 나타낸다.
도 3 내지 도 11은 다양한 의료 영상의 예들을 나타낸다.
도 12는 치아 교합면의 형상을 추출한 의료 영상의 예를 나타낸다.
도 13 및 도 14는 GAN 알고리즘의 머신 러닝 모델에 대한 개념도를 나타낸다.
도 15는 본 발명의 다른 일 실시예에 따른 가명화 방법의 순서도를 나타낸다.
1 shows a block diagram of a pseudonymization device 100 according to an embodiment of the present invention.
2 shows a flowchart of a pseudonymization method according to an embodiment of the present invention.
3 to 11 show examples of various medical images.
12 shows an example of a medical image from which a shape of an occlusal surface of a tooth is extracted.
13 and 14 show conceptual diagrams of machine learning models of GAN algorithms.
15 is a flowchart of a pseudonymization method according to another embodiment of the present invention.

본 발명의 상기 목적과 수단 및 그에 따른 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.The above objects and means of the present invention and the effects thereof will become clearer through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art to which the present invention belongs can easily understand the technical idea of the present invention. will be able to carry out. In addition, in describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 경우에 따라 복수형도 포함한다. 본 명세서에서, "포함하다", “구비하다”, “마련하다” 또는 “가지다” 등의 용어는 언급된 구성요소 외의 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.Terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms in some cases unless otherwise specified in the text. In this specification, terms such as "comprise", "have", "provide" or "have" do not exclude the presence or addition of one or more other elements other than the mentioned elements.

본 명세서에서, “또는”, “적어도 하나” 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “또는 B”“및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.In this specification, terms such as “or” and “at least one” may represent one of the words listed together, or a combination of two or more. For example, "or B" and "at least one of B" may include only one of A or B, or may include both A and B.

본 명세서에서, “예를 들어” 등에 따르는 설명은 인용된 특성, 변수, 또는 값과 같이 제시한 정보들이 정확하게 일치하지 않을 수 있고, 허용 오차, 측정 오차, 측정 정확도의 한계와 통상적으로 알려진 기타 요인을 비롯한 변형과 같은 효과로 본 발명의 다양한 실시 예에 따른 발명의 실시 형태를 한정하지 않아야 할 것이다.In this specification, descriptions following "for example" may not exactly match the information presented, such as cited characteristics, variables, or values, and tolerances, measurement errors, limits of measurement accuracy and other commonly known factors It should not be limited to the embodiments of the present invention according to various embodiments of the present invention with effects such as modifications including.

본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어’ 있다거나 '접속되어' 있다고 기재된 경우, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성 요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.In this specification, when a component is described as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but there may be other components in the middle. It should be understood that it may be On the other hand, when a component is referred to as 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.

본 명세서에서, 어떤 구성요소가 다른 구성요소의 '상에' 있다거나 '접하여' 있다고 기재된 경우, 다른 구성요소에 상에 직접 맞닿아 있거나 또는 연결되어 있을 수 있지만, 중간에 또 다른 구성요소가 존재할 수 있다고 이해되어야 할 것이다. 반면, 어떤 구성요소가 다른 구성요소의 '바로 위에' 있다거나 '직접 접하여' 있다고 기재된 경우에는, 중간에 또 다른 구성요소가 존재하지 않은 것으로 이해될 수 있다. 구성요소 간의 관계를 설명하는 다른 표현들, 예를 들면, '~사이에'와 '직접 ~사이에' 등도 마찬가지로 해석될 수 있다.In the present specification, when an element is described as being 'on' or 'in contact with' another element, it may be in direct contact with or connected to the other element, but another element may be present in the middle. It should be understood that On the other hand, if an element is described as being 'directly on' or 'directly in contact with' another element, it may be understood that another element in the middle does not exist. Other expressions describing the relationship between components, such as 'between' and 'directly between', can be interpreted similarly.

본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.In this specification, terms such as 'first' and 'second' may be used to describe various elements, but the elements should not be limited by the above terms. In addition, the above terms should not be interpreted as limiting the order of each component, and may be used for the purpose of distinguishing one component from another. For example, a 'first element' may be named a 'second element', and similarly, a 'second element' may also be named a 'first element'.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하도록 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 가명화 장치(100)의 블록 구성도를 나타낸다.1 shows a block diagram of a pseudonymization device 100 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 가명화 장치(100)는 기 저장된 의료 영상을 가명화 처리하는 장치로서, 컴퓨팅(computing)이 가능한 전자 장치 또는 컴퓨팅 네트워크일 수 있다. 이러한 가명화 장치(100)는 가명화 처리를 위한 서버 등으로 동작할 수도 있다. 즉, 서버인 경우, 가명화 장치(100)는 의료 영상을 저장하고 있는 단말로부터 의료 영상을 수신할 수 있고, 수신한 의료 영상을 가명화 처리하여 가명화 처리된 영상(이하, “가명화 영상”이라 지칭함)을 해당 단말 또는 타 단말로 전송하는 서버 등으로 동작할 수도 있다. 이때, 단말은 의료 영상을 측정하는 전자 장치이거나, 해당 측정 장치에서 측정된 의료 영상을 기 저장하고 있는 전자 장치일 수 있다.The pseudonymization device 100 according to an embodiment of the present invention is a device that pseudonyms pre-stored medical images, and may be an electronic device capable of computing or a computing network. The pseudonymization device 100 may operate as a server or the like for pseudonymization processing. That is, in the case of a server, the pseudonymization apparatus 100 may receive a medical image from a terminal storing the medical image, pseudonymize the received medical image, and generate a pseudonymized image (hereinafter referred to as “pseudonymized image”). ”) may be operated as a server or the like that transmits data to a corresponding terminal or other terminals. In this case, the terminal may be an electronic device that measures a medical image or an electronic device that previously stores medical images measured by the corresponding measuring device.

한편, 의료 영상은 대상자(치료 대상 환자 등)의 대상 신체 부위(치료 대상 부위 등)에 대한 영상으로서, 경조직(뼈, 연골 등) 또는 연조직(근육, 근막, 건, 인대, 관절낭, 피부, 지방 등)에 대한 영상을 포함할 수 있다. 예를 들어, 의료 영상은 초음파 영상, X-ray 영상, CT(Computed Tomography) 영상, 또는 MRI(Magnetic Resonance Image) 영상 등과 같이 신체 내부 파악을 위해 초음파 또는 방사선 등을 이용한 2차원 또는 3차원 영상일 수 있다. 또한, 의료 영상은 신체 외부 부위 표면(얼굴 등)에 대한 임상 영상 또는 구강 내부 표면에 대한 구강 스캔 영상 등과 같이 신체 내외 표면 파악을 위한 2차원 또는 3차원 광학 영상일 수 있다. 이러한 광학 영상은 광학 카메라 등으로 치료 대상자의 치료 대상 부위와 관련된 부위 표면을 촬영한 영상으로서, 성형 외과 또는 치과 등에서 치료 대상자의 신체 부위 표면의 모습 등을 확인하기 위해 영상일 수 있으며, 신체 부위 표면에 대한 영상이므로, 연조직 중에서도 피부 표면에 대한 영상을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 의료 영상은 대상 신체 부위의 다양한 방향(정면, 배면, 평면, 측면 등)에서의 영상일 수 있다. 다만, 의료 영상은 상술한 종류에 한정되지 않고, 진단, 교정, 수술 등의 치료(또는 의료 행위) 시에 사용되는 신체에 대한 다양한 영상을 포함할 수 있다.On the other hand, a medical image is an image of a target body part (treatment target part, etc.) of a subject (patient to be treated, etc.), hard tissue (bone, cartilage, etc.) or soft tissue (muscle, fascia, tendon, ligament, joint capsule, skin, fat) etc.) can be included. For example, a medical image is a 2-dimensional or 3-dimensional image using ultrasound or radiation to identify the inside of a body, such as an ultrasound image, an X-ray image, a computed tomography (CT) image, or a magnetic resonance image (MRI) image. can In addition, the medical image may be a 2D or 3D optical image for recognizing internal and external surfaces of the body, such as a clinical image of the surface of an external part of the body (face, etc.) or an oral scan image of the internal surface of the oral cavity. Such an optical image is an image obtained by photographing the surface of a part of a subject to be treated with an optical camera or the like, and may be an image used to check the surface of a part of a subject to be treated in plastic surgery or dentistry. Since it is an image for , it may include an image for the skin surface among soft tissues, but is not limited thereto. Also, the medical image may be an image of a target body part in various directions (front, back, plane, side, etc.). However, the medical image is not limited to the above-mentioned types, and may include various images of the body used during treatment (or medical practice) such as diagnosis, correction, and surgery.

예를 들어, 전자 장치는 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 태블릿 PC(tablet personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant), 스마트폰(smartphone), 스마트패드(smartpad), 또는 휴대폰(mobile phone), 등일 수 있으나, 이에 한정되는 것은 아니다.For example, the electronic device includes a desktop personal computer, a laptop personal computer, a tablet personal computer, a netbook computer, a workstation, and a personal digital assistant (PDA). , a smart phone (smartphone), a smart pad (smartpad), or a mobile phone (mobile phone), etc., but is not limited thereto.

이러한 가명화 장치(100)는, 도 1에 도시된 바와 같이, 입력부(110), 통신부(120), 디스플레이(130), 메모리(140), 제어부(150) 등을 포함할 수 있다.As shown in FIG. 1 , the pseudonymization device 100 may include an input unit 110, a communication unit 120, a display 130, a memory 140, a controller 150, and the like.

입력부(110)는 다양한 사용자의 입력에 대응하여, 입력데이터를 발생시키며, 다양한 입력수단을 포함할 수 있다. 가령, 입력부(110)는 사용자로부터 의료 영상의 대상 신체 부위 중 식별 부분과 비식별 부분을 구분하거나, 식별 부분의 조절하는 등을 입력 받을 수 있다. 예를 들어, 입력부(110)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 터치 패드(touch pad), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The input unit 110 generates input data in response to various user inputs and may include various input means. For example, the input unit 110 may receive input from the user to distinguish an identified part from a non-identified part among target body parts of a medical image or to adjust an identified part. For example, the input unit 110 includes a keyboard, a key pad, a dome switch, a touch panel, a touch key, a touch pad, and a mouse. (mouse), menu button (menu button), etc. may be included, but is not limited thereto.

통신부(120)는 단말 등의 다른 장치와 통신을 수행하는 구성이다. 가령, 통신부(120)는 단말로부터 의료 영상을 수신하거나, 제어부(150)에서 생성된 가명화 영상 등을 해당 단말 또는 타 단말 등으로 송신할 수 있다. 또한, 통신부(120)는 기 학습된 머신 러닝 모델에 대한 정보를 다른 장치로부터 수신할 수도 있다. 예를 들어, 통신부(120)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energe), NFC(near field communication), 와이파이(WiFi) 통신 등의 무선 통신을 수행하거나, 케이블 통신 등의 유선 통신을 수행할 수 있으나, 이에 한정되는 것은 아니다.The communication unit 120 is a component that performs communication with other devices such as terminals. For example, the communication unit 120 may receive a medical image from a terminal or transmit a pseudonymized image generated by the controller 150 to the corresponding terminal or another terminal. Also, the communication unit 120 may receive information on a pre-learned machine learning model from another device. For example, the communication unit 120 may perform 5th generation communication (5G), long term evolution-advanced (LTE-A), long term evolution (LTE), Bluetooth, bluetooth low energy (BLE), near field communication (NFC), Wireless communication such as WiFi communication or wired communication such as cable communication may be performed, but is not limited thereto.

디스플레이(130)는 다양한 영상 데이터를 화면으로 표시한다. 가령, 디스플레이(130)는 의료 영상, 의료 영상에 대한 가명화 처리 과정, 가명화 영상 등을 표시할 수 있다. 이러한 디스플레이(130)는 비발광형 패널이나 발광형 패널로 구성될 수 있다. 예를 들어, 디스플레이(130)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 디스플레이(130)는 입력부(120)와 결합되어 터치 스크린(touch screen) 등으로 구현될 수 있다.The display 130 displays various image data on a screen. For example, the display 130 may display a medical image, a pseudonymization process for the medical image, and a pseudonymized image. The display 130 may be composed of a non-emissive panel or a light emitting panel. For example, the display 130 may include a liquid crystal display (LCD), a light emitting diode (LED) display, an organic LED (OLED) display, and a micro electromechanical system (MEMS). mechanical systems) display, or electronic paper (electronic paper) display, etc. may be included, but is not limited thereto. Also, the display 130 may be combined with the input unit 120 and implemented as a touch screen or the like.

메모리(140)는 가명화 장치(100)의 동작에 필요한 각종 정보를 저장한다. 가령, 저장 정보로는 의료 영상, 가명화 영상, 머신 러닝 모델, 후술할 가명화 방법에 관련된 프로그램 정보 등이 포함될 수 있다. 예를 들어, 메모리(140)는 그 유형에 따라 하드디스크 타입(hard disk type), 마그네틱 매체 타입(Sagnetic media type), CD-ROM(compact disc read only memory), 광기록 매체 타입(Optical Media type), 자기-광 매체 타입(Sagneto-optical media type), 멀티미디어 카드 마이크로 타입(Sultimedia card micro type), 플래시 저장부 타입(flash memory type), 롬 타입(read only memory type), 또는 램 타입(random access memory type) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 메모리(140)는 그 용도/위치에 따라 캐시(cache), 버퍼, 주기억장치, 보조기억장치, 또는 별도로 마련된 저장 시스템일 수 있으나, 이에 한정되는 것은 아니다.The memory 140 stores various types of information necessary for the operation of the pseudonymization device 100 . For example, stored information may include medical images, pseudonymized images, machine learning models, program information related to a pseudonymization method to be described later, and the like. For example, the memory 140 may be of a hard disk type, a magnetic media type, a compact disc read only memory (CD-ROM), or an optical media type according to its type. ), Sagneto-optical media type, Sultimedia card micro type, flash memory type, read only memory type, or RAM type (random access memory type), etc., but is not limited thereto. In addition, the memory 140 may be a cache, a buffer, a main memory device, an auxiliary memory device, or a separately provided storage system depending on its purpose/location, but is not limited thereto.

제어부(150)는 가명화 장치(100)의 다양한 제어 동작을 수행할 수 있다. 즉, 제어부(150)는 후술할 가명화 방법의 수행을 제어할 수 있으며, 가명화 장치(100)의 나머지 구성, 즉 입력부(110), 통신부(120), 디스플레이(130), 메모리(140) 등의 동작을 제어할 수 있다. 예를 들어, 제어부(150)는 하드웨어인 프로세서(processor) 또는 해당 프로세서에서 수행되는 소프트웨어인 프로세스(process) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The controller 150 may perform various control operations of the pseudonymization device 100 . That is, the control unit 150 may control the execution of a pseudonymization method to be described later, and the remaining components of the pseudonymization device 100, that is, the input unit 110, the communication unit 120, the display 130, and the memory 140 etc. can be controlled. For example, the control unit 150 may include, but is not limited to, a processor that is hardware or a process that is software that is executed in the corresponding processor.

도 2는 본 발명의 일 실시예에 따른 가명화 방법의 순서도를 나타낸다.2 shows a flowchart of a pseudonymization method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 가명화 방법은 S101 및 S102를 포함할 수 있다. 이때, S101 및 S102는 각각 제어부(150)의 하드웨어 또는 소프트웨어를 통해 그 수행이 제어될 수 있다.Referring to FIG. 2 , the pseudonymization method according to an embodiment of the present invention may include steps S101 and S102. At this time, the execution of S101 and S102 may be controlled through hardware or software of the control unit 150, respectively.

먼저, S101는 의료 영상에서 대상 신체 부위 중 식별 부분과 비식별 부분을 구분하는 단계이다. First, S101 is a step of distinguishing an identified part and a non-identified part among target body parts in a medical image.

이때, 식별 부분은 의료 영상의 대상 신체 부위 중에서 대상자의 치료를 위해 의료인(의사 등)에게 최소한으로 제공되어야 할 해당 대상자의 대상 신체 부위에 대한 특징 부분을 지칭한다. 즉, 의료인은 해당 식별 부분을 파악함으로써, 대상자에 대한 진단, 교정, 수술 등의 치료를 위한 대상자의 상태를 파악할 수 있다. 물론, 식별 부분은 의료 영상 전체에서 아주 적은 부분에 불과하므로, 해당 식별 부분만으로는 특정 개인에 대한 파악이 어렵다. 반면, 비식별 부분은 의료 영상의 대상 신체 부위 중에서 대상자의 치료 시 의료인이 참고할 필요 없어 의료인에게 제공되지 않아도 되는 부분을 지칭한다. 즉, 비식별 부분은 의료 영상의 대상 신체 부위 중 식별 부분으로 설정되지 않은 나머지 부위일 수 있다. 또한, 비식별 부분은 의료 영상에서 신체 부위가 아니더라도, 식별 부분으로 설정되지 않은 나머지 부분 중에 대상 신체 부위에 영향을 주는 보철 등의 개체 부위일 수도 있다.In this case, the identification part refers to a feature part of a target body part of a corresponding subject to be provided to a medical person (doctor, etc.) as a minimum for treatment of the subject, among target body parts of the medical image. That is, by grasping the corresponding identification part, the medical person can grasp the subject's condition for treatment such as diagnosis, correction, surgery, and the like. Of course, since the identification part is only a very small part of the entire medical image, it is difficult to identify a specific individual only with the identification part. On the other hand, the non-identified part refers to a part of the target body part of the medical image that does not need to be provided to the medical person because the medical person does not need to refer to it when treating the subject. That is, the non-identified part may be the remaining part of the target body part of the medical image that is not set as an identification part. In addition, even if the non-identified part is not a body part in the medical image, it may be an object part, such as a prosthesis, that affects the target body part among the remaining parts not set as identification parts.

도 3 내지 도 11은 다양한 의료 영상의 예들을 나타낸다. 즉, 도 3은 측모 두부에 대한 X-ray 영상(세팔로 영상), 도 4는 정모 두부에 대한 X-ray 영상, 도 5는 측모 두부에 대한 임상 영상, 도 6은 정모 두부에 대한 임상 영상, 도 7은 미소(smile) 시 정면의 입 주변에 대한 임상 영상, 도 8은 정면의 입 주변에 대한 X-ray 영상(파노라마 영상), 도 9는 정면의 구강 내 표면 영상, 도 10은 일 측면의 구강 내 표면 영상, 도 11은 타 측면의 구강 내 표면 영상을 각각 나타낸다. 또한, 도 12는 치아 교합면의 형상을 추출한 의료 영상의 예를 나타낸다. 다만, 도 3 내지 도 12에서, 다양한 색상의 점들은 다양한 신체 부위에 대한 해부학적 랜드 마크(즉, 신체 부위에 대한 위치 또는 형상을 대표하여 나타내기 위한 하나 이상의 점, 선 또는 면)이다.3 to 11 show examples of various medical images. That is, FIG. 3 is an X-ray image (cephalo image) of the lateral hair head, FIG. 4 is an X-ray image of the hairy head, FIG. 5 is a clinical image of the lateral hair head, and FIG. 6 is a clinical image of the hairy head. 7 is a clinical image of the frontal mouth area during a smile, FIG. 8 is an X-ray image (panoramic image) of the frontal area around the mouth, FIG. 9 is a frontal intraoral surface image, and FIG. A lateral intraoral surface image, FIG. 11 shows an intraoral surface image of the other lateral surface, respectively. Also, FIG. 12 shows an example of a medical image from which the shape of an occlusal surface of a tooth is extracted. However, in FIGS. 3 to 12 , dots of various colors are anatomical landmarks for various body parts (ie, one or more dots, lines, or planes representing positions or shapes of body parts).

이러한 식별 부분 및 비식별 부분은 대상 신체 부위 종류, 치료 종류(목적), 의료 영상 종류 등에 따라 다양하게 구분될 수 있다. 특히, 식별 부분 및 비식별 부분은 다양한 알고리즘을 통해 자동적으로 추출(이하, “자동 추출 처리”이라 지칭함)될 수 있다. 또한, 입력부(110)는 사용자로부터 의료 영상의 대상 신체 부위 중에서 어느 부분을 식별 부분으로 설정할지에 대해 입력 받을 수 있으며, 제어부(150)는 해당 입력에 따라 식별 부분을 조절할 수 있다. 이러한 사용자의 선택에 따른 식별 부분의 조절은 자동 추출 처리 후에 추가적으로 수행될 수도 있다.These identification parts and non-identification parts may be classified in various ways according to the type of target body part, the type (purpose) of treatment, and the type of medical image. In particular, the identification part and the non-identification part may be automatically extracted (hereinafter referred to as “automatic extraction processing”) through various algorithms. In addition, the input unit 110 may receive input from the user about which part of the target body part of the medical image to be set as the identification part, and the controller 150 may adjust the identification part according to the corresponding input. The adjustment of the identification part according to the user's selection may be additionally performed after the automatic extraction process.

제어부(150)는 자동 추출 처리 시, 도 3 내지 도 12에 도시된 바와 같이, 의료 영상에서 다양한 신체 부위에 대한 랜드 마크나, 보철 등의 개체 부위에 대한 랜드 마크(즉, 객체 부위에 대한 위치 또는 형상을 대표하여 나타내기 위한 하나 이상의 점, 선 또는 면)를 표시할 수 있다(이하, 이러한 신체 부위 또는 객체 부위에 대한 랜드 마크를 단순히 “랜드 마크”라 지칭함). 물론, 이러한 랜드 마크는 입력부(110)를 통해 사용자가 자동 추출 미처리 시에 설정하거나 또는 자동 추출 처리 후에도 설정할 수 있다. 이때, 해당 신체 부위 또는 그 신체 부위의 중요도에 따라 자동 추출 처리 또는 사용자의 선택에 따라 다양한 색으로 표시될 수 있다.3 to 12, the control unit 150 may use landmarks for various body parts in medical images or landmarks for object parts such as prosthesis (ie, locations of object parts) during automatic extraction processing. Alternatively, one or more points, lines, or planes to represent the shape may be displayed (hereinafter, landmarks for these body parts or object parts are simply referred to as “landmarks”). Of course, these landmarks can be set by the user through the input unit 110 when the automatic extraction process is not performed or after the automatic extraction process. At this time, it may be displayed in various colors according to the automatic extraction process or the user's selection according to the body part or the importance of the body part.

도 3을 참조하면, 측모 두부에 대한 X-ray 영상에서, 각 점은 치과 치료 시 참고할 수 있는 랜드 마크로서, 붉은색 및 주황색 점은 경조직의 랜드 마크를 나타내고, 초록색 점은 연조직의 랜드 마크를 나타낸다. 이때, 붉은색 점은 치과 치료 시 중요도가 높은 랜드 마크, 주황색 점은 치과 치료 시 중요도가 중간 정도인 랜드 마크, 초록색 점은 치과 치료 시 중요도가 낮은 랜드 마크일 수 있다. 즉, 각 랜드 마크는 그 중요도에 따라 가중치가 설정되며 해당 가중치 범위에 따라 다양한 색상으로 설정될 수 있다.Referring to FIG. 3, in the X-ray image of the temporal head, each point is a landmark that can be referred to during dental treatment, red and orange dots represent hard tissue landmarks, and green dots represent soft tissue landmarks. indicate In this case, red dots may be landmarks of high importance in dental treatment, orange dots may be landmarks of medium importance in dental treatment, and green dots may be landmarks of low importance in dental treatment. That is, a weight is set for each landmark according to its importance, and various colors may be set according to the weight range.

상술한 바와 같이, 제어부(150)는 자동 추출 처리 또는 사용자 설정을 통해 대상자의 대상 신체 부위를 중요도의 가중치 범위에 따라 다수의 부분 영역(의료 영상의 신체 부위 중 어느 영역)으로 구분하되, 각 부분 영역을 다양한 색상으로 표시할 수 있다. 또한, 제어부(150)는 적용 가중치에 따라 식별 부분에 포함되는 부분 영역의 종류를 조절할 수 있다. 즉, 일정 이상 범위의 가중치를 가지는 부분 영역이 식별 부분에 포함되도록 사용자가 입력부(110)를 통해 적용 가중치를 선택할 수 있으며, 이 경우에 제어부(150)는 해당 가중치 범위에 포함되는 랜드 마크를 식별 부분으로 설정할 수 있다. As described above, the control unit 150 divides the subject's target body part into a plurality of partial regions (any region of the body parts of the medical image) according to the weight range of importance through automatic extraction processing or user setting, and each part Areas can be displayed in different colors. Also, the controller 150 may adjust the type of partial area included in the identification part according to the applied weight. That is, the user may select the applied weight through the input unit 110 so that a partial area having a weight range of a certain range or more is included in the identification part, and in this case, the controller 150 identifies a landmark included in the corresponding weight range. It can be set in parts.

예를 들어, 도 3에서, 가중치 범위가 가장 높은 제1 부분 영역은 붉은색 점들이고, 가중치 범위가 제1 부분 영역 보다 낮은 제2 부분 영역은 주황색 점들이며, 가중치 범위가 가장 낮은 제3 부분 영역은 초록색 점들을 포함한 나머지 모든 신체 부위의 영역일 수 있다. 이때, 사용자가 선택한 적용 가중치가 높아질수록, 제1 부분 영역만이 식별 부분으로 설정될 수 있다. For example, in FIG. 3 , a first subregion having the highest weight range is red dots, a second subregion having a lower weight range than the first subregion is orange dots, and a third subregion having the lowest weight range. may be the area of all other body parts including the green dots. In this case, as the applied weight selected by the user increases, only the first partial area may be set as the identification portion.

반대로, 적용 가중치가 낮아질수록, 제1 부분 영역 외에 제2 부분 영역도 식별 부분으로 설정될 수 있다. 다만, 초록색 점은 측모 외부 표면의 연조직에 대한 랜드 마크이므로, 적용 가중치가 최하로 설정되더라도 치과 치료의 목적에 따라 식별 부분으로 설정되지 않고 비식별 부분으로 설정될 수 있다. 이 경우, 적어도 붉은색 점들은 식별 부분으로 선택될 수 있으며, 적어도 초록색 점들은 비식별 부분으로 선택될 수 있다. 다만, 본 발명이 상술한 예에 한정되는 것은 아니다.Conversely, as the applied weight decreases, the second partial area in addition to the first partial area may be set as the identification part. However, since the green dot is a landmark for the soft tissue of the outer surface of the side hair, even if the applied weight is set to the lowest, it may not be set as an identification part but a non-identification part according to the purpose of dental treatment. In this case, at least red dots may be selected as identification parts, and at least green dots may be selected as non-identification parts. However, the present invention is not limited to the above examples.

한편, 도 4 내지 도 6에서, 붉은색 점은 정모 또는 측모 두부에서의 각 신체 부위에 대한 랜드 마크를 나타낸다. 도 7에서, 붉은색 점은 정면에서의 치아에 대한 랜드 마크를 나타내고, 노란색 점은 정면에서의 입술에 대한 랜드 마크를 나타낸다. 도 8 내지 도 11에서, 붉은색 점은 정면 또는 측면에서의 상악 치아에 대한 랜드 마크를 나타내고, 노란색 점은 정면 또는 측면에서의 하악 치아에 대한 랜드 마크를 나타낸다. 즉, 각 랜드 마크는 자동 추출 처리 또는 사용자의 설정에 따라, 그 중요도의 가중치에 따른 다양한 색상으로 표시될 뿐 아니라, 도 7 내지 도 11에 도시된 바와 같이, 그 신체 부위의 종류에 따른 다양한 색상으로도 표시될 수 있다. 또한, 신체 부위 중에서도, 경조직에 대한 랜드 마크와, 연조직에 대한 랜드 마크는 서로 다른 다양한 색상으로 표시될 수 있다. 또한, 신체 부위에 대한 랜드 마크와 개체 부위에 대한 랜드 마크도 서로 다른 다양한 색상으로 표시될 수 있다. 이러한 다양한 색상 표시에 따라, 의료인의 사용자는 대상 신체 부위 종류 또는 치료 종류(목적)에 맞게 식별 부분의 선택을 보다 용이하게 선택할 수 있다.Meanwhile, in FIGS. 4 to 6 , red dots represent landmarks for each body part in the top or side hairs. In Fig. 7, red dots represent landmarks for the teeth from the front, and yellow dots represent landmarks for the lips from the front. 8 to 11, red dots represent landmarks for the upper teeth from the front or side, and yellow dots represent landmarks for the lower teeth from the front or side. That is, each landmark is not only displayed in various colors according to the weight of its importance according to automatic extraction process or user setting, but also various colors according to the type of the body part as shown in FIGS. 7 to 11 can also be displayed as Also, among body parts, landmarks for hard tissues and landmarks for soft tissues may be displayed in various colors different from each other. In addition, landmarks for body parts and landmarks for object parts may also be displayed in various colors different from each other. According to these various color displays, a user of a medical person can more easily select an identification part according to the type of target body part or the type (purpose) of treatment.

참고로, 도 5에서, 각 랜드 마크의 부위에 대한 상세한 내용은 다음과 같다.For reference, in FIG. 5, details of each landmark are as follows.

번호number 상세 부위detail part 번호number 상세 부위detail part 1One GlabellaGlabella 1212 Upper embrasureUpper embrasure 22 Soft tissue NasionSoft tissue Nasion 1313 Lower embrasureLower embrasure 33 Nasal bridgeNasal bridge 1414 Stomion inferiusStomion inferius 44 Dorsum of NoseDorsum of Nose 1515 Lower lipLower lip 55 PronasalePronasale 1616 Labrale inferiusLabrale inferius 66 ColumellaColumella 1717 Soft tissue B pointSoft tissue B point 77 SubnasaleSubnasale 1818 Soft tissue PogonionSoft tissue pogonion 88 Soft tissue A pointSoft tissue A point 1919 Soft tissue GnathionSoft tissue gnathion 99 Labrale superiusLabrale superius 2020 Soft tissue MentonSoft tissue Menton 1010 Upper lipUpper lip 2121 Submandibular pointSubmandibular point 1111 Stomion superiusStomion superius 2222 Cervical pointCervical point

한편, 대상 신체 부위에 대한 윤곽선을 이루는 윤곽점들 중 서로 이격된 복수개가 자동 추출 처리 또는 사용자의 설정에 따라 식별 부분으로 설정될 수 있다. 물론, 해당 대상 신체 부위의 나머지 부분이 치아 비식별 부분으로 설정될 수 있다.Meanwhile, among the contour points constituting the contour of the target body part, a plurality of spaced apart contour points may be set as an identification part according to automatic extraction process or user's setting. Of course, the rest of the target body part may be set as the tooth non-identification part.

즉, 도 7 내지 도 11을 참조하면, 치과 치료를 위해 의료 영상의 대상 신체 부위가 치아를 포함하는 경우, 해당 치아의 윤곽선을 이루는 윤곽점들 중 서로 이격된 복수개가 자동 추출 처리 또는 사용자의 설정에 따라 식별 부분으로 설정될 수 있다. 또한, 해당 치아의 나머지 부분은 치아 비식별 부분으로 설정될 수 있다. 예를 들어, 하나의 치아에 대한 식별 부분은 4개의 이격된 윤곽점이 포함될 수 있으며, 각 점은 해당 치아의 상하좌우의 위치를 대표하는 점일 수 있다. 다만, 본 발명이 상술한 예에 한정되는 것은 아니다.That is, referring to FIGS. 7 to 11 , when a target body part of a medical image includes a tooth for dental treatment, a plurality of spaced apart contour points forming the contour of the corresponding tooth are automatically extracted or set by the user. It can be set as an identification part according to. In addition, the remaining part of the corresponding tooth may be set as a tooth non-identification part. For example, the identification part for one tooth may include four spaced contour points, and each point may be a point representing the top, bottom, left, and right positions of the corresponding tooth. However, the present invention is not limited to the above examples.

한편, 자동 추출 처리를 위해, 제어부(150)는 대상 신체 부위 종류, 치료 종류(목적), 의료 영상 종류 등에 따라 랜드 마크를 설정하여 표시하는 다양한 알고리즘을 포함할 수 있다.Meanwhile, for automatic extraction processing, the controller 150 may include various algorithms for setting and displaying landmarks according to the target body part type, treatment type (purpose), medical image type, and the like.

특히, 제어부(150)는 머신 러닝 모델(machine learning model)을 통해 해당 랜드 마크를 설정할 수 있다. 이때, 머신 러닝 모델은 입력 데이터 및 출력 데이터 쌍(데이터셋)의 학습 데이터를 통해 지도 학습(supervised learning)의 머신 러닝 기법에 따라 학습된 모델일 수 있다. 즉, 머신 러닝 모델은 의료 영상의 입력 데이터와, 해당 의료 영상에서 랜드 마크가 설정된 출력 데이터를 포함하는 학습 데이터 세트를 이용해 학습될 수 있다. 이러한 출력 데이터의 해당 랜드 마크의 설정은 대상 신체 부위 종류, 치료 종류(목적), 의료 영상 종류 등에 따라 의료인 등에 의해 설정될 수 있다.In particular, the controller 150 may set a corresponding landmark through a machine learning model. In this case, the machine learning model may be a model learned according to a machine learning technique of supervised learning through training data of input data and output data pairs (datasets). That is, the machine learning model may be learned using a training data set including input data of a medical image and output data in which landmarks are set in the corresponding medical image. A corresponding landmark of the output data may be set by a medical person or the like according to the type of target body part, type of treatment (purpose), type of medical image, and the like.

이에 따라, 머신 러닝 모델은 입력 데이터인 의료 영상과 출력 데이터인 랜드 마크(또는 랜드 마크가 설정된 의료 영상) 간의 관계에 대한 함수를 가지며, 이를 다양한 파라미터를 이용해 표현한다. 예를 들어, 머신 러닝 모델은 가중치(Weights)와 편항치(Biases) 등의 파라미터를 이용해 의료 영상과 랜드 마크 간의 관계를 표현할 수 있다. 즉, 기 학습된 머신 러닝 모델에 의료 영상의 입력 데이터가 입력되는 경우, 해당 함수에 따른 랜드 마크(또는 랜드 마크가 설정된 의료 영상)의 출력 데이터가 출력될 수 있다.Accordingly, the machine learning model has a function for a relationship between a medical image, which is input data, and a landmark (or a medical image in which a landmark is set), which is output data, and is expressed using various parameters. For example, a machine learning model may express a relationship between a medical image and a landmark using parameters such as weights and biases. That is, when input data of a medical image is input to a pre-learned machine learning model, output data of a landmark (or a medical image in which a landmark is set) according to a corresponding function may be output.

예를 들어, 머신 러닝 기법은 Artificial neural network, Boosting, Bayesian statistics, Decision tree, Gaussian process regression, Nearest neighbor algorithm, Support vector machine, Random forests, Symbolic machine learning, Ensembles of classifiers, 또는 Deep learning 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, machine learning techniques may include Artificial neural network, Boosting, Bayesian statistics, Decision tree, Gaussian process regression, Nearest neighbor algorithm, Support vector machine, Random forests, Symbolic machine learning, Ensembles of classifiers, or Deep learning. It may, but is not limited thereto.

특히, 딥 러닝(Deep learning) 기법에 의해 학습된 딥 러닝 모델은 입력 데이터와 출력 데이터 간의 관계를 다수의 층(레이어)으로 표현하며, 이러한 다수의 표현층을 “신경망(neural network)”라 지칭하기도 한다. 이러한 딥 러닝 모델은 본 발명과 같은 영상 처리 분야에서 고무적인 성능을 가질 수 있다.In particular, deep learning models learned by deep learning techniques express the relationship between input data and output data as multiple layers (layers), and these multiple expression layers are referred to as “neural networks.” do it too Such a deep learning model may have impressive performance in the field of image processing such as the present invention.

예를 들어, 딥 러닝 기법은 Deep Neural Network(DNN), Convolutional Neural Network(CNN), Recurrent Neural Network(RNN), Restricted Boltzmann Machine(RBM), Deep Belief Network(DBN), Deep Q-Networks 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, deep learning techniques include Deep Neural Network (DNN), Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Deep Q-Networks, etc. It can be done, but is not limited thereto.

이후, S102는 비식별 부분을 다른 대상자의 해당 대상 신체 부위의 영상(이하, “가공 영상”이라 지칭함)으로 매핑하여 가명화 영역을 설정함으로써 가명화 영상을 생성하는 단계이다. 즉, 가명화 영상에서, 가명화 영역은 가공 영상으로 대체된 비식별 부분의 영역을 지칭한다. 이때, 식별 부분은 영상 처리가 이루어지지 않고 의료 영상에서의 원래 값이 그대로 유지될 수 있다. Thereafter, in S102, a pseudonymized image is generated by mapping the non-identified part to an image of a corresponding target body part of another subject (hereinafter, referred to as “processed image”) and setting a pseudonymized region. That is, in the pseudonymized image, the pseudonymized region refers to the region of the non-identified portion replaced with the processed image. In this case, the identification part may not be subjected to image processing, and the original value of the medical image may be maintained.

즉, 식별 부분 및 비식별 부분은 각각 하나 이상의 픽셀을 포함하는데, 해당 각 픽셀에 대해서는 위치 값 및 픽셀 값(색상 값 등)이 픽셀 정보로 저장된다. 이때, 비식별 부분에 해당하는 픽셀은 가공 영상에 대응되는 해당 픽셀로 대체될 수 있는 반면, 식별 부분에 해당하는 픽셀은 가공 영상에 대응되는 해당 픽셀로 대체되지 않고 원래 랜드 마크의 특징(가령, 그 위치 값, 또는 그 위치 값 및 픽셀 값)을 유지할 수 있다. 이러한 식별 부분의 랜드 마크에 대한 정보(특히, 그 위치 값에 대한 정보)는 메타 정보로 가명화 영상과 함께 별도로 메모리(140)에 저장될 수 있다. 가명화 장치(100)가 서버 등으로 동작하는 경우, 이러한 메타 정보는 단말 등으로 가명화 영상 전송 시 선택적으로 전송될 수도 있다.That is, each of the identification part and the non-identification part includes one or more pixels, and for each corresponding pixel, a position value and a pixel value (color value, etc.) are stored as pixel information. At this time, pixels corresponding to the non-identification part may be replaced with corresponding pixels corresponding to the processed image, whereas pixels corresponding to the identification part are not replaced with corresponding pixels corresponding to the processed image, and the original landmark characteristics (eg, its position value, or its position value and pixel value). Information on the landmark of the identification part (in particular, information on the location value) may be separately stored in the memory 140 together with the pseudonymized image as meta information. When the pseudonymization device 100 operates as a server or the like, such meta information may be selectively transmitted when a pseudonymized image is transmitted to a terminal or the like.

한편, 가명화 영상을 생성하는 방법으로는 다양한 영상 처리 기법을 이용하거나 머신 러닝 모델을 이용할 수 있다. 이를 통해 생성된 가명화 영상은 합성된 가공 영역과 원래 랜드 마크의 특성이 유지된 식별 부분을 함께 포함하되, 의료인(의사 등)에게 해당 대상 신체 부위에 대한 영상인 것으로 인식되는 영상이어야 한다. 즉, 가명화 영상은 해당 대상 신체 부위의 신체 구조를 가지면서 다른 대상자의 해당 대상 신체 부위로 인식되는 페이크 영상(fake image)이어야 한다. 예를 들어, A 형상의 치아에 대한 가명화 영상은 전혀 다른 B 형상의 치아에 대한 영상이되, A 형상의 치아가 가지고 있던 식별 부분의 랜드 마크 특성은 그대로 포함하고 있는 영상이어야 한다.Meanwhile, as a method of generating a pseudonymized image, various image processing techniques or machine learning models may be used. The pseudonymized image generated through this includes the synthesized processed region and the identification portion in which the characteristics of the original landmark are maintained, but must be an image recognized by medical personnel (such as a doctor) as an image of the target body part. That is, the pseudonymized image must be a fake image that has the body structure of the corresponding target body part and is recognized as the corresponding target body part of another target. For example, a pseudonymized image of an A-shaped tooth must be an image of a completely different B-shaped tooth, but must include the landmark characteristics of the identification portion of the A-shaped tooth as it is.

가령, 영상 처리 기법을 이용하는 경우, 종래에 기 저장된 다른 대상자의 의료 영상에서, 해당 대상 신체 부위들을 합성하되 대상자의 의료 영상의 식별 부분에 대한 랜드 마크의 특성을 그대로 유지하면서 비식별 부분만을 합성할 수 있다. 이러한 합성은 하나 외에 복수의 다른 대상자의 의료 영상을 이용해 합성할 수도 있다.For example, when an image processing technique is used, corresponding target body parts are synthesized from previously stored medical images of other subjects, but only non-identified parts are synthesized while maintaining the landmark characteristics of the identified parts of the subject's medical images. can Such synthesis may be performed using a plurality of medical images of a subject other than one.

도 13 및 도 14는 GAN 알고리즘의 머신 러닝 모델에 대한 개념도를 나타낸다.13 and 14 show conceptual diagrams of machine learning models of GAN algorithms.

또한, 머신 러닝 모델을 이용할 경우, 지도 방식 외에도 비지도 방식의 머신 러닝 기법으로 학습된 머신 러닝 모델을 이용해 가명화 영상을 생성할 수 있다. 특히, 도 13 및 도 14에 도시된 바와 같이, GAN(Generative Adversarial Network; 생성 적대적 네트워크) 알고리즘의 머신 러닝 모델을 이용해 가명화 영상을 생성할 수 있다. In addition, when a machine learning model is used, a pseudonymized image may be generated using a machine learning model learned by an unsupervised machine learning technique in addition to a supervised method. In particular, as shown in FIGS. 13 and 14 , a pseudonymized image may be generated using a machine learning model of a generative adversarial network (GAN) algorithm.

이러한 GAN 알고리즘은 미리 정의된 2개의 네트워크 모델인 생성기(G)와 분류기(D)를 이용한 방식이다. 즉, 분류기(D)를 먼저 학습시킨 후, 생성기(G)를 학습시키며, 서로의 결과를 주고받으면서 반복 학습시키는 방식으로서, 생성기(G)와 분류기(D)가 서로 경쟁하여 조금씩 학습되는 방식이다. 이때, 분류기(D)의 경우, 실제 의료 영상(진짜 데이터)을 입력 받아 해당 의학 영상이 실제(진짜)인 것으로 분류하도록 학습시킨 후, 이와 반대로 생성기(G)에서 생성한 합성 의학 영상(가짜 데이터)을 입력 받아 해당 의학 영상이 합성(가짜)인 것으로 분류하도록 학습될 수 있다. 또한, 생성기(G)의 경우, 의료 영상 및 그 식별 부분의 랜드 마크를 입력 받아 해당 식별 부분의 랜드 마크 특성을 그대로 두면서 가명화 영역에 대해서는 다른 대상자의 해당 대상 신체 부위인 것으로 인식되게 하는 합성 의료 영상을 가명화 영상으로 생성하도록 학습될 수 있다. 이때, 생성기(G)에서 생성한 가짜 데이터를 판별기(D)에 입력하고, 가짜 데이터를 진짜라고 분류할 만큼 진짜 데이터와 유사한 데이터를 만들어 내도록 생성기(G)를 학습시킬 수 있다. 다만, 종래와 달리, 생성기(G)에서 생성된 가공 영상이 의료인(의사 등)에게 해당 대상 신체 부위에 대한 영상인 것으로 인식되는 정도의 영상이면 되므로, 그 학습 수준이 너무 높을 필요까지는 없다. 따라서, 본 발명에 GAN 알고리즘이 적용되는 경우 학습 시간 및 그 가명화 처리 시간이 상당히 단축될 수 있는 이점이 있다.This GAN algorithm is a method using two predefined network models, a generator (G) and a classifier (D). That is, the classifier (D) is trained first, then the generator (G) is trained, and the generator (G) and the classifier (D) compete with each other to learn little by little. . At this time, in the case of the classifier (D), after receiving actual medical images (real data) and learning to classify the corresponding medical images as real (real), on the contrary, synthetic medical images (fake data) generated by the generator (G) ) and can be learned to classify the corresponding medical image as synthetic (fake). In addition, in the case of the generator (G), a medical image and the landmark of the identification part are input, and the landmark characteristics of the identification part are left as they are, and the pseudonymization area is recognized as the corresponding target body part of another subject. Synthetic medical It can be trained to generate an image as a pseudonymized image. At this time, the fake data generated by the generator (G) is input to the discriminator (D), and the generator (G) can be trained to produce data similar to real data enough to classify the fake data as genuine. However, unlike the prior art, since the processed image generated by the generator G only needs to be recognized as an image of the target body part by a medical person (doctor, etc.), the learning level does not need to be too high. Therefore, when the GAN algorithm is applied to the present invention, there is an advantage in that the learning time and the pseudonymization processing time can be significantly reduced.

예를 들어, GAN 알고리즘은 일반적인 GAN 외에도, DCGAN(Deep Convolutional GAN), LSGAN(Least Squares GAN), SGAN(Semi-Supervised GAN), ACGAN(Auxiliary Classifier GAN), WGAN(Wasserstein Generative Adversarial Networks, ConGAN(Continuous GAN), cGAN(Conditional GAN), SNcGAN(Spectral Normalization Conditional GAN), starGAN 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.For example, GAN algorithms include DCGAN (Deep Convolutional GAN), LSGAN (Least Squares GAN), SGAN (Semi-Supervised GAN), ACGAN (Auxiliary Classifier GAN), WGAN (Wasserstein Generative Adversarial Networks, ConGAN (Continuous GAN), conditional GAN (cGAN), spectral normalization conditional GAN (SNcGAN), starGAN, etc., but is not limited thereto.

도 15는 본 발명의 다른 일 실시예에 따른 가명화 방법의 순서도를 나타낸다.15 is a flowchart of a pseudonymization method according to another embodiment of the present invention.

한편, 도 15를 참조하면, 본 발명의 다른 일 실시예에 따른 가명화 방법은 S201 내지 S204을 포함할 수 있다. 즉, S201 내지 S204는 가명화 장치(100)가 서버 등으로 동작하는 경우에 대한 과정일 수 있다. 이때, S201 내지 S204는 각각 제어부(150)의 하드웨어 또는 소프트웨어를 통해 그 수행이 제어될 수 있다. Meanwhile, referring to FIG. 15 , the pseudonymization method according to another embodiment of the present invention may include steps S201 to S204. That is, steps S201 to S204 may be processes when the pseudonymization device 100 operates as a server or the like. At this time, the execution of S201 to S204 may be controlled through hardware or software of the control unit 150, respectively.

먼저, S201은 단말 등으로부터 의료 영상을 수신하는 단계이다. 즉, 단말은 가명화 처리를 수행하는 서버인 가명화 장치(100)로 자신이 가지고 있는 의료 영상을 전송할 수 있다. 이때, 제어부(150)는 통신부(120)를 통해 해당 의료 영상을 수신하도록 제어할 수 있으며, 수신된 의료 영상을 메모리(140)에 저장하도록 제어할 수 있다.First, S201 is a step of receiving a medical image from a terminal or the like. That is, the terminal may transmit its own medical image to the pseudonymization device 100, which is a server that performs pseudonymization processing. In this case, the control unit 150 may control to receive the corresponding medical image through the communication unit 120 and control to store the received medical image in the memory 140 .

이후, S202 및 S203이 수행된다. 다만, S202 및 S203은 상술한 S101 및 S102와 각각 대응하므로, 이에 대한 설명은 생략하도록 한다.After that, S202 and S203 are performed. However, since S202 and S203 correspond to the above-described S101 and S102, respectively, a description thereof will be omitted.

이후, S204는 S202 및 S203을 통해 가명화 처리된 가명화 영상을 해당 단말 또는 타 단말로 전송하는 단계이다. 이때, 제어부(150)는 식별 부분의 랜드 마크 특성에 대한 정보인 메타 정보를 선택적으로 전송할 수 있다.Thereafter, S204 is a step of transmitting the pseudonymized image processed through S202 and S203 to a corresponding terminal or another terminal. At this time, the controller 150 may selectively transmit meta information, which is information about landmark characteristics of the identification part.

상술한 바와 같이 구성되는 본 발명은 의료 영상에 대해 가명화 처리하는 새로운 기술을 제안함으로써 의료 영상 활용 시 개인정보보호 등에 관련된 법에 저촉되는 이슈를 방지할 수 있는 이점이 있다. 또한, 본 발명은 리얼리티(reality)가 유지되는, 즉 의료인(의사 등)에게 실제로 존재하는 것으로 인식될 수 있는 가명화 영상을 생성할 수 있는 이점이 있다. 또한, 본 발명은 GAN 알고리즘을 적용하여 가명화 영상을 생성하는 경우 그 학습 시간 및 그 가명화 처리 시간이 상당히 단축될 수 있는 이점이 있다.The present invention configured as described above has an advantage of preventing issues that violate laws related to personal information protection when using medical images by proposing a new technology for pseudonymizing medical images. In addition, the present invention has an advantage of being able to generate a pseudonymized image that maintains reality, that is, can be recognized as actually existing by a medical person (doctor, etc.). In addition, the present invention has an advantage in that the learning time and the pseudonymization processing time can be significantly reduced when a pseudonymized image is generated by applying the GAN algorithm.

본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention is not limited to the described embodiments, and should be defined by the following claims and equivalents thereof.

100: 가명화 장치 110: 입력부
120: 통신부 130: 디스플레이
140: 메모리 150: 제어부
100: pseudonymization device 110: input unit
120: communication unit 130: display
140: memory 150: control unit

Claims (15)

전자 장치가 수행하는 의료 영상의 가명화 방법으로서,
대상자의 두부 내 신체 부위인 대상 신체 부위를 포함하는 의료 영상에서, 상기 대상자에 대한 진단, 교정 또는 수술을 포함하는 치료를 위해 의료인에게 제공되어야 하는 특징 부분인 식별 부분과, 상기 치료 시에 상기 의료인에게 제공되지 않아도 되는 부분인 비식별 부분을 각각 구분하는 단계; 및
다른 대상자의 해당 대상 신체 부위의 영상인 가공 영상을 이용하여 상기 비식별 부분을 매핑함으로써, 상기 식별 부분의 영역과 상기 가공 영상을 이용하여 매핑된 가명화 영역을 각각 포함하는 가명화 영상을 생성하는 단계;를 포함하며,
상기 가명화 영상은 해당 대상 신체 부위에 대한 신체 구조를 가지면서 다른 대상자의 해당 대상 신체 부위로 인식되는 페이크 영상(fake image)으로서, 다른 대상자의 해당 대상 신체 부위에 대한 영상이되 대상자의 해당 대상 신체 부위에 포함된 상기 식별 부분의 랜드 마크 특성을 포함하는 영상이고,
상기 구분하는 단계는 대상자의 대상 신체 부위를 중요도의 가중치 범위에 따라 다수의 부분 영역으로 구분하며, 상기 다수의 부분 영역 중에서 사용자에 의해 선택되는 적용 가중치에 따라 상기 식별 부분에 포함되는 부분 영역의 종류를 조절하는 가명화 방법.
A pseudonymization method for medical images performed by an electronic device,
In a medical image including a target body part that is a body part of a subject's head, an identification part, which is a feature part to be provided to a medical person for treatment including diagnosis, correction, or surgery on the subject, and the medical person during the treatment Separating each non-identification part, which is a part that does not have to be provided to the user; and
generating a pseudonymized image each including a region of the identified portion and a pseudonymized region mapped using the processed image by mapping the non-identified portion using a processed image that is an image of a corresponding target body part of another subject Step; including,
The pseudonymized image is a fake image that has a body structure for a corresponding target body part and is recognized as a corresponding target body part of another target, and is an image of a corresponding target body part of another target, but is a corresponding target of the target An image including landmark characteristics of the identification part included in the body part,
In the step of classifying, the target body part of the subject is divided into a plurality of subregions according to a weight range of importance, and a type of the subregion included in the identification part according to an applied weight selected by a user from among the plurality of subregions. Pseudonymization method to control.
삭제delete 제1항에 있어서,
상기 가공 영상은 다양한 다른 대상자의 해당 대상 신체 부위의 의료 영상을 이용하여 합성된 영상인 가명화 방법.
According to claim 1,
The pseudonymization method of claim 1 , wherein the processed image is an image synthesized using medical images of corresponding target body parts of various other subjects.
제1항에 있어서,
상기 가공 영상 또는 상기 가명화 영상은 기 학습된 머신 러닝 모델을 이용해 생성되는 가명화 방법.
According to claim 1,
The pseudonymization method of claim 1 , wherein the processed image or the pseudonymized image is generated using a pre-learned machine learning model.
제4항에 있어서,
상기 머신 러닝 모델은 GAN(Generative Adversarial Network) 알고리즘의 머신 러닝으로 학습된 가명화 방법.
According to claim 4,
The machine learning model is a pseudonymization method learned by machine learning of a generative adversarial network (GAN) algorithm.
제1항에 있어서,
상기 구분하는 단계는 사용자의 선택에 따라 상기 식별 부분을 조절하는 가명화 방법.
According to claim 1,
The distinguishing step is a pseudonymization method of adjusting the identification part according to a user's selection.
제6항에 있어서,
상기 구분하는 단계는 신체 부위 종류, 경조직/연조직 여부, 또는 신체 외 개체 부위 종류에 따라 표시된 랜드 마크 중에서 상기 식별 부분이 선택되는 가명화 방법.
According to claim 6,
In the step of classifying, the identification part is selected from landmarks displayed according to body part type, hard tissue/soft tissue type, or object part type other than the body.
삭제delete 제1항에 있어서,
상기 구분하는 단계는 상기 의료 영상에서 각 부분 영역을 다양한 색상으로 표시하는 가명화 방법.
According to claim 1,
The step of classifying is a pseudonymization method of displaying each partial area in various colors in the medical image.
제1항에 있어서,
상기 부분 영역은 가중치 범위가 가장 높은 제1 부분 영역, 가중치 범위가 제1 부분 영역 보다 낮은 제2 부분 영역, 및 가중치 범위가 가장 낮은 제3 부분 영역을 포함하며,
상기 구분하는 단계는 적어도 제1 부분 영역에서 상기 식별 부분을 선택하고 적어도 제3 부분 영역에서 상기 비식별 부분을 선택하는 가명화 방법.
According to claim 1,
The subregion includes a first subregion having the highest weight range, a second subregion having a lower weight range than the first subregion, and a third subregion having the lowest weight range,
In the distinguishing step, the identification part is selected from at least a first partial area and the non-identified part is selected from at least a third partial area.
제10항에 있어서,
상기 구분하는 단계는 적용 가중치가 낮아짐에 따라 제1 부분 영역 외에 제2 부분 영역도 식별 부분에 포함하는 가명화 방법.
According to claim 10,
In the step of classifying, as the applied weight decreases, the pseudonymization method includes including the second partial area as well as the first partial area in the identification part.
제1항에 있어서,
상기 구분하는 단계는 대상 신체 부위의 윤곽선을 이루는 윤곽점들 중 서로 이격된 복수개를 식별 부분으로 구분하는 가명화 방법.
According to claim 1,
In the step of distinguishing, a pseudonymization method of distinguishing a plurality of spaced apart from each other as an identification part among the contour points constituting the contour of the target body part.
제1항에 있어서,
상기 식별 부분에 대한 정보를 메타 정보로 저장하는 단계; 및
상기 가명화 영상을 타 전자 장치로 전송 시, 상기 메타 정보의 전송 여부를 선택하는 단계;를 더 포함하는 가명화 방법.
According to claim 1,
storing information about the identification part as meta information; and
The pseudonymization method further comprising selecting whether or not to transmit the meta information when transmitting the pseudonymized video to another electronic device.
대상자의 두부 내 신체 부위인 대상 신체 부위를 포함하는 의료 영상을 저장한 메모리; 및
상기 의료 영상에 대한 가명화 처리를 제어하는 제어부;를 포함하며,
상기 제어부는 상기 의료 영상의 상기 대상 신체 부위 중 상기 대상자에 대한 진단, 교정 또는 수술을 포함하는 치료를 위해 의료인에게 제공되어야 하는 특징 부분인 식별 부분과, 상기 대상 신체 부위 중 상기 치료 시에 상기 의료인에게 제공되지 않아도 되는 부분인 비식별 부분을 각각 구분하며, 다른 대상자의 해당 대상 신체 부위의 영상인 가공 영상을 이용하여 상기 비식별 부분을 매핑함으로써, 상기 식별 부분의 영역과 상기 가공 영상을 이용하여 매핑된 가명화 영역을 각각 포함하는 가명화 영상을 생성하고,
상기 가명화 영상은 해당 대상 신체 부위에 대한 신체 구조를 가지면서 다른 대상자의 해당 대상 신체 부위로 인식되는 페이크 영상(fake image)으로서, 다른 대상자의 해당 대상 신체 부위에 대한 영상이되 대상자의 해당 대상 신체 부위에 포함된 상기 식별 부분의 랜드 마크 특성을 포함하는 영상이고,
상기 제어부는 대상자의 대상 신체 부위를 중요도의 가중치 범위에 따라 다수의 부분 영역으로 구분하며, 상기 다수의 부분 영역 중에서 사용자에 의해 선택되는 적용 가중치에 따라 상기 식별 부분에 포함되는 부분 영역의 종류를 조절하는 가명화 장치.
a memory storing a medical image including a body part of the subject, which is a part of the subject's head; and
A control unit controlling a pseudonymization process for the medical image;
The control unit determines an identification part, which is a feature part to be provided to a medical person for treatment including diagnosis, correction, or surgery, of the target body part of the medical image, and the medical person during the treatment among the target body parts. By identifying the non-identification part, which is a part that does not need to be provided to the subject, and mapping the non-identification part using a processed image, which is an image of a target body part of another subject, using the region of the identified part and the processed image generating pseudonymized images each including the mapped pseudonymized regions;
The pseudonymized image is a fake image that has a body structure for a corresponding target body part and is recognized as a corresponding target body part of another target, and is an image of a corresponding target body part of another target, but is a corresponding target of the target An image including landmark characteristics of the identification part included in the body part,
The control unit divides the target body part of the subject into a plurality of subregions according to weight ranges of importance, and adjusts the type of the subregion included in the identification part according to an applied weight selected by a user from among the plurality of subregions. pseudonymization device.
단말로부터 수신한 대상자의 두부 내 신체 부위인 대상 신체 부위를 포함하는 의료 영상을 가명화 처리하는 서버로서,
상기 단말로부터 상기 의료 영상을 수신하며, 상기 단말로 가명화 영상을 전송하는 통신부; 및
상기 가명화 처리를 제어하는 제어부;를 포함하며,
상기 제어부는 상기 의료 영상의 상기 대상 신체 부위 중 상기 대상자에 대한 진단, 교정 또는 수술을 포함하는 치료를 위해 의료인에게 제공되어야 하는 특징 부분인 식별 부분과, 상기 대상 신체 부위 중 상기 치료 시에 상기 의료인에게 제공되지 않아도 되는 부분인 비식별 부분을 각각 구분하며, 다른 대상자의 해당 대상 신체 부위의 영상인 가공 영상을 이용하여 상기 비식별 부분을 매핑함으로써, 상기 식별 부분의 영역과 상기 가공 영상을 이용하여 매핑된 가명화 영역을 각각 포함하는 가명화 영상을 생성하고,
상기 가명화 영상은 해당 대상 신체 부위에 대한 신체 구조를 가지면서 다른 대상자의 해당 대상 신체 부위로 인식되는 페이크 영상(fake image)으로서, 다른 대상자의 해당 대상 신체 부위에 대한 영상이되 대상자의 해당 대상 신체 부위에 포함된 상기 식별 부분의 랜드 마크 특성을 포함하는 영상이고,
상기 제어부는 대상자의 대상 신체 부위를 중요도의 가중치 범위에 따라 다수의 부분 영역으로 구분하며, 상기 다수의 부분 영역 중에서 사용자에 의해 선택되는 적용 가중치에 따라 상기 식별 부분에 포함되는 부분 영역의 종류를 조절하는 가명화 서버.
A server for pseudonymizing a medical image including a target body part received from a terminal, which is a body part of the subject's head, comprising:
a communication unit that receives the medical image from the terminal and transmits the pseudonymized image to the terminal; and
Including; a control unit for controlling the pseudonymization process,
The control unit determines an identification part, which is a feature part to be provided to a medical person for treatment including diagnosis, correction, or surgery, of the target body part of the medical image, and the medical person during the treatment among the target body parts. By identifying the non-identification part, which is a part that does not need to be provided to the subject, and mapping the non-identification part using a processed image, which is an image of a target body part of another subject, using the region of the identified part and the processed image generating pseudonymized images each including the mapped pseudonymized regions;
The pseudonymized image is a fake image that has a body structure for a corresponding target body part and is recognized as a corresponding target body part of another target, and is an image of a corresponding target body part of another target, but is a corresponding target of the target An image including landmark characteristics of the identification part included in the body part,
The control unit divides the target body part of the subject into a plurality of subregions according to weight ranges of importance, and adjusts the type of the subregion included in the identification part according to an applied weight selected by a user from among the plurality of subregions. pseudonymization server.
KR1020200107873A 2020-08-26 2020-08-26 Method and apparatus for pseudonymizing medical image KR102542016B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200107873A KR102542016B1 (en) 2020-08-26 2020-08-26 Method and apparatus for pseudonymizing medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200107873A KR102542016B1 (en) 2020-08-26 2020-08-26 Method and apparatus for pseudonymizing medical image

Publications (2)

Publication Number Publication Date
KR20220026845A KR20220026845A (en) 2022-03-07
KR102542016B1 true KR102542016B1 (en) 2023-06-09

Family

ID=80817770

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200107873A KR102542016B1 (en) 2020-08-26 2020-08-26 Method and apparatus for pseudonymizing medical image

Country Status (1)

Country Link
KR (1) KR102542016B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102587233B1 (en) * 2022-11-24 2023-10-10 인하대학교 산학협력단 360 rgbd image synthesis from a sparse set of images with narrow field-of-view
KR102634835B1 (en) * 2023-03-29 2024-02-07 주식회사 더로벨 Techniques and systems for generating de-identified medical images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159982A (en) 2011-01-31 2012-08-23 Kddi Corp Device for protecting privacy of public information, method for protecting privacy of public information, and program
KR102083192B1 (en) * 2018-09-28 2020-03-02 주식회사 이고비드 A method for controlling video anonymization apparatus for enhancing anonymization performance and a apparatus video anonymization apparatus thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2229650A1 (en) 2007-12-28 2010-09-22 Koninklijke Philips Electronics N.V. Information interchange system and apparatus
KR20190126587A (en) * 2018-05-02 2019-11-12 재단법인 아산사회복지재단 Medical Image De-Identification System, Method and Computer Readable Recording Medium
KR102503939B1 (en) * 2018-09-28 2023-02-28 한국전자통신연구원 Face image de-identification apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012159982A (en) 2011-01-31 2012-08-23 Kddi Corp Device for protecting privacy of public information, method for protecting privacy of public information, and program
KR102083192B1 (en) * 2018-09-28 2020-03-02 주식회사 이고비드 A method for controlling video anonymization apparatus for enhancing anonymization performance and a apparatus video anonymization apparatus thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tao Li 외, AnonymousNet: Natural Face De-Identification with Measurable Privacy, CPVR, 2019.06.17., pp.1-10.*

Also Published As

Publication number Publication date
KR20220026845A (en) 2022-03-07

Similar Documents

Publication Publication Date Title
US11779213B2 (en) Metaverse system
US11033251B2 (en) Systems and methods for ultrasound imaging
CN109196526B (en) Method and system for generating multi-modal digital images
US20220192590A1 (en) Dental Image Feature Detection
EP3488283B1 (en) Head-mounted display system
US11779222B2 (en) Method of and imaging system for clinical sign detection
EP4023143A1 (en) Information processing device, information processing method, information processing system, and program
JP2021184297A (en) Methods for on-body gestural interfaces and projection display
JP2019519053A (en) Method and system for acquiring, analyzing and generating visual function data and modifying media based on the data
US20110311116A1 (en) System and methods for anatomical structure labeling
KR102542016B1 (en) Method and apparatus for pseudonymizing medical image
US20140363062A1 (en) Method and apparatus for generating a medical image, and method of generating personalized parameter value
CN109074869B (en) Medical diagnosis support device, information processing method, and medical diagnosis support system
US10299716B2 (en) Side face image-based mental state determination
KR20210006244A (en) Method and apparatus for recording and displaying dental care data on a digital dental image
US20220148723A1 (en) Medical examination of human body using haptics
CN108697310B (en) Image processing apparatus, image processing method, and program-recorded medium
JP6988926B2 (en) Image processing equipment, image processing method and image processing program
KR20210141197A (en) Method, apparatur, computer program and computer readable recording medium for providing augmented reality interface for telemedicine
US11393576B2 (en) Method for setting a medical imaging protocol, system for setting a medical instrument, computer program and computer-readable medium
JP2021058361A (en) Biological information acquisition device and program
KR102475962B1 (en) Method and apparatus for simulating clinical image
CN116829055A (en) Dermatological imaging system and method for generating a three-dimensional (3D) image model
US20220071510A1 (en) Method and apparatus for obtaining a 3d map of an eardrum
US20240032856A1 (en) Method and device for providing alopecia information

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant