KR102067340B1 - Method for generating breast masses according to the lesion characteristics and the system thereof - Google Patents
Method for generating breast masses according to the lesion characteristics and the system thereof Download PDFInfo
- Publication number
- KR102067340B1 KR102067340B1 KR1020180082134A KR20180082134A KR102067340B1 KR 102067340 B1 KR102067340 B1 KR 102067340B1 KR 1020180082134 A KR1020180082134 A KR 1020180082134A KR 20180082134 A KR20180082134 A KR 20180082134A KR 102067340 B1 KR102067340 B1 KR 102067340B1
- Authority
- KR
- South Korea
- Prior art keywords
- mass
- characteristic
- image
- embedded
- birads
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 206010006272 Breast mass Diseases 0.000 title abstract description 71
- 230000003902 lesion Effects 0.000 title abstract description 35
- 230000000007 visual effect Effects 0.000 claims description 91
- 238000012545 processing Methods 0.000 claims description 27
- 210000000481 breast Anatomy 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 18
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 4
- 208000026310 Breast neoplasm Diseases 0.000 abstract description 4
- 206010006187 Breast cancer Diseases 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 18
- 238000013213 extrapolation Methods 0.000 description 13
- 238000012549 training Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- INGWEZCOABYORO-UHFFFAOYSA-N 2-(furan-2-yl)-7-methyl-1h-1,8-naphthyridin-4-one Chemical compound N=1C2=NC(C)=CC=C2C(O)=CC=1C1=CC=CO1 INGWEZCOABYORO-UHFFFAOYSA-N 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 206010029113 Neovascularisation Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 108010002255 deoxyhemoglobin Proteins 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000004881 tumor cell Anatomy 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 206010029098 Neoplasm skin Diseases 0.000 description 1
- 208000000453 Skin Neoplasms Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000033115 angiogenesis Effects 0.000 description 1
- 230000002491 angiogenic effect Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 231100000517 death Toxicity 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)에 정의된 병변 특성에 따라 유방 종괴를 생성하는 기술에 관한 것으로, 보다 구체적으로는 BIRADS(Breast Imaging-Reporting and Data System) 특성을 임베딩하여 원하는 특성을 갖는 유방 종괴를 생성할 수 있는 유방 종괴 생성 방법 및 시스템에 관한 것이다.The present invention relates to a technique for generating breast masses according to lesion characteristics defined in the Breast Imaging-Reporting and Data System (BIRADS), and more particularly, to the BIASDS (Breast Imaging-Reporting and Data System). A method and system for generating breast masses that can embed features to produce breast masses with desired characteristics.
여성들에게 유방 종양은 피부 종양 다음으로 두 번째인 종양 유형이지만, 사망자 수와 관련해서는 첫 번째인 종양 유형이다.For women, breast tumors are the second type of tumor after skin tumors, but the first type with respect to deaths.
특히 불안한 현상은 종양이 발생하는 평균 연령이 지속적으로 낮아지고 있다는 것과, 현재의 검진(screening) 도구는 폐경 전 연령인 여성의 특징이자 일반적으로 건강 상태가 양호한 여성의 특징인 고밀도 유방을 진단하는데에는 불충분하다는 것이다. 사실, 유방조영술(mammography)은 고밀도 유방의 경우에는 신뢰도가 충분하지 않다. 검사되어야 하는 주의 영역에 "사전겨냥(pre-directed)"되지 않는다면 비효율적일 수 있다. 예컨대 MRI, CT, PET와 같이, 기능적 정보를 제공하거나 고밀도 유방을 진단할 수 있는 현재의 시스템들은 매우 고가이므로, 검진 또는 대량 진단(mass diagnostic)에는 적합하지 않으며, 침습적(invasive)이어서 단기간에 반복될 수 없다.In particular, the anxiety is consistently lower in the average age at which tumors develop, and current screening tools are used to diagnose high density breasts, which are characteristic of pre-menopausal women and generally healthy women. It is insufficient. In fact, mammography is not reliable for high density breasts. It can be inefficient if it is not "pre-directed" to the area of attention to be examined. Current systems capable of providing functional information or diagnosing dense breasts, such as MRI, CT and PET, are very expensive and therefore not suitable for examination or mass diagnostics, are invasive and repeat in a short period of time. Can't be.
일반적인 맥락에서, 오늘날의 진단 경로는 항상, 음성인지 명확하지 않은 각각의 1차 진단의 초음파 다운스트림의 사용을 포함한다. 이는, 오늘날의 1차 진단 방법이 병변의 악성 또는 양성을 진단하기에 충분한 민감도와 정확한 위치를 찾기에 충분한 특수성을 갖고 있지 않기 때문이다.In the general context, today's diagnostic pathways always involve the use of ultrasound downstream of each primary diagnosis, which is not clear whether it is negative or not. This is because today's primary diagnostic methods do not have sufficient sensitivity and specificity to find the exact location to diagnose malignant or benign lesions.
오늘날 사용되는 광학 기술은 유방 조직의 디옥시헤모글로빈 농도 변화의 분석에 있다. 특히, 유방에 640nm의 붉은 광을 비추어 광원의 맞은편에 있는 비디오카메라로 되는 광 감쇠 값들을 검출하여 모세혈관 내의 디옥시헤모글로빈의 농도 변화를 분석하는 것이 공지되어있다. 이는 분석될 조직의 밀도에 관계없이, "신생 혈관 형성(neoangiogenesis)" 영역, 즉 종양 세포를 키우기(feed) 위해 생성되는 비정상적인 혈관 신생 영역의 존재를 검출할 수 있도록 한다. 이 기술은 현재의 중대한 한계들을 극복한다. 실제로 그 특혜는 분석될 조직의 밀도에 관계없이 "신생 혈관 형성" 영역, 즉 종양 세포를 키우기 위해 생성되는 비정상적인 혈관 형성 영역의 존재를 검출할 수 있는 능력으로 구성된다.Optical technology used today is in the analysis of changes in deoxyhemoglobin concentrations in breast tissue. In particular, it is known to analyze the change in the concentration of deoxyhemoglobin in capillaries by detecting the light attenuation values of the video camera that is opposite the light source by shining 640 nm red light on the breast. This makes it possible to detect the presence of "neoangiogenesis" regions, i.e. abnormal angiogenic regions that are created to feed tumor cells, regardless of the density of the tissue to be analyzed. This technology overcomes the significant limitations of the present. Indeed, the preference consists of the ability to detect the presence of "neovascularization" regions, i.e. abnormal angiogenesis regions produced to grow tumor cells, regardless of the density of the tissue to be analyzed.
병변 생성은 머신 러닝(machine learning), 딥 러닝(deep learning)을 학습하는데 의료 데이터(medical data)가 부족한 한계를 극복하기 위한 중요한 분야이다. 또한 병변 생성은 방사선 전문의(radiologist), 레지던트(resident), 인턴(intern)들이 병변을 진단하는 훈련을 하는데도 활용될 수 있다.Lesion generation is an important field for overcoming the limitations of lack of medical data in learning machine learning and deep learning. Lesion production can also be used to train radiologists, residents, and interns to diagnose lesions.
기존의 병변을 생성하는 일 실시예 기술은, 랜덤하게 임의의 병변을 만드는 것으로, 기존 기술은 원하는 특징을 갖도록 만들지 못하기 때문에 실제 생성된 병변을 머신 러닝이나 병원에서 활용하기에 제한적인 문제점이 있다.One embodiment technique for generating existing lesions is to create random lesions randomly, and since the existing techniques do not make them have desired characteristics, there are limitations in utilizing the actually generated lesions in machine learning or hospital. .
삭제delete
본 발명의 실시예들은, BIRADS 특성을 임베딩하여 원하는 특성을 갖는 유방 종괴를 생성할 수 있는 유방 종괴 생성 방법 및 시스템을 제공한다.Embodiments of the present invention provide a method and system for generating breast masses that can embed breast characteristics with desired characteristics by embedding BIRADS characteristics.
구체적으로 본 발명의 실시예들은, BIRADS 특성 예를 들어, 설명(description)과 미리 학습된 딥 네트워크를 기반으로 BIRADS 특성을 갖는 유방 종괴를 생성할 수 있는 유방 종괴 생성 방법 및 시스템을 제공한다.In particular, embodiments of the present invention provide a breast mass generation method and system capable of generating breast masses having BIRADS characteristics based on BIRADS characteristics, for example, a description and a pre-learned deep network.
본 발명의 일 실시예에 따른 종괴 생성 방법은 타겟 종괴 특성을 인코딩하는 단계; 및 상기 인코딩된 타겟 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 단계를 포함한다.A method of generating a mass according to an embodiment of the present invention includes encoding a target mass characteristic; And generating a mass image corresponding to the target mass characteristic using a pre-learned deep network that receives the encoded target mass characteristic and the seed mass image as inputs.
상기 생성하는 단계는 상기 시드 종괴 이미지와 상기 인코딩된 타겟 종괴 특성으로부터 매핑되는 생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.The generating may generate a mass image corresponding to the target mass characteristic by using a generative adversarial network (GAN) mapped from the seed mass image and the encoded target mass characteristic.
상기 생성하는 단계는 잔차 블록을 갖는 인코더-디코더 네트워크를 기반으로 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.The generating may generate a mass image corresponding to the target mass characteristic based on an encoder-decoder network having a residual block.
상기 생성하는 단계는 상기 시드 종괴 이미지를 인코딩하여 상기 시드 종괴 이미지의 특징들을 추출하고, 상기 추출된 시드 종괴 이미지의 특징들과 상기 인코딩된 타겟 종괴 특성을 연쇄시켜 디코딩함으로써, 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.The generating may include encoding the seed mass image to extract features of the seed mass image, and concatenating and decoding the features of the extracted seed mass image and the encoded target mass characteristic to correspond to the target mass characteristic. To create a mass image.
상기 딥 네트워크는 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System) 특성을 인코딩하여 상기 특성이 임베딩된 BIRADS를 획득하고, 상기 특성이 임베딩된 BIRADS와 실제 종괴 이미지를 입력으로 하여 상기 BIRADS 특성에 대응하는 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 특성이 임베딩된 BIRADS를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습될 수 있다.The deep network encodes a Breast Imaging-Reporting and Data System (BIRADS) characteristic to obtain BIRADS embedded with the characteristic, and inputs the BIRADS embedded with the characteristic and the actual mass image as the BIRADS. A mass image corresponding to a characteristic may be generated, and the generated mass image and the characteristic may be learned through a process of distinguishing the actual mass and the fake mass using the embedded BIRADS.
본 발명의 다른 일 실시예에 따른 종괴 생성 방법은 종괴 특성을 임베딩하는 단계; 및 상기 임베딩된 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 단계를 포함한다.According to another embodiment of the present invention, there is provided a method for generating a mass; And generating a mass image corresponding to the mass characteristic by using a pre-learned deep network that takes the embedded mass characteristic and the seed mass image as inputs.
상기 생성하는 단계는 생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.The generating may generate a mass image corresponding to the mass characteristics by using a generative adversarial network (GAN).
상기 생성하는 단계는 상기 시드 종괴 이미지와 상기 임베딩된 종괴 특성에 의해 형성된 잠재 공간에 상기 임베딩된 종괴 특성을 가지는 종괴를 매핑하고, 상기 잠재 공간에서 시각적 특징 처리 과정을 수행하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.The generating may include: mapping a mass having the embedded mass characteristic to a latent space formed by the seed mass image and the embedded mass characteristic, and performing a visual feature processing process in the latent space to correspond to the mass characteristic. Mass images can be created.
상기 생성하는 단계는 상기 잠재 공간에서 시각적 특징 선형 보간법과 시각적 특징 선형 보외법 중 적어도 하나를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.The generating may generate a mass image corresponding to the mass property by using at least one of visual feature linear interpolation and visual feature linear interpolation in the latent space.
상기 딥 네트워크는 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)의 마진 특성과 형상 특성을 임베딩하여 임베딩된 마진 특성과 임베딩된 형상 특성을 획득하고, 상기 임베딩된 마진 특성, 상기 임베딩된 형상 특성과 실제 종괴 이미지에 의해 형성된 잠재 공간에 상기 임베딩된 마진 특성과 상기 임베딩된 형상 특성을 가지는 종괴를 매핑하며, 상기 잠재 공간에서 시각적 특징 처리 과정을 수행하여 상기 마진 특성과 상기 형상 특성에 대응하는 종괴 이미지를 생성하고, 상기 생성된 종괴 이미지와 상기 실제 종괴 이미지를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습될 수 있다.The deep network embeds margin and shape characteristics of the Breast Imaging-Reporting and Data System (BIRADS) to obtain embedded margin characteristics and embedded shape characteristics, and embeds the embedded margin characteristics and the embedding characteristics. Map the embedded margin characteristic and the mass having the embedded shape characteristic to the latent space formed by the actual shape image and the actual mass image, and perform a visual feature processing process on the latent space and the shape characteristic. It can be learned by generating a corresponding mass image and distinguishing the actual mass from the fake mass using the generated mass image and the actual mass image.
본 발명의 일 실시예에 따른 종괴 생성 시스템은 타겟 종괴 특성을 인코딩하는 인코딩부; 및 상기 인코딩된 타겟 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 생성부를 포함한다.Mass generation system according to an embodiment of the present invention includes an encoding unit for encoding the target mass characteristics; And a generation unit configured to generate a mass image corresponding to the target mass characteristic using a pre-learned deep network that receives the encoded target mass characteristic and the seed mass image as inputs.
본 발명의 다른 일 실시예에 따른 종괴 생성 시스템은 종괴 특성을 임베딩하는 임베딩부; 및 상기 임베딩된 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 생성부를 포함한다.A mass generating system according to another embodiment of the present invention includes an embedding part for embedding mass characteristics; And a generation unit configured to generate a mass image corresponding to the mass characteristics using a pre-learned deep network that receives the embedded mass characteristics and seed mass images.
본 발명의 실시예들에 따르면, BIRADS 특성 예를 들어, 설명(description)과 미리 학습된 딥 네트워크를 기반으로 BIRADS 특성을 갖는 유방 종괴를 생성할 수 있다.According to embodiments of the present invention, breast masses having BIRADS characteristics may be generated based on BIRADS characteristics, for example, a description and a pre-learned deep network.
본 발명의 실시예들에 따르면, 미리 학습된 딥 네트워크와 잠재 공간(latent space)에서의 시각적 특징 처리를 이용하여 실제적인 유방 종괴를 생성할 수 있다.According to embodiments of the present invention, the actual breast mass may be generated using a pre-trained deep network and visual feature processing in latent space.
본 발명의 실시예들에 따르면, 병변을 특성화(characterization)하는데 사용하는 BIRADS 특성에 따라 병변을 생성함으로써, 원하는 모양, 특징을 갖는 다양한 병변을 만들 수 있으며, 실제 생성된 병변을 실제 환경에서 쉽게 사용할 수 있다.According to embodiments of the present invention, by creating a lesion according to the BIRADS characteristics used to characterize the lesion, it is possible to create a variety of lesions having the desired shape, characteristics, and to actually use the generated lesions in a real environment easily Can be.
도 1은 본 발명의 일 실시예에 따른 유방 종괴 생성 방법에 대한 동작 흐름도를 나타낸 것이다.
도 2는 본 발명의 다른 일 실시예에 따른 유방 종괴 생성 방법에 대한 동작 흐름도를 나타낸 것이다.
도 3은 도 2의 방법을 이용하여 잠재 공간에서 시각적 특성을 처리하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 잠재 공간에서 두 개의 시각적 특징들 간의 보간법 및 보외법에 대한 개념을 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 본 발명의 일 실시예에 따른 유방 종괴 생성 시스템에 대한 개념적인 구성을 나타낸 것이다.
도 6은 본 발명의 다른 일 실시예에 따른 유방 종괴 생성 시스템에 대한 개념적인 구성을 나타낸 것이다.1 is a flowchart illustrating an operation of a method for generating a breast mass according to an embodiment of the present invention.
2 is a flowchart illustrating an operation of a method for generating breast mass according to another embodiment of the present invention.
FIG. 3 illustrates an exemplary diagram for describing a process of processing a visual characteristic in a latent space using the method of FIG. 2.
4 illustrates an exemplary diagram for explaining a concept of interpolation and extrapolation between two visual features in a latent space.
5 shows a conceptual configuration of a breast mass generation system according to an embodiment of the present invention.
6 shows a conceptual configuration of a breast mass generation system according to another embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형 태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only the embodiments are to make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상 의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and / or “comprising” refers to a component, step, operation and / or element that is one or more of the other components, steps, operations and / or elements. It does not exclude existence or addition.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사 전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined beforehand that are generally used are not to be interpreted ideally or excessively unless they are clearly specifically defined.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.
본 발명의 실시예들은, BIRADS 특성 예를 들어, BIRADS 설명(description)과 미리 학습된 딥 네트워크를 기반으로 BIRADS 특성을 갖는 유방 종괴를 생성하는 것을 그 요지로 한다. Embodiments of the present invention are directed to generating breast masses having BIRADS characteristics based on BIRADS characteristics, for example, BIRADS description and a pre-learned deep network.
본 발명에 따른 기술은 미리 학습된 딥 네트워크를 이용하여 BIRADS에 따른 실제적인 유방 종괴를 생성할 수도 있고, 잠재 공간(latent space)에서의 시각적 특징 처리를 이용하여 실제적인 유방 종괴를 생성할 수도 있다. 즉, 본 발명은 병변을 특성화(characterization)하는데 사용하는 BIRADS 특성에 따라 병변을 생성하는 것으로, 병변을 BIRADS에 따라 생성하면 원하는 모양, 특징을 갖는 다양한 병변을 만들 수 있으며, 실제 생성된 병변을 실제 환경에서 쉽게 사용할 수 있다.The technique according to the present invention may generate a real breast mass according to BIRADS using a pre-learned deep network, or may generate a real breast mass using visual feature processing in a latent space. . That is, the present invention is to generate lesions according to the BIRADS characteristics used to characterize the lesions, and if the lesions are generated according to BIRADS, various lesions having desired shapes and characteristics can be made, and the generated lesions are actually Easy to use in the environment.
이러한 본 발명에 대해 도 1 내지 도 6을 참조하여 설명하면 다음과 같다.This invention will be described with reference to FIGS. 1 to 6 as follows.
유방 영상 보고 데이터 시스템Breast Image Reporting Data System (( BIRADSBIRADS ; Breast Imaging-Reporting and Data System); Breast Imaging-Reporting and Data System 에 따른 In accordance 실제적인Practical 유방 종괴(Breast Mass) 생성 Breast Mass Generation
도 1은 본 발명의 일 실시예에 따른 유방 종괴 생성 방법에 대한 동작 흐름도를 나타낸 것으로, BIRADS 특성 예를 들어, BIRADS 설명(또는 기술)(description)에 따라 병변(lesion)을 합성하는 전체 프레임워크를 나타낸 것이다.1 is a flowchart illustrating a method for generating a breast mass according to an embodiment of the present invention. The entire framework for synthesizing lesions according to BIRADS characteristics, for example, BIRADS description, is illustrated in FIG. It is shown.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 방법은 시드 이미지(실제 종괴)와 타겟 BIRADS 설명으로부터 매핑되는 조건 생성적 적대 네트워크(GAN; Generative Adversarial Networks)에 기초한다. 본 발명의 프레임워크는 임베딩부, 시각적 해석부 및 판별부를 포함하는 GAN에 기반하며, 임베딩부는 BIRADS 설명 임베딩 네트워크를 포함할 수 있고, 시각적 해석부는 병변 생성기 네트워크를 포함할 수 있으며, 판별부는 판별기 네트워크를 포함할 수 있다.As shown in FIG. 1, the method according to an embodiment of the present invention is based on conditional adversarial networks (GANs) mapped from seed images (actual masses) and target BIRADS descriptions. The framework of the present invention is based on a GAN comprising an embedding part, a visual interpreter and a discriminator, the embedding part may include a BIRADS description embedding network, the visual interpreter may include a lesion generator network, and the discriminator is a discriminator It may include a network.
임베딩부는 동일한 시맨틱 레벨에서 시각적 해석부 및 판별부와 결합되는 타겟 BIRADS 특성을 인코딩한다. 시각적 해석부 예를 들어, 병변 생성기 네트워크는 임베딩된 BIRADS와 시드 이미지로부터 인코딩된 이미지 특징을 기반으로 이미지를 합성한다. 판별부 예를 들어, 판별기 네트워크는 임베딩된 BIRADS를 조건으로 하여 구분 태스크(distinguishing task)를 수행한다. 즉, 판별기 네트워크는 임베딩된 BIRADS를 이용하여 입력 이미지가 실제 종괴(시드 이미지) 또는 가짜 종괴(생성된 이미지)인지 여부를 결정한다. 병변 생성기 네트워크와 판별기 네트워크는 적대적 학습을 통해 서로 경쟁함으로써 향상될 수 있다.The embedding portion encodes the target BIRADS characteristic that is combined with the visual interpreter and the discriminator at the same semantic level. Visual Interpreter For example, the lesion generator network synthesizes images based on image features encoded from embedded BIRADS and seed images. Determination unit For example, the discriminator network performs a distinguishing task on the basis of the embedded BIRADS. That is, the discriminator network uses the embedded BIRADS to determine whether the input image is a real mass (seed image) or a fake mass (generated image). The lesion generator network and discriminator network can be enhanced by competing with each other through hostile learning.
BIRADSBIRADS 특성 characteristic 임베딩Embedding 네트워크 network
BIRADS 특성 임베딩 네트워크는 병변 생성기 네트워크와 판별기 네트워크의 동일한 시맨틱 레벨에서 임베딩된 BIRADS와 이미지 특징들을 결합하기 위하여, 타겟 BIRADS 특성 예를 들어, 타겟 BIRADS 설명을 인코딩한다. 시각적-시맨틱 타겟 BIRADS 설명 문장()은 각 단어 레벨 로 나누어진다. 여기서 은 BIRADS 설명 문장에서 단어의 수를 의미할 수 있다. 각 단어는 아래 <수학식 1>과 같이 미리 트레이닝된 단어 레벨 임베딩 모델(E)을 통해 단어 벡터로 변환될 수 있다.The BIRADS feature embedding network encodes a target BIRADS feature, for example, a target BIRADS description, to combine the embedded BIRADS and image features at the same semantic level of the lesion generator network and the discriminator network. Visual-Semantic Target BIRADS Description Sentence ( ) Is each word level Divided into. here May mean the number of words in the BIRADS description sentence. Each word may be converted into a word vector through a pre-trained word level embedding model E as shown in Equation 1 below.
[수학식 1][Equation 1]
임베딩된(embedded) BIRADS를 추출하기 위하여, 아래 <수학식 2>와 같이 게이트된 순환 유닛(GRU; Gated Recurrent Unit) 네트워크 기반 텍스트 인코더가 적용될 수 있다.In order to extract the embedded BIRADS, a gated cyclic unit (GRU) network-based text encoder may be applied as shown in Equation 2 below.
[수학식 2][Equation 2]
여기서, 는 GRU 레이어의 구동을 수행하는 함수를 의미하고, 는 n번째 단어 벡터에서 GRU의 히든 상태를 의미할 수 있다.here, Means a function that performs the driving of the GRU layer, May mean a hidden state of the GRU in the n-th word vector.
GRU 네트워크의 마지막 단계 출력 는 두 개의 완전 연결 레이어(fully connected layer)에 의해 처리된다. 그러면, 임베딩된 BIRADS 은 아래 <수학식 3>과 같이 표현될 수 있다.Output of the last stage of the GRU network Is handled by two fully connected layers. Then embedded BIRADS May be expressed as Equation 3 below.
[수학식 3][Equation 3]
여기서, 과 는 완전 연결 레이어의 동작을 수행하는 함수를 의미할 수 있다.here, and May mean a function that performs an operation of a fully connected layer.
BIRADS 임베딩 횟수를 증가시키기 위하여, 임베딩된 BIRADS의 평균과 표준 편차를 사용하여 텍스트 임베딩 증강 방법(text embedding augmentation method)을 임베딩된 BIRADS에 적용할 수 있는데, 이는 본 발명의 딥 네트워크가 트레이닝 단계에서 시각적 시맨틱 BIRADS 특성으로부터 다양한 종괴를 생성하는데 도움을 줄 수 있다. 마지막으로, 임베딩된 BIRADS 는 병변 생성기 네트워크(G)와 판별기 네트워크(D)의 이미지 특징과 결합된다.In order to increase the number of BIRADS embeddings, the text embedding augmentation method can be applied to the embedded BIRADS using the mean and standard deviation of the embedded BIRADS, which allows the deep network of the present invention to visually It can help generate various masses from semantic BIRADS properties. Finally, embedded BIRADS Is combined with the image features of the lesion generator network (G) and the discriminator network (D).
임베딩된Embedded BIRADS를BIRADS 가지는 병변 생성기 네트워크 Having lesion generator network
시각적 시맨틱 BIRADS 특성과 관련하여 종괴를 합성하기 위하여, 병변 생성기 네트워크는 잔차 블록을 갖는 인코더-디코더 네트워크를 기반으로 설계될 수 있다. 시각적 해석부 즉, 병변 생성기 네트워크는 입력 시드 이미지 와 임베딩된 BIRADS 를 입력으로 사용한다. 보다 구체적으로, 인코더는 시드 이미지를 이미지 특징 표현으로 인코딩하는 컨볼루션 뉴럴 네트워크(CNN)일 수 있으며, 는 이미지 특징 표현의 특징 맵 수를 의미할 수 있다.In order to synthesize the mass with respect to the visual semantic BIRADS characteristic, the lesion generator network may be designed based on an encoder-decoder network with residual blocks. The visual interpreter, ie the lesion generator network, inputs the seed image With embedded BIRADS Is used as input. More specifically, the encoder Seed image May be a convolutional neural network (CNN) that encodes to an image feature representation, May mean the number of feature maps in the image feature representation.
임베딩된 BIRADS 는 채널 차원을 따라 인코딩된 이미지 특징들과 연쇄되어 를 형성하기 위해 공간적으로 복제될 수 있다. 여기서, 는 임베딩된 BIRADS 벡터의 차원을 의미할 수 있다. 임베딩된 BIRADS와 결합된 인코딩된 이미지 특징들은 몇 개의 잔차 블록으로 피드될 수 있다. 이 잔차 블록은 스트라이드 1(stride 1)을 갖는 3 × 3 크기의 컨볼루션으로 구성될 수 있다. Embedded BIRADS Is concatenated with image features encoded along the channel dimension Can be replicated spatially to form here, May refer to the dimension of the embedded BIRADS vector. Encoded image features combined with embedded BIRADS can be fed into several residual blocks. This residual block may consist of 3 × 3 convolutions with stride 1.
디코더는 여러 개의 업 샘플링 레이어들로 구성될 수 있으며, 디코더는 잠재적인 특징 표현을 생성된 이미지 로 변환할 수 있다. 여기서, 병변 생성기 네트워크에 의해 생성된 이미지는 아래 <수학식 4>와 같이 계산될 수 있다.The decoder can consist of several upsampling layers, and the decoder can generate a potential feature representation of the generated image. Can be converted to Here, the image generated by the lesion generator network may be calculated as in Equation 4 below.
[수학식 4][Equation 4]
여기서, 는 병변 생성기 네트워크를 의미할 수 있다.here, May refer to a lesion generator network.
병변 생성기 네트워크의 첫 번째 레이어와 마지막 레이어를 제외하고, ReLU(rectified linear unit) 활성화와 배치(batch) 정규화가 인코더와 디코더 네트워크의 모든 컨볼루션 레이어 뒤에 적용될 수 있다. 잔차 블록은 생성기 네트워크가 아이덴터티 함수(identity function)를 학습하는 것을 도울 수 있다. 여기서, 아이덴터티 함수는 생성된 이미지가 소스 이미지의 유사한 유방 배경을 유지하게 한다. 결과적으로, 실제적인 종괴가 타겟 BIRADS 카테고리와 함께 실제적인 유방 조직의 배경에 생성된다.With the exception of the first and last layers of the lesion generator network, rectified linear unit (ReLU) activation and batch normalization can be applied behind all convolutional layers of the encoder and decoder network. The residual block can help the generator network to learn the identity function. Here, the identity function allows the generated image to maintain a similar breast background of the source image. As a result, actual masses are created with the target BIRADS category in the background of the actual breast tissue.
임베딩된Embedded BIRADS를BIRADS 가지는 Branch 판별기Discriminator 네트워크 network
판별부 즉, 판별기 네트워크는 생성된 이미지와 실제 이미지를 임베딩된 BIRADS를 이용하여 실제 종괴와 가짜 종괴를 구별한다. 병변 생성기 네트워크의 인코더와 마찬가지로, 이미지는 차원 의 특징 표현으로 인코딩된다. 인코딩된 특징은 공간적으로 복제된 임베딩된 BIRADS 와 연쇄된다. 연쇄된(concatenated) 특징들은 두 개의 컨볼루션 레이어들에 의해 처리되고, 두 개의 컨볼루션 레이어들은 실제 종괴 또는 가짜 종괴의 최종 확률을 계산한다. 리키(leaky) ReLU 활성화는 출력 레이어를 제외한 모든 레이어에 대해 수행되고, 배치 정규화는 첫 번째 레이어와 마지막 레이어를 제외한 모든 레이어에 적용될 수 있다.The discriminator, that is, the discriminator network, distinguishes between the actual mass and the fake mass using the BIRADS embedded in the generated image and the actual image. Like the encoder in the lesion generator network, Image is dimension Is encoded into a feature representation of the. Encoded features are spatially replicated embedded BIRADS Chained with. Concatenated features are processed by two convolutional layers, and the two convolutional layers calculate the final probability of a real or fake mass. Leaky ReLU activation is performed for all layers except the output layer, and batch normalization can be applied to all layers except the first and last layers.
유방 종괴 발생 네트워크의 학습 전략Learning Strategies of the Breast Mass Development Network
병변 생성기 네트워크(G)를 학습하기 위한 손실 함수는 아래 <수학식 5>와 같이 정의될 수 있다.The loss function for learning the lesion generator network G may be defined as in Equation 5 below.
[수학식 5][Equation 5]
손실 함수는 생성된 이미지가 실제 데이터 의 분포에 적합해지도록 유도한다. 판별기 네트워크를 학습하기 위한 손실 함수를 설명하기 위해 몇 가지 표기법을 정의한다. t와 는 시드 이미지의 오리지널 BIRADS 설명과 잘못 정렬된 BIRADS 설명을 각각 의미한다. 잘못 정렬된 BIRADS 설명은 부정확한 순서를 가지는 설명으로 정의된다. 예를 들어, "spiculated this mass has margin"은 오리지널 BIRADS 설명 "이 종괴는 침상 마진(speculated margin)을 가진다"와 불일치하는(mismatching) BIRADS 설명 중 하나이다. 판별기 네트워크(D)를 학습하기 위한 손실 함수는 아래 <수학식 6>과 같이 정의될 수 있다.Loss function is that the generated image is the actual data To fit the distribution of. Several notations are defined to describe the loss function for learning the discriminator network. t and Means the original BIRADS description and the misaligned BIRADS description of the seed image, respectively. Misaligned BIRADS descriptions are defined as descriptions with an incorrect order. For example, "spiculated this mass has margin" is one of the BIRADS descriptions that is inconsistent with the original BIRADS description "This mass has a speculated margin". The loss function for learning the discriminator network D may be defined as in Equation 6 below.
[수학식 6][Equation 6]
전체 네트워크는 상기 수학식 5와 상기 수학식 6을 교번적으로 최소화하도록 트레이닝될 수 있다. 병변 생성기 네트워크(G)와 판별기 네트워크(D)는 교번 트레이닝(alternative training) 동안 향상될 수 있다.The entire network can be trained to alternately minimize the equations (5) and (6). The lesion generator network G and the discriminator network D may be improved during alternate training.
이와 같이, 본 발명의 일 실시예에 따른 방법은 미리 학습된 딥 네트워크와 BIRADS 설명을 이용하여 BIRADS 설명에 대응하는 유방 종괴를 생성할 수 있다.As such, the method according to an embodiment of the present invention may generate a breast mass corresponding to the BIRADS description using a pre-learned deep network and the BIRADS description.
잠재 공간(latent space)에서의 시각적 특징 처리에 의한 유방 종괴 생성Breast mass generation by visual feature processing in latent space
본 발명의 다른 일 실시예에 따른 방법은 BIRADS(Breast Imaging Reporting and Data System)의 의학적 특성에 따라 유방 종괴를 생성하는 방법에 대한 것이다. BIRADS는 유방 조영술(mammograms)에서 종괴를 특징 짓기 위한 보고를 표준화하도록 설계되었다.The method according to another embodiment of the present invention relates to a method for generating breast mass according to the medical characteristics of the BIRADS (Breast Imaging Reporting and Data System). BIRADS is designed to standardize reports to characterize masses in mammograms.
도 2는 본 발명의 다른 일 실시예에 따른 유방 종괴 생성 방법에 대한 동작 흐름도를 나타낸 것으로, 생성적 적대 네트워크(GAN; Generative Adversarial Networks)에 기반을 두고 있으며, 생성부, 판별부, 마진 임베딩부 및 형상 임베딩부를 포함한다. 여기서, 생성부는 유방 종괴 생성기 모듈(G)을 포함하고, 판별부는 판별기 모듈(D1 및 D2)을 포함하며, 마진 임베딩부와 형상 임베딩부 각각은 BIRADS 설명 임베딩 모듈(E1 및 E2)을 포함한다.2 is a flowchart illustrating a method for generating a breast mass according to another embodiment of the present invention, which is based on Generative Adversarial Networks (GAN), and includes a generation unit, a determination unit, and a margin embedding unit. And a shape embedding portion. Here, the generation unit includes the breast mass generator module (G), the determination unit includes the discriminator modules (D 1 and D 2 ), and each of the margin embedding unit and the shape embedding unit is a BIRADS description embedding module (E 1 and E 2). ).
학습 단계의 목표는 G가 생성 단계에 사용될 다양한 유방 종괴를 학습하게 하는 것으로, 본 발명의 방법에서 학습과 생성 단계 절차에 대한 설명하면 다음과 같다.The goal of the learning phase is to allow G to learn the various breast masses to be used in the production phase. The following describes the learning and production phase procedures in the method of the present invention.
도 2에 도시된 바와 같이, 학습 단계에서 유방 종괴 이미지와 BIRADS에서의 주요 정보인 마진()과 형상() 라벨이 네트워크에 입력된다. 마진과 형상 라벨은 생성기 모듈 G에 입력되기 전에 BIRADS 설명 임베딩 모듈을 통해 E1()와 E2()에 임베딩된다. 그런 다음, G는 입력된 유방 종괴(I) 즉, 시드 유방 종괴와 임베딩된 라벨들을 이용하여 가짜 유방 종괴(I')를 생성한다. 여기서, 가짜 유방 종괴(I')는 아래 <수학식 7>과 같이 생성될 수 있다.As shown in FIG. 2, the margin of breast lump image and the main information in BIRADS in the learning stage ( ) And geometry ( ) The label is entered into the network. Through BIRADS described embedding module before it is input to the shape margin label is a generator module G E 1 ( ) And E 2 ( Is embedded in). G then creates a fake breast mass I ' using the entered breast mass I , the seed breast mass and the embedded labels. Here, the fake breast mass I ' may be generated as shown in Equation 7 below.
[수학식 7][Equation 7]
여기서, E1()와 E2()는 BIRADS 특성 예를 들어, BIRADS 설명의 임베딩된 마진()과 형상() 라벨을 의미할 수 있다.Where E 1 ( ) And E 2 ( ) Is the BIRADS attribute, for example, the embedded margin ( ) And geometry ( ) May mean a label.
D1은 실제 종괴와 가짜 종괴를 입력으로 하여 가짜/실제(real/fake) 및 마진 라벨에 대한 예측 결과를 출력한다. D2는 실제 종괴와 가짜 종괴를 입력으로 하여 가짜/실제 및 형상 라벨에 대한 예측 결과를 출력한다. 상술한 과정을 반복하면, G, D1 및 D2는 적대적이고 협동적인 방식으로 학습하여 G가 다양한 유방 종괴를 학습할 수 있다.D 1 outputs predictions for real / fake and margin labels with inputs of real and fake masses. D 2 inputs the actual mass and the fake mass as inputs and outputs the prediction results for the fake / actual and shape labels. Repeating the above process, G, D 1 and D 2 can be learned in a hostile and collaborative manner so that G can learn various breast masses.
도 3에 도시된 바와 같이, 생성 단계에서 유방 종괴 다양성(manifold)을 근사화하도록 트레이닝된 G 및 BIRADS 특성 임베딩 모듈을 사용한다. G는 인코더와 디코더를 포함하고, 인코더와 디코더 각각은 컨볼루션 레이어와 전치된 컨볼루션 레이어로 구성된다. G 앞에서, 시드 유방 종괴와 대응 마진, 형상 라벨들이 트레이닝 단계와 유사하게 BIRADS 임베딩 모듈들을 통해 임베딩된다. 임베딩된 라벨들을 가지는 유방 종괴가 G의 입력으로 들어오면, 인코더는 시드 종괴와 해당 BIRADS 특성에 의해 형성된 잠재 공간에 임베딩된 라벨들을 가지는 유방 종괴를 매핑한다. 잠재 공간에서 시각적 특징 처리 과정을 수행함으로써, 처리된 시각적 특징들을 픽셀 공간으로 디코딩하여 실제적인 유방 종괴를 생성할 수 있다.As shown in FIG. 3, the G and BIRADS characteristic embedding modules trained to approximate breast manifold in the production phase are used. G includes an encoder and a decoder, each of which consists of a convolutional layer and a transposed convolutional layer. In front of G, seed breast masses and corresponding margins, shape labels are embedded via BIRADS embedding modules similar to the training phase. When a breast mass with embedded labels enters the input of G, the encoder maps the breast mass with embedded labels to the seed mass and the latent space formed by the corresponding BIRADS characteristic. By performing the visual feature processing in the latent space, the processed visual features can be decoded into pixel space to produce the actual breast mass.
시각적 특징 처리Visual feature processing
상술한 바와 같이, 시각적 특징()은 유방 종괴와 임베딩된 라벨들을 인코더를 통해 잠재 공간으로 매핑함으로써 인코딩된다. 처리되지 않은 시각적 특징이 디코더에 입력되면, 시각적 특징을 만드는데 사용된 유방 종괴와 유사한 유방 종괴가 생성된다. 이를 통해 생성된 유방 종괴를 사용하면, 비선형 다양성의 증가로 인한 회전(rotation), 플립(flip) 등과 같은 아핀 변환(affine transform)을 통해 증강된 데이터와 비교할 때 컴퓨터 보조 진단(CAD; computer-aided diagnosis)을 학습하는데 약간 도움이 될 수도 있다. 본 발명은 유방 종괴의 시각적 특징들이 존재하는 다양성에서 가능한 많은 시각적 특징을 고려하기 위하여 시각적 특징 선형 보간법과 보외법을 사용할 수 있다.As mentioned above, visual features ( ) Is encoded by mapping breast masses and embedded labels to latent space through an encoder. When an unprocessed visual feature is input to the decoder, a breast mass similar to the breast mass used to create the visual feature is created. The resulting breast mass allows computer-aided diagnostics (CAD) when compared to data augmented through affine transforms, such as rotation, flip, etc., due to an increase in nonlinear diversity. It may help a little to learn the diagnosis. The present invention may use visual feature linear interpolation and extrapolation to account for as many visual features as possible in the variety in which the visual features of the breast mass are present.
(1) 시각적 특징 선형 보간법(1) visual feature linear interpolation
시각적 특징 선형 보간 방법의 가장 쉬운 경우는 잠재 공간에서 두 시각적 특징들 간의 선형 보간이다. 두 개의 서로 다른 시각적 특징들 간의 선형 보간은 두 시각적 특징들 간의 1차원 라인에 가능한 시각적 특징을 고려할 수 있게 한다. 여기서, 두 개의 서로 다른 시각적 특징들 간의 선형 보간은 아래 <수학식 8>과 같이 나타낼 수 있다.Visual Features The easiest case of the linear interpolation method is linear interpolation between two visual features in latent space. Linear interpolation between two different visual features makes it possible to take into account possible visual features in a one-dimensional line between the two visual features. Here, linear interpolation between two different visual features can be expressed as Equation 8 below.
[수학식 8][Equation 8]
여기서, 과 는 선형 보간에서 시각적 특징들에 곱해지는 가중치들을 의미할 수 있다.here, and May mean weights that are multiplied by the visual features in linear interpolation.
이러한 두 개의 서로 다른 시각적 특징들 간의 선형 보간은 전체 트레이닝 데이터 세트에서 유방 종괴의 N개 시각적 특징들 간의 보간법으로 확장 될 수 있으며, 아래 <수학식 9>와 같이 나타낼 수 있다.Linear interpolation between these two different visual features can be extended by interpolation between the N visual features of the breast mass in the entire training data set, as shown in Equation 9 below.
[수학식 9][Equation 9]
여기서, 는 선형 보간에서 시각적 특징 에 의해 곱해지는 가중치를 의미할 수 있다.here, Is a visual feature in linear interpolation It may mean a weight multiplied by.
N개의 시각적 특징이 선형적으로 독립적인 경우, 즉 시각적 특징의 선형 조합을 0으로 만드는 유일한 조건이 모든 가 0인 경우 이러한 N개의 시각적 특징들은 (N-1) 차원의 초평면을 형성한다. 즉, 상기 수학식 9는 아래 <수학식 10>과 같이 나타낼 수 있다.If N visual features are linearly independent, that is, the only condition that makes the linear combination of visual features zero is If 0, these N visual features form a hyperplane in the (N-1) dimension. That is, Equation 9 may be expressed as Equation 10 below.
[수학식 10][Equation 10]
다시 말해, N이 시각적 특징 자체의 차원보다 작은 경우, N개의 시각적 특징들이 서로 선형적으로 독립적이면 (N-1) 차원의 초평면에 존재하는 모든 가능한 시각적 특징들이 고려될 수 있다.In other words, if N is smaller than the dimension of the visual feature itself, then all possible visual features present in the hyperplane of the (N-1) dimension can be considered if the N visual features are linearly independent of each other.
시각적 특징 보간이 특정 BIRADS 설명 라벨을 가지는 유방 종괴로부터 인코딩된 시각적 특징에 적용되는 경우 유방 종괴는 해당 BIRADS 설명의 특징을 갖도록 생성될 수 있다. 따라서 본 발명의 다른 일 실시예에 따른 방법에서는 생성된 종괴에 대한 추가적인 주석(annotation)이 필요하지 않다.When visual feature interpolation is applied to a visual feature encoded from a breast mass having a particular BIRADS description label, the breast mass may be created to have the features of that BIRADS description. Thus, the method according to another embodiment of the present invention does not require additional annotation of the resulting mass.
(2) 시각적 특징 선형 보외법(2) visual feature linear extrapolation
선형 보간의 개념은 잠재 공간에서 특정 시각적 특징들 사이에 존재하는 가능한 시각적 특징들을 고려하는데 사용된다. 본 발명은 시각적 특징 선형 보외법 고려하여 트레이닝 데이터 세트의 시각적 특징들 외부에 존재하는 가능한 시각적 특징들을 고려한다.The concept of linear interpolation is used to take into account the possible visual features that exist between certain visual features in latent space. The present invention contemplates possible visual features that exist outside of the visual features of the training data set in consideration of visual feature linear extrapolation.
보간법과 보외법은 N개의 시각적 특징들이 존재할 때 (N-1) 차원 초평면에서 다수의 시각적 특징을 고려할 수 있다. 그러나 보간법의 경우 고려할 수 있는 범위는 트레이닝 데이터 세트의 유방 종괴에 대한 시각적 특징으로 제한된다. 반면, 보외법은 트레이닝 데이터 세트 외부에서 고려할 방법으로 추가적인 다이버시티(diversity)를 제공한다. 여기서, 전체 트레이닝 데이터 세트에서 유방 종괴의 N개 시각적 특징들 간의 보외법은 아래 <수학식 11>과 같이 나타낼 수 있다.Interpolation and extrapolation may consider multiple visual features in the (N-1) dimensional hyperplane when there are N visual features. However, for interpolation, the range of consideration is limited to the visual characteristics of breast masses in the training data set. On the other hand, extrapolation provides additional diversity as a way to consider outside the training data set. Here, the extrapolation between the N visual features of the breast mass in the entire training data set may be represented by Equation 11 below.
[수학식 11][Equation 11]
상기 수학식 11을 통해 알 수 있듯이, 보외법에서 생성된 종괴가 기존의 시각적 특징과 얼마나 멀리 떨어져 있는지를 의 범위를 제한함으로써 결정할 수 있다. 도 4는 잠재 공간에서 두 개의 시각적 특징들 간의 보간법 및 보외법에 대한 개념을 설명하기 위한 일 예시도를 나타낸 것으로, 도 4에 도시된 바와 같이, 시드 종괴 이미지의 시각적 특징들을 이용한 선형 보간법을 통해 시드 종괴 이미지의 시각적 특징들 간의 시각적 특징들을 보간하고, 이렇게 보간된 시각적 특징들 간 또는 보간된 시각적 특징과 시드 종괴 이미지의 시각적 특징 간 보간을 통해 두 시각적 특징들 사이의 시각적 특징을 보간할 수 있으며, 시드 종괴 이미지의 시각적 특징들을 이용한 선형 보외법을 통해 시드 종괴 이미지의 시각적 특징들 간의 시각적 특징들을 보외하고, 이렇게 보외된 시각적 특징들 간 또는 보외된 시각적 특징과 시드 종괴 이미지의 시각적 특징 간 보외을 통해 두 시각적 특징들 외부의 시각적 특징을 보외할 수 있다.As can be seen from Equation 11, how far the mass produced by the extrapolation is from the existing visual features This can be determined by limiting the range of. FIG. 4 illustrates an exemplary diagram for explaining a concept of interpolation and extrapolation between two visual features in latent space. As shown in FIG. 4, through linear interpolation using visual features of a seed mass image. Interpolate the visual features between the visual features of the seed mass image and interpolate between the visual features of the interpolated visual features or between the interpolated visual features and the visual features of the seed mass image. In addition, through the linear extrapolation using the visual features of the seed mass image, the visual features between the visual features of the seed mass image are excluded, and between the extrapolated visual features or between the extra visual features and the visual features of the seed mass image. You can add visual features outside of the two visual features The.
시각적 특징 처리를 통한 유방 종괴 생성Breast feature generation through visual feature processing
학습 과정에서, G는 생성 단계에 사용될 수 있는 유방 종괴의 다양성을 학습한다. 생성 단계에서, G 및 BIRADS 특성 임베딩 모듈들은 실제적인 유방 종괴를 생성하는데 이용된다.In the learning process, G learns the variety of breast masses that can be used in the production phase. In the production phase, G and BIRADS characteristic embedding modules are used to generate actual breast masses.
학습 및 생성 단계에서 BIRADS 특성 임베딩 모듈들의 동작은 다음과 같다. 우선, BIRADS 특성 임베딩 모듈들은 두 개의 완전 연결 레이어로 구성된다. 학습 및 생성 단계에서, BIRADS 특성 임베딩 모듈들은 BIRADS 특성 라벨의 원-핫(one-hot) 라벨 형태를 유방 종괴 이미지의 크기로 매핑한다. 그런 다음, 유방 종괴 이미지와 임베딩된 라벨을 연쇄시켜(또는 결합하여) 인코더에 입력한다.The operation of the BIRADS feature embedding modules in the learning and generation phase is as follows. First, the BIRADS feature embedding modules consist of two fully connected layers. In the learning and generation phase, BIRADS feature embedding modules map the one-hot label form of the BIRADS feature label to the size of the breast mass image. The breast mass image and the embedded label are then concatenated (or combined) and entered into the encoder.
생성 단계에서 각 생성 스텝의 세부 사항은 다음과 같다. 1) 인코더는 유방 종괴 이미지와 임베딩된 라벨이 연쇄된 입력을 받아 이를 1024-차원 잠재 특징 공간에 매핑한다. 매핑된 시각적 특징은 시드 유방 종괴 이미지와 대응하는 BIRADS 특성 라벨에 대한 정보를 포함한다. 따라서 시각적 특징을 처리하여 생성된 종괴의 모양과 특성을 변경할 수 있다. 2) 시각적 특징에 대한 전술된 처리는 시드 유방 종괴 이미지에 나타나지 않은 외관 및 특성을 가지는 유방 종괴의 시각적 특징을 생성하기 위해 적용된다. 본 발명의 다른 실시예에서는 선형 보간법과 보외법 같은 비교적 간단한 연산을 적용할 수 있다. 그러나 시각적 특징 처리에는 선형 보간법과 보외법 이외에 시각적 특징에 적용할 수 있는 벡터 연산이 포함될 수 있기 때문에 확장될 여지가 존재한다. 3) 처리된 시각적 특징이 디코더에 입력되면, 디코더는 이를 픽셀로 매핑한다. Details of each generation step in the generation step are as follows. 1) The encoder accepts a concatenated input of the breast mass image and the embedded label and maps it to the 1024-dimensional latent feature space. The mapped visual feature includes information about the seed breast mass image and the corresponding BIRADS feature label. Therefore, the visual features can be processed to change the shape and characteristics of the mass produced. 2) The aforementioned treatments for visual features are applied to create visual features of breast masses that have appearances and characteristics that do not appear in the seed breast mass image. In other embodiments of the present invention, relatively simple operations such as linear interpolation and extrapolation may be applied. However, there is room for expansion because visual feature processing can include vector operations that can be applied to visual features in addition to linear interpolation and extrapolation. 3) When the processed visual feature is input to the decoder, the decoder maps it to pixels.
본 발명의 다른 실시예에 따른 방법은 고차원 잠재 특징 공간에서 선형 보간법과 보외법을 수행함으로써, 시드 유방 종괴 이미지와 다른 다양한 외관 및 특징을 갖는 유방 종괴를 생성할 수 있다. 인코더 및 디코더 방식을 적용하여, 실제적인 유방 종괴를 생성할 수 있으며, 생성된 종괴는 실제 유방 종괴와 구별될 수 없다. 생성된 유방 종괴는 클래식한 아핀 변환을 통해 증강된 유방 종괴보다 훨씬 더 비선형적 다이버시티를 가질 수 있다.The method according to another embodiment of the present invention may generate breast masses having various appearances and features different from seed breast mass images by performing linear interpolation and extrapolation in a high-dimensional latent feature space. By applying an encoder and decoder approach, actual breast masses can be generated, and the resulting masses cannot be distinguished from actual breast masses. The resulting breast mass may have much more nonlinear diversity than the breast mass enhanced through the classic affine transformation.
제안된 구조의 학습 전략Learning Strategy of Proposed Structure
본 발명의 다른 실시예에 따른 방법은 두 개의 BIRADS 특성 라벨(마진 라벨과 형상 라벨)을 사용하고, 이를 예측하기 위해 두 개의 판별기(D1 및 D2)를 사용한다. 여기서, D1의 손실 함수는 아래 <수학식 12>와 같이 정의될 수 있다.The method according to another embodiment of the present invention uses two BIRADS characteristic labels (margin label and shape label) and uses two discriminators D 1 and D 2 to predict them. Here, the loss function of D 1 may be defined as in Equation 12 below.
[수학식 12][Equation 12]
여기서, 와 는 D1의 실제/가짜 및 추정 마진 각각에 대한 예측을 의미하고, 는 전체 손실 함수의 균형을 맞추기 위해 각 손실 항에 곱해지는 가중치를 의미할 수 있다.here, Wow Is the prediction for each real / fake and estimated margin of D 1 , May denote a weight multiplied by each loss term to balance the overall loss function.
손실 함수의 처음 두 항은 실제 유방 종괴 이미지(I)의 실제/가짜를 예측하고 생성기(G)에 의한 유방 종괴 이미지(I')를 생성하는 적대적인 학습의 일반적인 GAN 손실을 의미한다. D1이 입력된 I와 I'으로부터 실제 측정 마진 라벨()을 예측할 때 의 손실 항은 감소한다.The beginning of the loss function, wherein two means a general loss of GAN hostile learning to predict a real / fake of breast masses actual image (I) to produce a breast tumor image (I ') by the generator (G). From the input I and I ' with D 1 the actual measurement margin label ( When predicting The loss term of decreases.
D2의 손실 함수는 아래 <수학식 13>과 같이 정의될 수 있다.The loss function of D 2 may be defined as in Equation 13 below.
[수학식 13][Equation 13]
여기서, 는 D2의 형상에 대한 예측을 의미할 수 있다.here, May mean prediction of the shape of D 2 .
D2의 손실 함수의 처음 두 항은 I와 I'의 실제/가짜를 예측하는 공격적 학습의 일반 GAN 손실을 의미한다. D2가 입력된 I와 I'로부터 실제 측정 형상 라벨()을 예측하면, 의 손실 항은 감소한다.The first two terms of the loss function of D 2 represent the general GAN loss of aggressive learning that predicts the real / fake of I and I ' . The actual measured shape label from D I and I 'the second input ( ), The loss term of decreases.
상기 수학식 12와 수학식 13에서, 에 입력으로 M을 취하는 좌측 손실 항은 BIRADS 특성 라벨을 정확하게 예측하기 위해 D를 푸쉬한다. M'을 입력으로 취함으로써 BIRADS 특성 라벨을 예측하는 손실 항은 G가 실제적인 유방 종괴를 생성하지 않는 초기 학습 단계에서 노이즈로 작용한다. 그러나 G가 실제 유방 종괴와 유사한 유방 종괴를 생성할 수 있게 된 후에는, 비선형적으로 다른 측면을 가진 생성된 종괴에 대해 BIRADS 특성 라벨을 더 잘 예측할 수 있게 된다. 따라서 데이터 증강 효과가 있다. 이는 G가 D의 예측 정확도를 증가시키는 방향으로 작동하기 때문에 협동 학습 손실 항으로 볼 수 있다.In Equation 12 and Equation 13, The left loss term taking M as the input to pushes D to accurately predict the BIRADS characteristic label. The loss term, which predicts BIRADS characteristic labels by taking M 'as input, acts as noise in the early learning phase where G does not produce actual breast masses. However, after G has been able to produce breast masses that are similar to actual breast masses, it is possible to better predict BIRADS signature labels for generated masses with non-linearly different aspects. Therefore, there is a data augmentation effect. This can be viewed as a cooperative learning loss term because G acts to increase the prediction accuracy of D.
다음으로, G의 손실 함수는 아래 <수학식 14>와 같이 정의될 수 있다.Next, the loss function of G may be defined as in Equation 14 below.
[수학식 14][Equation 14]
여기서, 와 는 전체 손실 함수의 균형을 맞추기 위해 각 손실 항에 곱해지는 가중치를 의미하고, 손실 항 L1(I, I')는 실제 유방 종괴 I와 생성된 유방 종괴 I' 사이의 L1 손실을 의미할 수 있다.here, Wow Denotes the weight multiplied by each loss term to balance the overall loss function, and the loss term L1 ( I , I ' ) may mean L1 loss between the actual breast mass I and the resulting breast mass I' . .
D1과 D2의 손실 함수와 같은 처음 두 손실 항은 I'에 대한 D1과 D2의 실제/가짜 예측에 대한 적대적 학습의 일반적인 GAN 손실을 의미한다. G가 BIRADS 특성 , 에 따라 더 강한 특성을 갖는 I '를 생성할 수 있을 때, 의 손실 항은 감소한다. D의 협동 학습 손실 항과 마찬가지로, 이 손실 항은 D가 정확하게 구별되지 않기 때문에 초기 학습 단계에서 노이즈로 작용한다. 그러나 D가 BIRADS 설명 라벨을 적절하게 식별할 수 있게 된 후, 이는 G가 I' 생성에서 사용된 BIRADS 특성 라벨의 특성을 더 잘 나타내도록 한다. 마지막 L1 손실 항은 G가 실제 데이터 분포와 유사한 다양성을 형성하도록 한다.The first two anti-loss such as loss of function of the D 1 and D 2 means a general loss of GAN hostile learning the real / false prediction of D 1 and D 2 to I '. G is the BIRADS attribute , When we can produce I ' with stronger properties, The loss term of decreases. Like the cooperative learning loss term in D, this loss term acts as noise in the initial learning phase because D is not accurately distinguished. However, after D can properly identify the BIRADS description label, it allows G to better characterize the BIRADS property label used in the I ' generation. The final L1 loss term causes G to form a variety similar to the actual data distribution.
전반적인 학습 단계는 D1, D2의 손실 함수와 G의 손실 함수를 교대로 최소화하는 형태로 진행될 수 있으며, 학습이 진행됨에 따라 G는 유방 종괴의 다양성을 근사할 수 있다.The overall learning phase can proceed in the form of alternately minimizing the loss function of D 1 , D 2 and the loss function of G. As learning progresses, G can approximate the diversity of breast masses.
이와 같이, 본 발명의 다른 일 실시예에 따른 방법은 미리 학습된 딥 네트워크와 잠재 공간(latent space)에서의 시각적 특징 처리를 이용하여 실제적인 유방 종괴를 생성할 수 있다.As such, the method according to another embodiment of the present invention may generate the actual breast mass using a pre-trained deep network and visual feature processing in the latent space.
도 5는 본 발명의 일 실시예에 따른 유방 종괴 생성 시스템에 대한 개념적인 구성을 나타낸 것으로, 상기 도 1의 방법을 수행하는 시스템에 대한 개념적인 구성을 나타낸 것이다.FIG. 5 illustrates a conceptual configuration of a breast mass generation system according to an embodiment of the present invention, and illustrates a conceptual configuration of a system for performing the method of FIG. 1.
도 5를 참조하면, 본 발명의 일 실시예에 따른 시스템(500)은 인코딩부(510), 생성부(520) 및 판별부(530)를 포함한다.Referring to FIG. 5, a
인코딩부(510)는 타겟 종괴 특성 예를 들어, 타겟 종괴 설명(description)을 인코딩한다.The
여기서, 인코딩부(510)는 게이트된 순환 유닛(GRU; Gated Recurrent Unit) 네트워크 기반 텍스트 인코더를 적용하여 타겟 종괴 설명 예를 들어, 타겟 BIRADS 특성을 인코딩할 수 있다.Here, the
생성부(520)는 인코딩된 타겟 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 타겟 종괴 특성에 대응하는 종괴 이미지를 생성한다.The
여기서, 생성부(520)는 시드 종괴 이미지와 인코딩된 타겟 종괴 특성으로부터 매핑되는 생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 타겟 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.Here, the
여기서, 생성부(520)는 잔차 블록을 갖는 인코더-디코더 네트워크를 기반으로 타겟 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.Here, the
여기서, 생성부(520)는 시드 종괴 이미지를 인코딩하여 시드 종괴 이미지의 특징들을 추출하고, 추출된 시드 종괴 이미지의 특징들과 인코딩된 타겟 종괴 특성을 연쇄시켜 디코딩함으로써, 타겟 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.Here, the
딥 네트워크는 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System) 특성을 인코딩하여 특성이 임베딩된 BIRADS를 획득하고, 특성이 임베딩된 BIRADS와 실제 종괴 이미지를 입력으로 하여 BIRADS 특성에 대응하는 종괴 이미지를 생성하며, 생성된 종괴 이미지와 특성이 임베딩된 BIRADS를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습될 수 있다.The deep network encodes the Breast Imaging-Reporting and Data System (BIRADS) feature to obtain BIRADS with embedded features, and inputs the BIRADS with embedded features and actual mass images to correspond to BIRADS features. A mass image is generated, and the generated mass image and characteristics can be learned through the process of distinguishing the actual mass from the fake mass using the embedded BIRADS.
판별부(530)는 생성부(520)에 의해 생성된 종괴 이미지와 인코딩부(510)에 의해 인코딩된 BIRADS 특성을 이용하여 생성된 종괴 이미지가 실제 종괴인지 가짜 종괴인지 구별한다.The
비록, 도 5의 시스템에서 그 설명이 생략되었더라도, 도 5를 구성하는 각 구성 수단은 도 1에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description is omitted in the system of FIG. 5, each constituent means constituting FIG. 5 may include all the contents described in FIG. 1, which is obvious to those skilled in the art.
도 6은 본 발명의 다른 일 실시예에 따른 유방 종괴 생성 시스템에 대한 개념적인 구성을 나타낸 것으로, 상기 도 2 내지 도 4의 방법을 수행하는 시스템에 대한 개념적인 구성을 나타낸 것이다.FIG. 6 illustrates a conceptual configuration of a breast mass generation system according to another embodiment of the present invention, and illustrates a conceptual configuration of a system for performing the method of FIGS. 2 to 4.
도 6을 참조하면, 본 발명의 일 실시예에 따른 시스템(600)은 임베딩부(610), 생성부(620) 및 판별부(630)를 포함한다.Referring to FIG. 6, the
임베딩부(610)는 종괴 특성을 임베딩한다.The embedding
여기서, 임베딩부(610)는 BIRADS 특성의 마진 라벨과 형상 라벨을 임베딩 모듈을 이용하여 마진 라벨과 형상 라벨을 임베딩할 수 있다.Here, the embedding
생성부(620)는 임베딩된 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 종괴 특성에 대응하는 종괴 이미지 예를 들어, 가짜 종괴 이미지를 생성한다.The
여기서, 생성부(620)는 생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.Here, the
여기서, 생성부(620)는 시드 종괴 이미지와 임베딩된 종괴 특성에 의해 형성된 잠재 공간에 임베딩된 종괴 특성을 가지는 종괴를 매핑하고, 잠재 공간에서 시각적 특징 처리 과정을 수행하여 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.Here, the
여기서, 생성부(620)는 잠재 공간에서 시각적 특징 선형 보간법과 시각적 특징 선형 보외법 중 적어도 하나를 이용하여 종괴 특성에 대응하는 종괴 이미지를 생성할 수 있다.Here, the
딥 네트워크는 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)의 마진 특성과 형상 특성을 임베딩하여 임베딩된 마진 특성과 임베딩된 형상 특성을 획득하고, 임베딩된 마진 특성, 임베딩된 형상 설명과 실제 종괴 이미지에 의해 형성된 잠재 공간에 임베딩된 마진 특성과 임베딩된 형상 특성을 가지는 종괴를 매핑하며, 잠재 공간에서 시각적 특징 처리 과정을 수행하여 마진 특성과 형상 특성에 대응하는 종괴 이미지를 생성하고, 생성된 종괴 이미지와 실제 종괴 이미지를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습될 수 있다.The deep network embeds margin and shape characteristics of the Breast Imaging-Reporting and Data System (BIRADS) to obtain embedded and embedded shape characteristics, and describes embedded margin characteristics and embedded shape characteristics. And maps the masses with embedded margin characteristics and embedded shape characteristics in the latent space formed by the actual mass image, and performs a visual feature processing process in the latent space to generate a mass image corresponding to the margin and shape characteristics. It can be learned through the process of distinguishing the actual mass from the fake mass using the generated mass image and the actual mass image.
판별부(630)는 실제 종괴와 가짜 종괴를 입력으로 하여 가짜/실제(real/fake), 마진 라벨과 형상 라벨에 대한 예측 결과를 출력한다.The
비록, 도 6의 시스템에서 그 설명이 생략되었더라도, 도 6을 구성하는 각 구성 수단은 도 2 내지 도 4에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description is omitted in the system of FIG. 6, each constituent means of FIG. 6 may include all the contents described in FIGS. 2 to 4, which are obvious to those skilled in the art.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.
Claims (20)
생성부에서 상기 인코딩된 타겟 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 단계
를 포함하는 종괴 생성 방법.
Encoding a target mass characteristic in an encoding unit; And
Generating a mass image corresponding to the target mass property by using a pre-learned deep network that receives the encoded target mass property and the seed mass image as inputs from a generator;
Mass generation method comprising a.
상기 생성하는 단계는
상기 시드 종괴 이미지와 상기 인코딩된 타겟 종괴 특성으로부터 매핑되는 생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 1,
The generating step
And generating a mass image corresponding to the target mass characteristic by using a generative adversarial network (GAN) mapped from the seed mass image and the encoded target mass characteristic.
상기 생성하는 단계는
잔차 블록을 갖는 인코더-디코더 네트워크를 기반으로 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 1,
The generating step
And generating a mass image corresponding to the target mass characteristic based on an encoder-decoder network having a residual block.
상기 생성하는 단계는
상기 시드 종괴 이미지를 인코딩하여 상기 시드 종괴 이미지의 특징들을 추출하고, 상기 추출된 시드 종괴 이미지의 특징들과 상기 인코딩된 타겟 종괴 특성을 연쇄시켜 디코딩함으로써, 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 1,
The generating step
Encoding the seed mass image to extract features of the seed mass image, and concatenating and decoding the features of the extracted seed mass image and the encoded target mass characteristic to generate a mass image corresponding to the target mass characteristic Mass generation method characterized in that.
상기 딥 네트워크는
유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System) 특성을 인코딩하여 상기 특성이 임베딩된 BIRADS를 획득하고, 상기 특성이 임베딩된 BIRADS와 실제 종괴 이미지를 입력으로 하여 상기 BIRADS 특성에 대응하는 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 특성이 임베딩된 BIRADS를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습되는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 1,
The deep network
Encoding a Breast Imaging-Reporting and Data System (BIRADS) feature to obtain a BIRADS embedded with the feature, and using the embedded BIRADS and the actual mass image as inputs to correspond to the BIRADS feature. Generating a mass image, wherein the generated mass image and the characteristic are learned by using the embedded BIRADS to discriminate between the actual mass and the fake mass.
생성부에서 상기 임베딩된 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 단계
를 포함하는 종괴 생성 방법.
Embedding the mass characteristics in the embedding portion; And
Generating a mass image corresponding to the mass characteristics by using a pre-learned deep network that receives the embedded mass characteristics and the seed mass image in a generator;
Mass generation method comprising a.
상기 생성하는 단계는
생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 6,
The generating step
A mass generation method comprising generating a mass image corresponding to the mass characteristics by using a generative adversarial network (GAN).
상기 생성하는 단계는
상기 시드 종괴 이미지와 상기 임베딩된 종괴 특성에 의해 형성된 잠재 공간에 상기 임베딩된 종괴 특성을 가지는 종괴를 매핑하고, 상기 잠재 공간에서 시각적 특징 처리 과정을 수행하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 6,
The generating step
Mapping a mass having the embedded mass characteristic to a latent space formed by the seed mass image and the embedded mass characteristic, and performing a visual feature processing process in the latent space to generate a mass image corresponding to the mass characteristic. A mass producing method, characterized in that.
상기 생성하는 단계는
상기 잠재 공간에서 시각적 특징 선형 보간법과 시각적 특징 선형 보외법 중 적어도 하나를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 8,
The generating step
And generating a mass image corresponding to the mass characteristics using at least one of visual feature linear interpolation and visual feature linear interpolation in the latent space.
상기 딥 네트워크는
유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)의 마진 특성과 형상 특성을 임베딩하여 임베딩된 마진 특성과 임베딩된 형상 특성을 획득하고, 상기 임베딩된 마진 특성, 상기 임베딩된 형상 특성과 실제 종괴 이미지에 의해 형성된 잠재 공간에 상기 임베딩된 마진 특성과 상기 임베딩된 형상 특성을 가지는 종괴를 매핑하며, 상기 잠재 공간에서 시각적 특징 처리 과정을 수행하여 상기 마진 특성과 상기 형상 특성에 대응하는 종괴 이미지를 생성하고, 상기 생성된 종괴 이미지와 상기 실제 종괴 이미지를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습되는 것을 특징으로 하는 종괴 생성 방법.
The method of claim 6,
The deep network
By embedding margin characteristics and shape characteristics of the Breast Imaging-Reporting and Data System (BIRADS), the embedded margin characteristics and the embedded shape characteristics are obtained, and the embedded margin characteristics, the embedded shape characteristics and A mass image having the embedded margin characteristic and the embedded shape characteristic is mapped to a latent space formed by an actual mass image, and a visual image processing process is performed in the latent space to correspond to the margin characteristic and the shape characteristic. And generating a mass, and learning through the process of distinguishing the actual mass from the fake mass using the generated mass image and the actual mass image.
상기 인코딩된 타겟 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 생성부
를 포함하는 종괴 생성 시스템.
An encoding unit for encoding the target mass characteristic; And
A generation unit generating a mass image corresponding to the target mass characteristic by using a pre-learned deep network that receives the encoded target mass characteristic and the seed mass image as inputs
Mass generation system comprising a.
상기 생성부는
상기 시드 종괴 이미지와 상기 인코딩된 타겟 종괴 특성으로부터 매핑되는 생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 11,
The generation unit
And generate a mass image corresponding to the target mass characteristic using a Generic Adversarial Network (GAN) mapped from the seed mass image and the encoded target mass characteristic.
상기 생성부는
잔차 블록을 갖는 인코더-디코더 네트워크를 기반으로 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 11,
The generation unit
And generate a mass image corresponding to the target mass characteristic based on the encoder-decoder network having the residual block.
상기 생성부는
상기 시드 종괴 이미지를 인코딩하여 상기 시드 종괴 이미지의 특징들을 추출하고, 상기 추출된 시드 종괴 이미지의 특징들과 상기 인코딩된 타겟 종괴 특성을 연쇄시켜 디코딩함으로써, 상기 타겟 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 11,
The generation unit
Encoding the seed mass image to extract features of the seed mass image, and concatenating and decoding the features of the extracted seed mass image and the encoded target mass characteristic to generate a mass image corresponding to the target mass characteristic A mass generating system, characterized in that.
상기 딥 네트워크는
유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System) 특성을 인코딩하여 상기 특성이 임베딩된 BIRADS를 획득하고, 상기 특성이 임베딩된 BIRADS와 실제 종괴 이미지를 입력으로 하여 상기 BIRADS 특성에 대응하는 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 특성이 임베딩된 BIRADS를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습되는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 11,
The deep network
Encoding a Breast Imaging-Reporting and Data System (BIRADS) feature to obtain a BIRADS embedded with the feature, and using the embedded BIRADS and the actual mass image as inputs to correspond to the BIRADS feature. A mass generation system for generating a mass image, wherein the generated mass image and the characteristic are learned by using the embedded BIRADS to discriminate between the actual mass and the fake mass.
상기 임베딩된 종괴 특성과 시드 종괴 이미지를 입력으로 하는 미리 학습된 딥 네트워크를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 생성부
를 포함하는 종괴 생성 시스템.
Embedding portion for embedding the mass characteristics; And
A generation unit for generating a mass image corresponding to the mass characteristics using a pre-learned deep network that takes the embedded mass characteristics and seed mass images as inputs.
Mass generation system comprising a.
상기 생성부는
생성적 적대 네트워크(GAN; Generative Adversarial Network)를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 16,
The generation unit
A mass generation system, characterized by generating a mass image corresponding to the mass characteristics using a Generative Adversarial Network (GAN).
상기 생성부는
상기 시드 종괴 이미지와 상기 임베딩된 종괴 특성에 의해 형성된 잠재 공간에 상기 임베딩된 종괴 특성을 가지는 종괴를 매핑하고, 상기 잠재 공간에서 시각적 특징 처리 과정을 수행하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 16,
The generation unit
Mapping a mass having the embedded mass characteristic to a latent space formed by the seed mass image and the embedded mass characteristic, and performing a visual feature processing process in the latent space to generate a mass image corresponding to the mass characteristic. A mass generating system, characterized in that.
상기 생성부는
상기 잠재 공간에서 시각적 특징 선형 보간법과 시각적 특징 선형 보외법 중 적어도 하나를 이용하여 상기 종괴 특성에 대응하는 종괴 이미지를 생성하는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 18,
The generation unit
And generate a mass image corresponding to the mass characteristic using at least one of visual feature linear interpolation and visual feature linear interpolation in the latent space.
상기 딥 네트워크는
유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)의 마진 특성과 형상 특성을 임베딩하여 임베딩된 마진 특성과 임베딩된 형상 특성을 획득하고, 상기 임베딩된 마진 특성, 상기 임베딩된 형상 특성과 실제 종괴 이미지에 의해 형성된 잠재 공간에 상기 임베딩된 마진 특성과 상기 임베딩된 형상 특성을 가지는 종괴를 매핑하며, 상기 잠재 공간에서 시각적 특징 처리 과정을 수행하여 상기 마진 특성과 상기 형상 특성에 대응하는 종괴 이미지를 생성하고, 상기 생성된 종괴 이미지와 상기 실제 종괴 이미지를 이용하여 실제 종괴와 가짜 종괴를 구별하는 과정을 통해 학습되는 것을 특징으로 하는 종괴 생성 시스템.
The method of claim 16,
The deep network
By embedding margin characteristics and shape characteristics of the Breast Imaging-Reporting and Data System (BIRADS), the embedded margin characteristics and the embedded shape characteristics are obtained, and the embedded margin characteristics, the embedded shape characteristics and A mass image having the embedded margin characteristic and the embedded shape characteristic is mapped to a latent space formed by an actual mass image, and a visual image processing process is performed in the latent space to correspond to the margin characteristic and the shape characteristic. And generating a mass and using the generated mass image and the actual mass image to learn a process of distinguishing a real mass from a fake mass.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180082134A KR102067340B1 (en) | 2018-07-16 | 2018-07-16 | Method for generating breast masses according to the lesion characteristics and the system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180082134A KR102067340B1 (en) | 2018-07-16 | 2018-07-16 | Method for generating breast masses according to the lesion characteristics and the system thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102067340B1 true KR102067340B1 (en) | 2020-01-16 |
Family
ID=69369040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180082134A KR102067340B1 (en) | 2018-07-16 | 2018-07-16 | Method for generating breast masses according to the lesion characteristics and the system thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102067340B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210075832A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative imaging using ultrasound data |
KR20210075831A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative ultrasound imaging using single-ultrasound probe |
KR20210142993A (en) * | 2020-05-19 | 2021-11-26 | 가천대학교 산학협력단 | The method and system for automatic detection of breast mass |
WO2021256702A1 (en) * | 2020-06-18 | 2021-12-23 | 삼성전자 주식회사 | Electronic device and control method thereof |
KR20220107912A (en) * | 2021-01-25 | 2022-08-02 | 한국과학기술원 | Method and apparatus for multi-variable quantitative imaging using ultrasound data |
WO2022239896A1 (en) * | 2021-05-10 | 2022-11-17 | 주식회사 씨앤에이아이 | Device and method for translating breast image |
WO2023287083A1 (en) * | 2021-07-14 | 2023-01-19 | 한국과학기술원 | Method and device for quantitative imaging in medical ultrasound |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150079566A1 (en) * | 2013-09-16 | 2015-03-19 | Wisconsin Alumni Research Foundaiton | Simulator for breast imaging examinations |
KR20160117807A (en) | 2015-03-31 | 2016-10-11 | 한국전자통신연구원 | Method and apparatus for breast lesion diagnosis |
KR20180001428A (en) * | 2016-06-24 | 2018-01-04 | 한국과학기술원 | Encoding method and apparatus comprising convolutional neural network(cnn) based in-loop filter, and decoding method and apparatus comprising convolutional neural network(cnn) based in-loop filter |
KR101824691B1 (en) * | 2017-01-05 | 2018-02-02 | 서울여자대학교 산학협력단 | Method for differentiation of fat-poor angiomyolipoma from clear cell renal cell carcinoma in contrast-enhanced mdct images using quantitative feature classification |
KR101843066B1 (en) * | 2017-08-23 | 2018-05-15 | 주식회사 뷰노 | Method for classifying data via data augmentation of the data for machine-learning and apparatus using the same |
JP2018097807A (en) * | 2016-12-16 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | Learning device |
KR20180072642A (en) * | 2018-06-20 | 2018-06-29 | 연세대학교 산학협력단 | Methods for classifyng breast cancer subtypes and a device for classifyng breast cancer subtypes using the same |
-
2018
- 2018-07-16 KR KR1020180082134A patent/KR102067340B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150079566A1 (en) * | 2013-09-16 | 2015-03-19 | Wisconsin Alumni Research Foundaiton | Simulator for breast imaging examinations |
KR20160117807A (en) | 2015-03-31 | 2016-10-11 | 한국전자통신연구원 | Method and apparatus for breast lesion diagnosis |
KR20180001428A (en) * | 2016-06-24 | 2018-01-04 | 한국과학기술원 | Encoding method and apparatus comprising convolutional neural network(cnn) based in-loop filter, and decoding method and apparatus comprising convolutional neural network(cnn) based in-loop filter |
JP2018097807A (en) * | 2016-12-16 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | Learning device |
KR101824691B1 (en) * | 2017-01-05 | 2018-02-02 | 서울여자대학교 산학협력단 | Method for differentiation of fat-poor angiomyolipoma from clear cell renal cell carcinoma in contrast-enhanced mdct images using quantitative feature classification |
KR101843066B1 (en) * | 2017-08-23 | 2018-05-15 | 주식회사 뷰노 | Method for classifying data via data augmentation of the data for machine-learning and apparatus using the same |
KR20180072642A (en) * | 2018-06-20 | 2018-06-29 | 연세대학교 산학협력단 | Methods for classifyng breast cancer subtypes and a device for classifyng breast cancer subtypes using the same |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210075832A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative imaging using ultrasound data |
KR20210075831A (en) * | 2019-12-13 | 2021-06-23 | 한국과학기술원 | Method and apparatus for quantitative ultrasound imaging using single-ultrasound probe |
KR102380167B1 (en) | 2019-12-13 | 2022-03-29 | 한국과학기술원 | Method and apparatus for quantitative ultrasound imaging using single-ultrasound probe |
KR102490019B1 (en) | 2019-12-13 | 2023-01-18 | 한국과학기술원 | Method and apparatus for quantitative imaging using ultrasound data |
KR20210142993A (en) * | 2020-05-19 | 2021-11-26 | 가천대학교 산학협력단 | The method and system for automatic detection of breast mass |
KR102396911B1 (en) | 2020-05-19 | 2022-05-11 | 가천대학교 산학협력단 | The method and system for automatic detection of breast mass |
WO2021256702A1 (en) * | 2020-06-18 | 2021-12-23 | 삼성전자 주식회사 | Electronic device and control method thereof |
KR20220107912A (en) * | 2021-01-25 | 2022-08-02 | 한국과학기술원 | Method and apparatus for multi-variable quantitative imaging using ultrasound data |
KR102655333B1 (en) | 2021-01-25 | 2024-04-05 | 한국과학기술원 | Method and apparatus for multi-variable quantitative imaging using ultrasound data |
WO2022239896A1 (en) * | 2021-05-10 | 2022-11-17 | 주식회사 씨앤에이아이 | Device and method for translating breast image |
KR20220153171A (en) | 2021-05-10 | 2022-11-18 | 주식회사 씨앤에이아이 | Device and Method for Translating Breast Image |
WO2023287083A1 (en) * | 2021-07-14 | 2023-01-19 | 한국과학기술원 | Method and device for quantitative imaging in medical ultrasound |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102067340B1 (en) | Method for generating breast masses according to the lesion characteristics and the system thereof | |
WO2022199462A1 (en) | Method for training medical image report generation model, and image report generation method | |
US10366491B2 (en) | Deep image-to-image recurrent network with shape basis for automatic vertebra labeling in large-scale 3D CT volumes | |
US10733733B1 (en) | Method for detecting anomaly using generative adversarial networks, apparatus and system thereof | |
NL2019410B1 (en) | Computer-aided diagnostics using deep neural networks | |
Sander et al. | Automatic segmentation with detection of local segmentation failures in cardiac MRI | |
JP6885517B1 (en) | Diagnostic support device and model generation device | |
CN114119515B (en) | Brain tumor detection method based on attention mechanism and MRI multi-mode fusion | |
JP7411126B2 (en) | Multitemporal CT image classification system and construction method based on spatiotemporal attention model | |
Koshino et al. | Narrative review of generative adversarial networks in medical and molecular imaging | |
Wang et al. | CheXLocNet: Automatic localization of pneumothorax in chest radiographs using deep convolutional neural networks | |
CN112365980A (en) | Brain tumor multi-target point auxiliary diagnosis and prospective treatment evolution visualization method and system | |
Szentimrey et al. | Automated 3D U‐net based segmentation of neonatal cerebral ventricles from 3D ultrasound images | |
Pham et al. | Chest X-ray abnormalities localization via ensemble of deep convolutional neural networks | |
US20230386032A1 (en) | Lesion Detection and Segmentation | |
Zhang et al. | CdcSegNet: automatic COVID-19 infection segmentation from CT images | |
WO2023274599A1 (en) | Methods and systems for automated follow-up reading of medical image data | |
Sahu et al. | Structure correction for robust volume segmentation in presence of tumors | |
Crasta et al. | A novel Deep Learning architecture for lung cancer detection and diagnosis from Computed Tomography image analysis | |
Velichko et al. | A comprehensive review of deep learning approaches for magnetic resonance imaging liver tumor analysis | |
KR20210001233A (en) | Method for Blood Vessel Segmentation | |
Yang et al. | Lung Nodule Segmentation and Uncertain Region Prediction with an Uncertainty-Aware Attention Mechanism | |
Francis et al. | SABOS‐Net: Self‐supervised attention based network for automatic organ segmentation of head and neck CT images | |
KR102601970B1 (en) | Apparatus and method for detecting leison region and gland region in medical image | |
KR20230126056A (en) | Method and Apparatus of Multi-Modality Fusion Network for MRI Brain Tumor Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |