KR102216279B1 - Method for interpretating visual evidence according to breast mass characteristics and the system thereof - Google Patents

Method for interpretating visual evidence according to breast mass characteristics and the system thereof Download PDF

Info

Publication number
KR102216279B1
KR102216279B1 KR1020190008006A KR20190008006A KR102216279B1 KR 102216279 B1 KR102216279 B1 KR 102216279B1 KR 1020190008006 A KR1020190008006 A KR 1020190008006A KR 20190008006 A KR20190008006 A KR 20190008006A KR 102216279 B1 KR102216279 B1 KR 102216279B1
Authority
KR
South Korea
Prior art keywords
mass
characteristic
image
shape
boundary
Prior art date
Application number
KR1020190008006A
Other languages
Korean (ko)
Other versions
KR20200091145A (en
Inventor
노용만
김성태
이재혁
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020190008006A priority Critical patent/KR102216279B1/en
Publication of KR20200091145A publication Critical patent/KR20200091145A/en
Application granted granted Critical
Publication of KR102216279B1 publication Critical patent/KR102216279B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Fuzzy Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 발명은 딥 네트워크를 이용하여 유방 종괴의 모양(shape) 및 경계(margin)에 대한 시각적 증거를 해석하는 방법 및 그 시스템에 관한 것으로, 타겟 종괴 특성을 인코딩하는 단계, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 단계 및 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 단계를 포함한다. The present invention relates to a method and a system for interpreting visual evidence for the shape and margin of a breast mass using a deep network, the step of encoding a target mass characteristic, and the encoded target mass characteristic And generating mass images of corresponding shape characteristics and boundary characteristics, and measuring visual evidence for the target mass using a deep network that receives the mass image and mass characteristic samples as inputs.

Figure R1020190008006
Figure R1020190008006

Description

유방 종괴 특성에 따른 시각적 증거 해석 방법 및 그 시스템{METHOD FOR INTERPRETATING VISUAL EVIDENCE ACCORDING TO BREAST MASS CHARACTERISTICS AND THE SYSTEM THEREOF}A method of interpreting visual evidence according to the characteristics of a breast mass and its system {METHOD FOR INTERPRETATING VISUAL EVIDENCE ACCORDING TO BREAST MASS CHARACTERISTICS AND THE SYSTEM THEREOF}

본 발명은 유방 종괴 특성에 따른 시각적 증거 해석 방법 및 그 시스템에 관한 것으로, 보다 상세하게는 딥 네트워크를 이용하여 유방 종괴의 모양(shape) 및 경계(margin)에 대한 시각적 증거를 해석하는 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for interpreting visual evidence according to characteristics of a breast mass, and more particularly, a method and system for interpreting visual evidence for the shape and margin of a breast mass using a deep network. It is about.

여성들에게 유방 종양은 피부 종양 다음으로 두 번째인 종양 유형이지만, 사망자 수와 관련해서는 첫 번째인 종양 유형이다.For women, breast tumors are the second tumor type after skin tumors, but the first tumor type when it comes to deaths.

특히 불안한 현상은 종양이 발생하는 평균 연령이 지속적으로 낮아지고 있다는 것과, 현재의 검진(screening) 도구는 폐경 전 연령인 여성의 특징이자 일반적으로 건강 상태가 양호한 여성의 특징인 고밀도 유방을 진단하는데에는 불충분하다는 것이다. 사실, 유방조영술(mammography)은 고밀도 유방의 경우에는 신뢰도가 충분하지 않다. 검사되어야 하는 주의 영역에 ‘사전겨냥(pre-directed)’되지 않는다면 비효율적일 수 있다. 예컨대 MRI, CT, PET와 같이, 기능적 정보를 제공하거나 고밀도 유방을 진단할 수 있는 현재의 시스템들은 매우 고가이므로, 검진 또는 대량 진단(mass diagnostic)에는 적합하지 않으며, 침습적(invasive)이어서 단기간에 반복될 수 없다.In particular, the anxious phenomenon is that the average age at which tumors occur is constantly decreasing, and the current screening tool is a feature of premenopausal women and is generally a characteristic of women in good health, which is difficult to diagnose high-density breasts. It is not enough. In fact, mammography is not reliable enough for high-density breasts. It can be inefficient if it is not'pre-directed' to the attentional area that needs to be examined. Current systems that can provide functional information or diagnose high-density breasts, such as MRI, CT, and PET, are very expensive, so they are not suitable for screening or mass diagnostics, and are invasive and repeat in a short period of time. Can't be

일반적인 맥락에서, 오늘날의 진단 경로는 항상, 음성인지 명확하지 않은 각각의 1차 진단의 초음파 다운스트림의 사용을 포함한다. 이는, 오늘날의 1차 진단 방법이 병변의 악성 또는 양성을 진단하기에 충분한 민감도와 정확한 위치를 찾기에 충분한 특수성을 갖고 있지 않기 때문이다.In a general context, today's diagnostic pathways always involve the use of ultrasound downstream of each primary diagnosis that is not clear whether it is negative or not. This is because today's primary diagnostic methods do not have sufficient sensitivity to diagnose malignant or benign lesions and sufficient specificity to find the correct location.

최근 연구들은 의료 영상 분석의 결과를 향상시키기 위해 딥 러닝 기술을 사용하고 있으며, 딥 러닝 기술이 의료 영상 분석에 좋은 성능을 얻을 수 있다고 보고하고 있다.Recent studies are using deep learning technology to improve the results of medical image analysis, and it is reported that deep learning technology can obtain good performance for medical image analysis.

다만, 딥 러닝 기술은 영상 인식과 의료 영상 분석과 같은 다양한 범위의 영상 분석 응용 분야에서 큰 성공을 거두었으나, 실제로 딥 러닝 기술을 적용하는 데에는 한계가 존재한다.However, deep learning technology has achieved great success in a wide range of image analysis applications such as image recognition and medical image analysis, but there is a limit to the application of deep learning technology.

주된 이유로는 딥 러닝의 블랙박스 특성(Black-box nature)이다. 딥 네트워크의 블랙박스 특성은 컴퓨터자동진단시스템(computer-aided diagnosis; CADx)에서 딥 러닝의 신뢰성을 증가시키기 위해 해결되어야 하는 핵심적인 한계이다. 그러나, 컴퓨터자동진단시스템의 딥 네트워크의 임상 결정을 해석하기 위해 수행된 연구는 매우 적으며, 기존의 딥 러닝 기술을 적용한 일 실시예 기술은 블랙박스 특성에 의해 임상 결정을 해석하는 데에 제한적인 문제점이 있다.
[선행기술문헌]
[특허문헌]
한국공개특허 제10-2014-0093376호(2014.07.28. 공개)
The main reason is the black-box nature of deep learning. The black box characteristic of deep networks is a key limitation that must be solved to increase the reliability of deep learning in computer-aided diagnosis (CADx). However, there are very few studies conducted to interpret the clinical decision of the deep network of the computerized automatic diagnosis system, and an embodiment technology to which the existing deep learning technology is applied is limited in interpreting the clinical decision by the black box characteristic. There is a problem.
[Prior technical literature]
[Patent Literature]
Korean Patent Publication No. 10-2014-0093376 (published on 28 July 2014)

본 발명은 타겟 종괴 특성에 대한 시각적 해석법을 모양 특성 및 경계 특성으로 분해하여 딥 네트워크의 해석이 가능한 시각적 증거를 제공할 수 있는 방법 및 시스템을 제공하고자 한다.An object of the present invention is to provide a method and system capable of providing a visual evidence capable of analyzing a deep network by decomposing a visual analysis method for a target mass characteristic into shape characteristics and boundary characteristics.

또한, 본 발명은 종괴의 모양 및 경계에 관련된 영역을 표시하는 모양 특성 및 경계 특성의 해석 네트워크(interpretationlet)를 사용하여 공간적 특성을 개선함으로써, 딥 네트워크의 임상적 정확도를 향상시킬 수 있는 방법 및 시스템을 제공하고자 한다.In addition, the present invention is a method and system capable of improving the clinical accuracy of a deep network by improving spatial characteristics by using an interpretationlet of shape characteristics and boundary characteristics that display areas related to the shape and boundary of a mass. Want to provide.

본 발명의 일 실시예에 따른 종괴 특성에 따른 시각적 증거 해석 방법은 타겟 종괴 특성을 인코딩하는 단계, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 단계 및 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 단계를 포함한다.A method for analyzing visual evidence according to mass characteristics according to an embodiment of the present invention includes encoding a target mass characteristic, generating a mass image of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristic, and the mass image And measuring visual evidence for the target mass by using a deep network using the mass characteristic sample as inputs.

상기 인코딩하는 단계는 상기 타겟 종괴에 대한 관심 영역(region-of-interest; ROI) 이미지의 종괴 특성을 인코딩할 수 있다.In the encoding step, mass characteristics of a region-of-interest (ROI) image for the target mass may be encoded.

상기 생성하는 단계는 상기 인코딩된 타겟 종괴 특성을 입력으로 하는 시각적 해석 네트워크(visual interpretation network)를 이용하여 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성 각각의 종괴 이미지를 생성할 수 있다.In the generating step, mass images of each of the shape characteristics and the boundary characteristics corresponding to the target mass characteristics may be generated using a visual interpretation network that receives the encoded target mass characteristics as input.

상기 측정하는 단계는 상기 모양 특성의 종괴 이미지와 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크(shape guide networks)를 이용하여 상기 타겟 종괴에 대한 모양 관련성 점수(shape relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 단계 및 상기 경계 특성의 종괴 이미지와 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크(margin guide networks)를 이용하여 상기 타겟 종괴에 대한 경계 관련성 점수(margin relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 단계를 포함할 수 있다.In the measuring step, a shape relevance score for the target mass is calculated using a shape guide network in which the mass image of the shape characteristic and a shape characteristic sample are input as inputs, and visual evidence visual evidence by calculating a margin relevance score for the target mass using the step of measuring evidence) and margin guide networks that input the mass image of the boundary characteristic and the boundary characteristic sample as inputs. It may include measuring (visual evidence).

상기 유도 네트워크는 상기 종괴 이미지를 인코딩한 인코딩된 종괴 이미지와 상기 모양 특성 또는 상기 경계 특성에 대한 임베딩(embedding)된 설명 정보를 입력으로 연산하여 관련성 점수(relevance score)를 출력하도록 구성될 수 있다.The induction network may be configured to output a relevance score by calculating an encoded mass image obtained by encoding the mass image and embedded description information for the shape feature or the boundary feature as inputs.

또한, 본 발명의 일 실시예에 따른 종괴 특성에 따른 시각적 증거 해석 방법은 상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 단계를 더 포함할 수 있다.In addition, the method of interpreting visual evidence according to mass characteristics according to an embodiment of the present invention may further include verifying a clinical decision using the mass image merged with the encoded target mass characteristics.

상기 검증하는 단계는 모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병한 상기 합병된 종괴 이미지와 상기 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하는 진단 네트워크(diagnosis network)를 이용하여 상기 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증할 수 있다.The verifying step is performed on the target mass using a diagnostic network that calculates and inputs the merged mass image obtained by merging the mass image of the shape feature and the mass image of the boundary feature and the encoded target mass feature. Malignant or benign clinical decisions can be verified.

상기 검증하는 단계는 상기 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 상기 타겟 종괴에 대한 상기 모양 특성 및 상기 경계 특성을 습득할 수 있다.In the verifying step, in the process of verifying a clinical decision using the diagnostic network, the shape characteristic and the boundary characteristic of the target mass may be acquired based on the shape of the mass and the boundary of the mass learned in advance.

상기 딥 네트워크는 공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 상기 인코딩된 타겟 종괴 특성을 획득하고, 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성의 상기 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것일 수 있다.The deep network obtains the encoded target mass characteristic by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map, and the target mass characteristic It may be learned through a process of generating the mass image of the shape characteristic and the boundary characteristic corresponding to, and improving spatial characteristics due to visual evidence measured by the generated mass image and the mass characteristic sample.

본 발명의 다른 실시예에 따른 종괴 특성에 따른 시각적 증거 해석 방법은 타겟 종괴 특성을 인코딩하는 단계, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 단계, 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 단계 및 상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 단계를 포함한다.In another embodiment of the present invention, a method for analyzing visual evidence according to mass characteristics includes encoding target mass characteristics, generating mass images of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics, and the mass image And measuring visual evidence for a target mass using a deep network that receives a mass characteristic sample as an input, and verifying a clinical decision using the mass image merged with the encoded target mass characteristic. Include.

본 발명의 일 실시예에 따른 종괴 특성에 따른 시각적 증거 해석 시스템은 타겟 종괴 특성을 인코딩하는 인코딩부, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 시각적 해석부 및 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 측정부를 포함한다.The visual evidence analysis system according to mass characteristics according to an embodiment of the present invention includes an encoding unit for encoding target mass characteristics, a visual analysis unit for generating mass images of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics, and And a measuring unit for measuring visual evidence for the target mass using a deep network that receives the mass image and mass characteristic sample as inputs.

상기 인코딩부는 상기 타겟 종괴에 대한 관심 영역(region-of-interest; ROI) 이미지의 종괴 특성을 인코딩할 수 있다.The encoding unit may encode a mass characteristic of a region-of-interest (ROI) image for the target mass.

상기 시각적 해석부는 상기 인코딩된 타겟 종괴 특성을 입력으로 하여 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성 각각의 종괴 이미지를 생성할 수 있다.The visual analysis unit may generate a mass image of each of the shape characteristics and the boundary characteristics corresponding to the target mass characteristics by inputting the encoded target mass characteristics.

상기 측정부는 상기 모양 특성의 종괴 이미지와 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크(guide networks)를 이용하여 상기 타겟 종괴에 대한 모양 관련성 점수(shape relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 모양 측정부 및 상기 경계 특성의 종괴 이미지와 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크(guide networks)를 이용하여 상기 타겟 종괴에 대한 경계 관련성 점수(margin relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 경계 측정부를 포함할 수 있다.The measurement unit calculates a shape relevance score for the target mass using guide networks that input the mass image of the shape feature and the shape feature sample as inputs to provide visual evidence. By using a shape measuring unit to measure and a boundary-relevance score for the target mass using guide networks that input the mass image of the boundary characteristic and the boundary characteristic sample as an input, a visual evidence (visual evidence) is obtained. It may include a boundary measuring unit for measuring evidence).

상기 유도 네트워크는 상기 종괴 이미지를 인코딩한 인코딩된 종괴 이미지와 상기 모양 특성 또는 상기 경계 특성에 대한 임베딩(embedding)된 설명 정보를 입력으로 연산하여 관련성 점수(relevance score)를 출력하도록 구성될 수 있다.The induction network may be configured to output a relevance score by calculating an encoded mass image obtained by encoding the mass image and embedded description information for the shape feature or the boundary feature as inputs.

또한, 본 발명의 일 실시예에 따른 종괴 특성에 따른 시각적 증거 해석 시스템은 상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 검증부를 더 포함할 수 있다.In addition, the visual evidence analysis system according to mass characteristics according to an embodiment of the present invention may further include a verification unit for verifying a clinical decision using the mass image merged with the encoded target mass characteristics.

상기 검증부는 모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병한 상기 합병된 종괴 이미지와 상기 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하는 진단 네트워크(diagnosis network)를 이용하여 상기 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증할 수 있다.The verification unit uses a diagnostic network (diagnosis network) that calculates the merged mass image obtained by merging the mass image of shape characteristics and the mass image of boundary characteristics, and the encoded target mass characteristics, and uses a diagnostic network for the target mass. Alternatively, a positive clinical decision can be verified.

상기 검증부는 상기 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 상기 타겟 종괴에 대한 상기 모양 특성 및 상기 경계 특성을 습득할 수 있다.The verification unit may acquire the shape characteristic and the boundary characteristic for the target mass based on the shape of the mass and the boundary of the mass learned in advance in the process of verifying the clinical decision using the diagnostic network.

상기 딥 네트워크는 공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 상기 인코딩된 타겟 종괴 특성을 획득하고, 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성의 상기 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것일 수 있다.The deep network obtains the encoded target mass characteristic by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map, and the target mass characteristic It may be learned through a process of generating the mass image of the shape characteristic and the boundary characteristic corresponding to, and improving spatial characteristics due to visual evidence measured by the generated mass image and the mass characteristic sample.

본 발명의 다른 실시예에 따른 종괴 특성에 따른 시각적 증거 해석 시스템은 타겟 종괴 특성을 인코딩하는 인코딩부, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 시각적 해석부, 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 측정부 및 상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 검증부를 포함한다. A visual evidence analysis system according to mass characteristics according to another embodiment of the present invention includes an encoding unit for encoding target mass characteristics, a visual analysis unit for generating mass images of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics, A clinical decision is made using a measurement unit that measures visual evidence for a target mass using a deep network that takes the mass image and mass characteristic sample as inputs, and the mass image merged with the encoded target mass characteristic. It includes a verification unit to verify.

본 발명의 실시예에 따르면, 타겟 종괴 특성에 대한 시각적 해석법을 모양 특성 및 경계 특성으로 분해하여 딥 네트워크의 해석이 가능한 시각적 증거를 제공할 수 있다.According to an exemplary embodiment of the present invention, visual evidence capable of analyzing a deep network may be provided by decomposing a visual analysis method for a target mass characteristic into shape characteristics and boundary characteristics.

또한, 본 발명의 실시예에 따르면, 종괴의 모양 및 경계에 관련된 영역을 표시하는 모양 특성 및 경계 특성의 해석 네트워크(interpretationlet network)를 사용하여 공간적 특성을 개선함으로써, 딥 네트워크의 임상적 정확도를 향상시킬 수 있다.In addition, according to an embodiment of the present invention, the clinical accuracy of the deep network is improved by improving the spatial characteristics by using an interpretationlet network of shape characteristics and boundary characteristics that display areas related to the shape and boundary of the mass. I can make it.

또한, 본 발명의 실시예에 따르면, 제안하는 해석 네트워크(interpretationlet network)가 임상적 결정이 정확할 때, 이에 대한 적절한 시각적 증거를 제공할 수 있다. In addition, according to an embodiment of the present invention, when a clinical decision is correct in the proposed interpretationlet network, it can provide appropriate visual evidence for this.

도 1a 및 도 1b는 본 발명의 일 실시예에 따른 시각적 증거 해석 방법에 대한 동작 흐름도를 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 딥 네트워크의 임상 결정을 위한 시각적 증거의 예를 도시한 것이다.
도 3은 본 발명의 일 실시예에 따른 해석 네트워크에 대한 개념적인 구조를 도시한 것이다.
도 4는 본 발명의 일 실시예에 따른 유도 네트워크에 대한 개념적인 구조를 도시한 것이다.
도 5는 본 발명의 일 실시예에 따른 검증 네트워크에 대한 개념적인 구조를 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 시각적 증거 해석 시스템의 세부 구성을 블록도로 도시한 것이다.
도 7은 본 발명의 일 실시예에 따른 측정부의 세부 구성을 블록도로 도시한 것이다.
1A and 1B are flowcharts illustrating a method for interpreting visual evidence according to an embodiment of the present invention.
2 is a diagram illustrating an example of visual evidence for a clinical decision of a deep network according to an embodiment of the present invention.
3 shows a conceptual structure of an analysis network according to an embodiment of the present invention.
4 shows a conceptual structure of an induction network according to an embodiment of the present invention.
5 shows a conceptual structure of a verification network according to an embodiment of the present invention.
6 is a block diagram showing a detailed configuration of a visual evidence interpretation system according to an embodiment of the present invention.
7 is a block diagram showing a detailed configuration of a measuring unit according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. In addition, the same reference numerals shown in each drawing denote the same member.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, terms used in the present specification are terms used to properly express preferred embodiments of the present invention, which may vary depending on the intention of viewers or operators, or customs in the field to which the present invention belongs. Accordingly, definitions of these terms should be made based on the contents throughout the present specification.

본 발명의 실시예들은, 딥 네트워크를 이용하여 유방 종괴의 모양(shape) 및 경계(margin)에 대한 시각적 증거를 해석하는 것을 그 요지로 한다.Embodiments of the present invention make use of a deep network to interpret visual evidence for the shape and margin of a breast mass.

본 발명에 따른 기술은 컴퓨터자동진단시스템(computer-aided diagnosis, CADx)의 임상 결정을 시각적으로 해석하기 위해 해석 네트워크(interpretationlet network)라 하는 새로운 심층 네트워크를 제안한다. 즉, 본 발명은 관심 영역(region-of-interest; ROI) 이미지의 중요한 영역을 표시하고, 시각적 해석법을 경계 특성 및 모양 특성으로 분해하여 딥 네트워크의 해석 가능한 시각적 증거(visual evidence)를 제공할 수 있다. 또한, 본 발명의 실시예에 따른 해석 네트워크(interpretationlet network)는 임상적 성능을 달성하며, 임상적 결정이 옳지 않을 때에도 합리적인 시각적 증거를 제공할 수 있다. 이로 인해, 본 발명의 일 실시예에 따른 해석 네트워크는 해석 가능한 컴퓨터자동진단시스템(CADx)을 개발하는 데 유망한 접근법이 될 수 있다.The technology according to the present invention proposes a new deep network called an interpretationlet network to visually interpret clinical decisions of a computer-aided diagnosis (CADx). That is, the present invention displays an important region of a region-of-interest (ROI) image, and decomposes the visual interpretation method into boundary characteristics and shape characteristics to provide interpretable visual evidence of a deep network. have. In addition, the interpretationlet network according to an embodiment of the present invention achieves clinical performance and can provide reasonable visual evidence even when a clinical decision is not correct. For this reason, the analysis network according to an embodiment of the present invention can be a promising approach to developing an interpretable computer automatic diagnosis system (CADx).

이러한 본 발명에 대해 도 1a 내지 도 7을 참조하여 설명하면 다음과 같다.The present invention will be described with reference to FIGS. 1A to 7.

도 1a 및 도 1b는 본 발명의 일 실시예에 따른 시각적 증거 해석 방법에 대한 동작 흐름도를 도시한 것으로, 예를 들어 도 1b는 본 발명의 일 실시예에 따른 시각적 증거 해석 방법의 전체 프레임워크를 나타낸 것이다.1A and 1B are flowcharts illustrating an operation of a method for interpreting visual evidence according to an embodiment of the present invention. For example, FIG. 1B illustrates an entire framework of a method for analyzing visual evidence according to an embodiment of the present invention. Is shown.

도 1a 및 도 1b를 참조하면, 본 발명의 일 실시예에 따른 방법은 타겟 종괴 특성을 인코딩한다(단계 110).1A and 1B, a method according to an embodiment of the present invention encodes a target mass characteristic (step 110).

단계 110에서 인코딩부는 입력 이미지(seed image) 예를 들어, 유방 종괴로 의심되는 타겟 종괴에 대한 관심 영역(region-of-interest; ROI) 이미지의 종괴 특성을 인코딩할 수 있다. In step 110, the encoding unit may encode a mass characteristic of an input image, for example, a region-of-interest (ROI) image for a target mass suspected of being a breast mass.

예를 들면, 인코딩부는 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)의 공간 특성 맵에 대한 유도 정보(guided information)에 따라 중요 영역 즉, 관심 영역을 보여주는 관심 영역 이미지의 종괴 특성을 인코딩할 수 있다. For example, the encoding unit is based on guided information on the spatial characteristic map of the Breast Imaging-Reporting and Data System (BIRADS), the mass characteristics of the region of interest image showing the region of interest. Can be encoded.

단계 110에 의해 인코딩된 타겟 종괴 특성에 대응하는 모양(shape) 특성 및 경계(margin) 특성의 종괴 이미지를 생성한다(단계 120).A mass image of a shape feature and a margin feature corresponding to the target mass feature encoded in step 110 is generated (Step 120).

단계 120에서 시각적 해석부는 인코딩부에 의해 인코딩된 타겟 종괴 특성을 입력으로 하는 시각적 해석 네트워크(visual interpretation network)를 이용하여 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성 각각의 종괴 이미지를 분리하여 생성할 수 있다. 더욱이, 시각적 해석부는 타겟 종괴 특성에 대한 모양 특성 및 경계 특성의 공간 특성을 강조하여 개선된 시각적 특성을 제공할 수 있다. In step 120, the visual analysis unit separates and generates mass images for each shape feature and boundary feature corresponding to the target mass feature using a visual interpretation network that inputs the target mass feature encoded by the encoding unit. I can. Furthermore, the visual analysis unit may provide improved visual characteristics by emphasizing the spatial characteristics of the shape characteristics and boundary characteristics of the target mass characteristics.

단계 120에 의해 생성된 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정한다(단계 130).Visual evidence for the target mass is measured using a deep network using the mass image generated in step 120 and mass characteristic sample as inputs (step 130).

단계 130에서 측정부는 모양 특성의 종괴 이미지와 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크(guide networks)를 이용하여 타겟 종괴에 대한 모양 관련성 점수(shape relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하고, 경계 특성의 종괴 이미지와 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크(guide networks)를 이용하여 타겟 종괴에 대한 경계 관련성 점수(margin relevance score)를 산출하여 시각적 증거(visual evidence)를 측정할 수 있다.In step 130, the measurement unit calculates a shape relevance score for the target mass using guide networks that input the mass image of the shape feature and the shape feature sample as inputs to provide visual evidence. It is possible to measure visual evidence by calculating the margin relevance score for the target mass using guide networks that take the mass image of the boundary characteristic and the boundary characteristic sample as input. I can.

이 때, 상기 유도 네트워크는 종괴 이미지를 인코딩한 인코딩된 종괴 이미지와 모양 특성 또는 경계 특성에 대한 임베딩(embedding)된 설명 정보를 입력으로 연산하여 관련성 점수(relevance score)를 출력할 수 있으며, 관련도가 높을수록 높은 점수로 계산할 수 있다. At this time, the induction network may output a relevance score by calculating an encoded mass image that encodes the mass image and embedding description information for shape characteristics or boundary characteristics as inputs. The higher is, the higher the score can be calculated.

일 예로, 모양 측정부는 모양 특성의 종괴 이미지와 불규칙한 모양(Irregular)의 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크를 이용하여 임상 결정을 시각적 증거로 해석하기 위해 제공할 수 있다. 단계 130에서 측정부는 모양 특성의 종괴 이미지를 시각적 특성 인코더를 통해 인코딩하고, 모양 특성 샘플의 설명에 대해 설명 임베딩에 기초하여 임베딩 특성을 출력하며, 미리 학습된 모양 유도 네트워크에 기초하여 정제 이미지 특성 및 임베딩 특성에 의한 관련 점수를 산출할 수 있다. 이 때, 상기 정제 이미지 특성은 본 발명의 일 실시예에 따른 인코딩부에 의해 정제된 입력 이미지를 시각적 특성 인코더를 통해 인코딩한 정제 이미지에 대한 이미지 특성일 수 있다.As an example, the shape measurement unit may be provided to interpret a clinical decision as visual evidence by using a shape inducing network that receives a mass image of a shape characteristic and a sample of an irregular shape (Irregular) as inputs. In step 130, the measurement unit encodes the mass image of the shape characteristic through the visual characteristic encoder, outputs the embedding characteristic based on the description embedding for the description of the shape characteristic sample, and refines the image characteristic and Related scores can be calculated based on embedding characteristics. In this case, the refined image property may be an image property of a refined image obtained by encoding an input image refined by an encoding unit according to an embodiment of the present invention through a visual feature encoder.

다른 예로, 경계 측정부는 경계 특성의 종괴 이미지와 침상 경계(Spiculate)의 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크를 이용하여 임상 결정을 시각적 증거로 해석하기 위해 제공할 수 있다. 단계 130에서 측정부는 경계 특성의 종괴 이미지를 시각적 특성 인코더를 통해 인코딩하고, 경계 특성 샘플의 설명에 대해 설명 임베딩에 기초하여 임베딩 특성을 출력하며, 미리 학습된 경계 유도 네트워크에 기초하여 정제 이미지 특성 및 임베딩 특성에 의한 관련 점수를 산출할 수 있다. 이 때, 상기 정제 이미지 특성은 본 발명의 일 실시예에 따른 인코딩부에 의해 정제된 입력 이미지를 시각적 특성 인코더를 통해 인코딩한 정제 이미지에 대한 이미지 특성일 수 있다.As another example, the boundary measuring unit may be provided to interpret a clinical decision as visual evidence by using a boundary guidance network that receives a boundary characteristic mass image and a spiculate boundary characteristic sample as inputs. In step 130, the measurement unit encodes the mass image of the boundary characteristic through a visual characteristic encoder, outputs the embedding characteristic based on the description embedding for the description of the boundary characteristic sample, and refines the image characteristic and Related scores can be calculated based on embedding characteristics. In this case, the refined image property may be an image property of a refined image obtained by encoding an input image refined by an encoding unit according to an embodiment of the present invention through a visual feature encoder.

그리고, 종괴 이미지, 병변 특성 샘플에 기초한 유도 네트워크(모양 유도 네트워크 및 경계 유도 네트워크)를 이용하여 관련 점수를 계산하고, 시각적 증거 측정 과정과 공간 특성 개선 과정을 업데이트함으로써, 본 발명의 딥 네트워크에 대한 트레이닝 과정을 반복하여 이를 통해 딥 네트워크를 학습할 수 있다. In addition, by calculating the relevant score using the guidance network (shape guidance network and the boundary guidance network) based on the mass image and the lesion characteristic sample, and updating the visual evidence measurement process and the spatial characteristic improvement process, the deep network of the present invention By repeating the training process, the deep network can be trained.

본 발명에 따라 임상적 결정을 위해 세부적인 수준의 시각적 해석을 제공하는 딥 네트워크인 해석 네트워크는 영상 해석 능력을 증가시키기 위해, 종괴의 모양 및 종괴의 경계(또는 종괴 어휘집(mass lexicon)이라 함)에 따라 시각적 증거를 분해한다. 이 때, 종괴 어휘는 유방 종괴의 특성을 기록하기 위하여 주로 사용된다. The analysis network, which is a deep network that provides a detailed level of visual interpretation for clinical decisions according to the present invention, is the shape of the mass and the boundary of the mass (also referred to as mass lexicon) in order to increase the image interpretation ability. Disassemble the visual evidence according to. At this time, the mass vocabulary is mainly used to record the characteristics of the breast mass.

도 2를 참조하면, 분해된 종괴의 모양 특성 및 경계 특성의 예시를 보여준다.Referring to FIG. 2, an example of shape characteristics and boundary characteristics of a decomposed mass is shown.

도 2는 본 발명의 일 실시예에 따른 딥 네트워크의 임상 결정을 위한 시각적 증거의 예를 도시한 것이다.2 is a diagram illustrating an example of visual evidence for a clinical decision of a deep network according to an embodiment of the present invention.

보다 구체적으로, 도 2(a)는 원본의 관심 영역 이미지를 나타낸 것이고, 도 2(b)는 클래스 활성화 맵 방법(class activation map method)를 통해 시각화된 이미지를 나타낸 것이며, 도 2(c) 및 도 2(d)는 본 발명에서 제안하는 모양 특성 및 경계 특성의 종괴 이미지를 나타낸 것이다.More specifically, FIG. 2(a) shows an image of an original region of interest, and FIG. 2(b) shows an image visualized through a class activation map method, and FIG. 2(c) and 2(d) shows a mass image of shape characteristics and boundary characteristics proposed in the present invention.

도 2를 참조하면, 모양 특성 및 경계 특성의 시각화를 위해, 클래스 활성화 맵과 종괴 이미지는 [0, 1]로 정규화되며, 관심 영역(region-of-interest; ROI) 이미지와 중첩될 수 있다.Referring to FIG. 2, for visualization of shape characteristics and boundary characteristics, a class activation map and a mass image are normalized to [0, 1], and may be overlapped with a region-of-interest (ROI) image.

나아가, 본 발명의 딥 네트워크인 해석 네트워크가 임상적 결정이 정확할 때, 적절한 시각적 증거를 제공할 수 있음을 알 수 있다. 반면에, 딥 네트워크가 오류 결정을 내리는 경우, 해석 네트워크는 종괴가 없는 영역을 표시할 수도 있다.Furthermore, it can be seen that the interpretation network, which is the deep network of the present invention, can provide appropriate visual evidence when the clinical decision is correct. On the other hand, when the deep network makes an error decision, the analysis network may indicate an area without mass.

본 발명은 종괴 어휘집과 관련된 영역을 표시하는 모양 특성 및 경계 특성의 종괴 이미지를 사용하여 공간적 특성을 개선함으로써, 딥 네트워크의 임상적 정확도를 향상시킬 수 있다. The present invention can improve the clinical accuracy of a deep network by improving spatial characteristics by using a mass image of a shape characteristic and a boundary characteristic representing a region related to a mass vocabulary.

다시 도 1a 및 도 1b를 참조하면, 본 발명의 다른 실시예에 따른 방법은 인코딩된 타겟 종괴 특성과 합병된 종괴 이미지를 이용하여 임상 결정을 검증한다(단계 140).Referring again to FIGS. 1A and 1B, the method according to another embodiment of the present invention verifies a clinical decision using the encoded target mass characteristic and the merged mass image (step 140).

단계 140에서 검증부는 단계 120에 의해 추출된 모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병(merge)한 합병된 종괴 이미지와, 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하는 진단 네트워크(diagnosis network)를 이용하여 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증할 수 있다.In step 140, the verification unit merges the mass image of the shape feature and the mass image of the boundary feature extracted in step 120, and calculates the encoded target mass feature and calculates the diagnostic network (diagnosis network). ) Can be used to verify a malignant or benign clinical decision (diagnostic decision) for the target mass.

단계 140은 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 타겟 종괴에 대한 모양 특성 및 경계 특성을 습득할 수 있다. 다시 말하면, 단계 140에서, 진단 네트워크는 임상 결정(diagnostic decision), 경계(margin) 특성 및 모양(shape) 특성 세 가지를 출력할 수 있다. In step 140, in the process of verifying the clinical decision using the diagnostic network, shape characteristics and boundary characteristics of the target mass may be acquired based on the previously learned shape of the mass and the boundary of the mass. In other words, in step 140, the diagnostic network may output three types of a clinical decision, a margin characteristic, and a shape characteristic.

본 발명의 일 실시예에 따른 방법에서, 상기 딥 네트워크는 공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 인코딩된 타겟 종괴 특성을 획득하고, 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하며, 생성된 종괴 이미지와 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것일 수 있다. In the method according to an embodiment of the present invention, the deep network is a target encoded by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map. It is learned through the process of acquiring mass characteristics, generating mass images of shape characteristics and boundary characteristics corresponding to target mass characteristics, and improving spatial characteristics due to visual evidence measured by the generated mass image and mass characteristic samples. I can.

도 3은 본 발명의 일 실시예에 따른 해석 네트워크에 대한 개념적인 구조를 도시한 것이다. 3 shows a conceptual structure of an analysis network according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 해석 네트워크(interpretationlet network)는 공간 특성 인코딩부(또는 공간 특성 인코더), 모양 특성 및 경계 특성을 구분하는 시각적 해석 네트워크의 시각적 해석부, 진단 네트워크의 검증부, 및 유도 네트워크의 측정부로 구성된다. As shown in FIG. 3, the interpretationlet network includes a spatial feature encoding unit (or spatial feature encoder), a visual analysis unit of a visual analysis network that separates shape characteristics and boundary characteristics, a verification unit of a diagnostic network, and a derivation. It consists of the measurement unit of the network.

예를 들어, 시각적 해석 네트워크는 인코딩된 타겟 종괴 특성을 입력으로 하여 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성 각각의 종괴 이미지를 생성하도록 구성된다. 또한, 유도 네트워크는 모양 특성 또는 경계 특성의 종괴 이미지와 모양 특성 샘플 또는 경계 특성 샘플을 입력으로 하여 타겟 종괴에 대한 관련성 점수를 산출하여 시각적 증거를 측정하도록 구성된다. 또한, 진단 네트워크는 모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병한 합병된 종괴 이미지와 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하여 타겟 종괴에 대한 악성 또는 양성의 임상 결정을 검증하도록 구성된다.For example, the visual interpretation network is configured to generate a mass image of each shape characteristic and boundary characteristic corresponding to the target mass characteristic by taking the encoded target mass characteristic as an input. In addition, the induction network is configured to measure visual evidence by calculating a relevance score for the target mass by inputting a mass image of a shape characteristic or boundary characteristic and a shape characteristic sample or boundary characteristic sample as inputs. In addition, the diagnostic network is configured to verify the clinical decision of malignant or benign for the target mass by calculating the merged mass image obtained by merging the mass image of the shape feature and the mass image of the boundary feature and the encoded target mass feature as input. .

도 4는 본 발명의 일 실시예에 따른 유도 네트워크에 대한 개념적인 구조를 도시한 것이다. 4 shows a conceptual structure of an induction network according to an embodiment of the present invention.

도 4는 모양 유도 네트워크의 세부적인 구조를 나타내고 있으나, 경계 유도 네트워크 또한 모양 유도 네트워크와 동일한 구조로 설계된다.4 shows a detailed structure of the shape guidance network, but the boundary guidance network is also designed in the same structure as the shape guidance network.

도 4를 참조하면, 본 발명의 일 실시예에 따른 모양 측정부는 시각적 특성 인코더 및 설명 임베딩을 포함하며, 시각적 해석부에 의해 생성된 모양 특성의 종괴 이미지를 시각적 특성 인코더(visual feature encoder)를 통해 인코딩하고, 모양 특성 샘플(예를 들면, 불규칙한 모양(Irregular))의 설명에 따른 설명 임베딩 계층(description embedding layer)에 기초하여 임베딩 특성을 출력하며, 관련 수치 측정부(relevance score estimator)에 기초하여 정제 이미지 특성 및 임베딩 특성에 의한 모양 관련성 점수(shape relevance score)를 산출할 수 있다. 이 때, 모양 관련성 점수는 관련도가 높을수록 높은 점수로 계산할 수 있다. Referring to FIG. 4, the shape measurement unit according to an embodiment of the present invention includes a visual characteristic encoder and a description embedding, and a mass image of the shape characteristic generated by the visual analysis unit is transmitted through a visual feature encoder. Encoding, outputting the embedding characteristics based on the description embedding layer according to the description of the shape characteristic sample (e.g., Irregular), and based on the relevant numerical measurement unit (relevance score estimator) Shape relevance scores based on refined image characteristics and embedding characteristics can be calculated. In this case, the shape relevance score can be calculated as a higher score as the degree of relevance increases.

여기서, 상기 정제 이미지 특성은 본 발명의 일 실시예에 따른 인코딩부에 의해 정제된 입력 이미지를 시각적 특성 인코더를 통해 인코딩한 정제 이미지에 대한 이미지 특성일 수 있다. Here, the refined image characteristic may be an image characteristic of a refined image obtained by encoding an input image refined by an encoding unit according to an embodiment of the present invention through a visual feature encoder.

도 5는 본 발명의 일 실시예에 따른 검증 네트워크에 대한 개념적인 구조를 도시한 것이다.5 shows a conceptual structure of a verification network according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 검증부는 인코딩부에 의해 인코딩된 타겟 종괴 특성과 시각적 해석부에 의해 분리되어 생성된 모양 특성의 종괴 이미지 및 경계 특성의 종괴 이미지를 합병한 합병된 종괴 이미지를 입력으로 하여 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증할 수 있다.Referring to FIG. 5, the verification unit according to an embodiment of the present invention merges the target mass characteristic encoded by the encoding unit and the mass image of the shape characteristic generated separated by the visual analysis unit and the mass image of the boundary characteristic. The malignant or benign clinical decision for the target mass can be verified by inputting the resulting mass image as an input.

나아가, 검증부는 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 타겟 종괴에 대한 모양 특성 및 경계 특성을 습득할 수도 있다. Furthermore, the verification unit may acquire shape characteristics and boundary characteristics for the target mass based on the shape of the mass and the boundary of the mass learned in advance in the process of verifying the clinical decision using the diagnostic network.

이하에서는 본 발명의 일 실시예에 따른 시각적 해석 진단 네트워크, 유도 네트워크 및 검증 네트워크에 대해 설명한다. Hereinafter, a visual analysis diagnosis network, a guidance network, and a verification network according to an embodiment of the present invention will be described.

시각적 해석 진단 네트워크Visual interpretation diagnostic network

시각적 해석 진단 네트워크는 인코딩부(encoder), 시각적 해석부(visual interpreter) 및 진단부(diagnosis network)를 포함한다. The visual interpretation diagnosis network includes an encoder, a visual interpreter, and a diagnosis network.

시각적 해석 진단 네트워크는 인코딩부 예를 들어, 인코더를 사용하여 공간 특성 맵에 대한 유도 정보(guided information)에 따라 중요 영역을 나타내는 관심 영역(region-of-interest; ROI) 이미지를 인코딩한다. 여기서, 인코딩부는 하기의 [수학식 1]에 의해 인코딩한다. The visual interpretation diagnostic network encodes a region-of-interest (ROI) image representing an important region according to guided information on a spatial feature map using an encoding unit, for example, an encoder. Here, the encoding unit encodes according to the following [Equation 1].

[수학식 1][Equation 1]

Figure 112019007699948-pat00001
Figure 112019007699948-pat00001

여기서,

Figure 112019007699948-pat00002
은 공간 특성 맵을 나타내고,
Figure 112019007699948-pat00003
은 원본 영상(seed image)를 나타낸다. 또한,
Figure 112019007699948-pat00004
는 학습 가능 파라미터
Figure 112019007699948-pat00005
를 포함하는 공간 특성 인코더에 대한 함수를 나타낸다. here,
Figure 112019007699948-pat00002
Denotes a spatial characteristic map,
Figure 112019007699948-pat00003
Represents the original image (seed image). Also,
Figure 112019007699948-pat00004
Is the learnable parameter
Figure 112019007699948-pat00005
Represents a function for a spatial feature encoder including.

본 발명에 따른 타겟 종괴 특성은 하기의 [수학식 2] 및 [수학식 3]과 같이 공간 특성 맵으로부터 인코딩된다.The target mass characteristic according to the present invention is encoded from the spatial characteristic map as shown in [Equation 2] and [Equation 3] below.

[수학식 2][Equation 2]

Figure 112019007699948-pat00006
Figure 112019007699948-pat00006

[수학식 3][Equation 3]

Figure 112019007699948-pat00007
Figure 112019007699948-pat00007

여기서,

Figure 112019007699948-pat00008
Figure 112019007699948-pat00009
는 각각 경계 특성(margin interpretationlet)과 모양 특성(shape interpretationlet)을 나타낸다. 또한,
Figure 112019007699948-pat00010
Figure 112019007699948-pat00011
는 각각 학습 가능 파라미터
Figure 112019007699948-pat00012
Figure 112019007699948-pat00013
를 포함하며, 경계 특성과 모양 특성을 인코딩하는 함수를 나타낸다. here,
Figure 112019007699948-pat00008
And
Figure 112019007699948-pat00009
Represents a margin interpretationlet and a shape interpretationlet, respectively. Also,
Figure 112019007699948-pat00010
And
Figure 112019007699948-pat00011
Are each learnable parameter
Figure 112019007699948-pat00012
And
Figure 112019007699948-pat00013
It includes, and represents a function that encodes the boundary characteristics and shape characteristics.

시각적 해석 네트워크에 의해 경계 특성 및 모양 특성은 시그모이드(sigmoid) 활성화를 나타내는 순차적인 합성곱 계층을 통해 공간 특성들의 집합으로부터 인코딩된다. 경계 특성과 모양 특성에서 획득되는 중요 영역들은 하기의 [수학식 4]와 같이 공간 특성을 강조하기 위해 활용된다. By the visual interpretation network, boundary characteristics and shape characteristics are encoded from a set of spatial characteristics through a sequential convolutional layer representing sigmoid activation. Important areas obtained from boundary characteristics and shape characteristics are used to emphasize spatial characteristics as shown in [Equation 4] below.

[수학식 4][Equation 4]

Figure 112019007699948-pat00014
Figure 112019007699948-pat00014

여기서,

Figure 112019007699948-pat00015
은 경계 특성 및 모양 특성에 의해 개선된 시각적 특성을 나타내고,
Figure 112019007699948-pat00016
은 원소 단위의 곱셈 연산을 나타낸다.here,
Figure 112019007699948-pat00015
Represents the visual characteristics improved by the boundary characteristics and shape characteristics,
Figure 112019007699948-pat00016
Represents an element-wise multiplication operation.

본 발명의 일 실시예에 따른 임상 결정은 하기의 [수학식 5]와 같이 개선된 시각적 특성을 처리함으로써 결정된다.The clinical decision according to an embodiment of the present invention is determined by processing the improved visual characteristics as shown in [Equation 5] below.

[수학식 5][Equation 5]

Figure 112019007699948-pat00017
Figure 112019007699948-pat00017

여기서,

Figure 112019007699948-pat00018
는 예측되는 임상 결정(악성 또는 양성)을 나타내며,
Figure 112019007699948-pat00019
는 학습 가능 파라미터
Figure 112019007699948-pat00020
를 포함하는 진단 네트워크를 위한 함수를 나타낸다. here,
Figure 112019007699948-pat00018
Represents the predicted clinical decision (malignant or benign),
Figure 112019007699948-pat00019
Is the learnable parameter
Figure 112019007699948-pat00020
Represents a function for a diagnostic network including.

모양 특성 및 경계 특성의 두 가지 특성을 사용함으로써, 공간 특성 맵은 진단 네트워크가 더 정확한 임상 결정을 내리도록 돕기 위하여 개선될 수 있다. 또한, 본 발명은 모양 특성 및 경계 특성을 분석함으로써, 딥 네트워크가 대응하는 공간 특성 맵 상의 더 많은 정보를 이용하는 영역을 시각화할 수 있다. By using two characteristics of shape characteristics and boundary characteristics, the spatial characteristic map can be improved to help the diagnostic network make more accurate clinical decisions. In addition, according to the present invention, by analyzing shape characteristics and boundary characteristics, it is possible to visualize a region in which a deep network uses more information on a corresponding spatial characteristic map.

유도 네트워크Induction network

시각적 특성 인코더(visual feature encoder), 설명 임베딩 계층(description embedding layer) 및 관련 수치 측정부(relevance score estimator)로 구성된 모양 유도 네트워크(shape guide network)의 세부적인 구조는 도 4에 도시된다.A detailed structure of a shape guide network comprising a visual feature encoder, a description embedding layer, and a relevance score estimator is shown in FIG. 4.

모양 유도 네트워크의 입력으로 모양 특성 및 모양 설명(shape description 또는 종괴 어휘집(mass lexicon))이 사용된다. 모양 특성을 위한 모양 유도 네트워크에서, 모양 관련 수치(

Figure 112019007699948-pat00021
)는 모양 특성과 모양 설명을 고려하여 하기의 [수학식 6]과 같이 산출된다. Shape characteristics and shape descriptions (shape descriptions or mass lexicons) are used as inputs to the shape inducing network. In shape derivation networks for shape characteristics, shape-related figures
Figure 112019007699948-pat00021
) Is calculated as [Equation 6] below in consideration of shape characteristics and shape description.

[수학식 6][Equation 6]

Figure 112019007699948-pat00022
Figure 112019007699948-pat00022

여기서,

Figure 112019007699948-pat00023
는 학습 가능 파라미터
Figure 112019007699948-pat00024
를 포함하는 모양 특성을 위한 모양 유도 네트워크를 나타내며,
Figure 112019007699948-pat00025
는 모양 설명(shape description)을 나타낸다. 세부적으로, 시각적 특성은 미리 사전 학습된 VGG 네트워크를 사용하여 하기의 [수학식 7]과 같이 모양 특성에서 추출된다. here,
Figure 112019007699948-pat00023
Is the learnable parameter
Figure 112019007699948-pat00024
Represents a shape inducing network for shape characteristics including,
Figure 112019007699948-pat00025
Represents the shape description. In detail, visual features are extracted from shape features as shown in [Equation 7] below using a pre-learned VGG network.

[수학식 7][Equation 7]

Figure 112019007699948-pat00026
Figure 112019007699948-pat00026

여기서,

Figure 112019007699948-pat00027
는 시각적 특성 추출 및 파라미터
Figure 112019007699948-pat00028
을 위한 함수를 나타낸다. 출력이 pool5 계층 및 완전 연결 계층 이후의 특성 맵인 사전 학습 VGG-네트워크가 시각적 특성 추출부(visual feature extractor)로 사용될 수 있다. 의미론적으로(semantically) 의미있는 특징을 갖도록 모양 설명을 인코딩하기 위해서, 모양 설명(shape description,
Figure 112019007699948-pat00029
)은 하기의 [수학식 8]과 같이 사용된다. here,
Figure 112019007699948-pat00027
Is the visual feature extraction and parameters
Figure 112019007699948-pat00028
Represents a function for A pre-learning VGG-network whose output is a feature map after the pool5 layer and the fully connected layer may be used as a visual feature extractor. To encode a shape description to have a semantically meaningful feature, the shape description,
Figure 112019007699948-pat00029
) Is used as in [Equation 8] below.

[수학식 8][Equation 8]

Figure 112019007699948-pat00030
Figure 112019007699948-pat00030

여기서,

Figure 112019007699948-pat00031
는 모양 임베딩 특성(shape embedded features)를 나타낸다. 또한,
Figure 112019007699948-pat00032
는 학습 가능 파라미터
Figure 112019007699948-pat00033
를 포함하는 임베딩 함수를 나타낸다.here,
Figure 112019007699948-pat00031
Denotes shape embedded features. Also,
Figure 112019007699948-pat00032
Is the learnable parameter
Figure 112019007699948-pat00033
Represents an embedding function including.

임베딩을 위해, 모양 설명은 사전 학습된 단어 임베딩 모델(word embedding model)을 통해 단어 벡터로 변환되며, 완전 연결 계층에 의해 처리된다. 모양 임베딩 특성과 모양 특성의 시각적 특성 간의 차이에 의해 모양 관련 수치(

Figure 112019007699948-pat00034
)는 하기의 [수학식 9]를 통해 산출된다.For embedding, shape descriptions are transformed into word vectors via a pre-trained word embedding model and processed by a fully connected layer. By the difference between the shape embedding characteristics and the visual characteristics of the shape characteristics,
Figure 112019007699948-pat00034
) Is calculated through the following [Equation 9].

[수학식 9][Equation 9]

Figure 112019007699948-pat00035
Figure 112019007699948-pat00035

여기서,

Figure 112019007699948-pat00036
은 관련 수치를 계산하며 학습 가능 파라미터
Figure 112019007699948-pat00037
를 포함하는 관련 수치 측정부(relevance score estimator)를 나타낸다. 이로 인하여, 모양 관련 수치(
Figure 112019007699948-pat00038
)는 모양 임베딩 특성과 모양 특성의 시각적 특성 간의 관련도를 나타낼 수 있다. here,
Figure 112019007699948-pat00036
Is a learnable parameter that calculates the relevant number
Figure 112019007699948-pat00037
It represents a related numerical measurement unit (relevance score estimator) including. Due to this, shape-related figures (
Figure 112019007699948-pat00038
) Can indicate the degree of relationship between shape embedding characteristics and visual characteristics of shape characteristics.

시그모이드 활성(sigmoid activation)은 마지막 완전 연결 계층에서 수행되어 출력이 [0, 1] 범위를 갖도록 형성될 수 있다.Sigmoid activation can be performed in the last fully connected layer so that the output has a [0, 1] range.

경계 유도 네트워크(margin guide network)는 설명한 모양 유도 네트워크와 동일한 구조로 설계되며, 마찬가지로 경계 관련 수치(

Figure 112019007699948-pat00039
)는 하기의 [수학식 10]과 같이 경계 특성과 경계 설명(margin description)에 의해 산출된다.The margin guide network is designed with the same structure as the shape guide network described, and similarly, the boundary-related values (
Figure 112019007699948-pat00039
) Is calculated by the boundary characteristics and the margin description as shown in [Equation 10] below.

[수학식 10][Equation 10]

Figure 112019007699948-pat00040
Figure 112019007699948-pat00040

여기서,

Figure 112019007699948-pat00041
는 학습 가능 파라미터
Figure 112019007699948-pat00042
를 포함하는 경계 특성을 위한 경계 유도 네트워크를 나타내며,
Figure 112019007699948-pat00043
는 경계 설명(margin description)을 나타낸다. here,
Figure 112019007699948-pat00041
Is the learnable parameter
Figure 112019007699948-pat00042
Represents a boundary inducing network for boundary characteristics including,
Figure 112019007699948-pat00043
Denotes a margin description.

검증 네트워크Verification network

해석 네트워크(interpretationlet)를 학습하는 핵심 목적은 보다 정확한 임상 결정과 시각적 증거를 제공하기 위함이다. 이러한 목적을 위해, 본 발명의 일 실시예에 따른 해석 네트워크는 진단 손실(diagnosis loss) 및 해석 손실(interpretation loss)에 대해 고안하였다.The core purpose of learning interpretationlets is to provide more accurate clinical decisions and visual evidence. For this purpose, the interpretation network according to an embodiment of the present invention has been devised for diagnosis loss and interpretation loss.

진단 손실(

Figure 112019007699948-pat00044
)은 하기의 [수학식 11]과 같이 정의된다. Diagnostic loss(
Figure 112019007699948-pat00044
) Is defined as in [Equation 11] below.

[수학식 11][Equation 11]

Figure 112019007699948-pat00045
Figure 112019007699948-pat00045

여기서,

Figure 112019007699948-pat00046
는 영상(
Figure 112019007699948-pat00047
)에 대한 실측 자료(ground truth)를 나타내며,
Figure 112019007699948-pat00048
는 개선된 공간 특성(
Figure 112019007699948-pat00049
)에 대한 진단 네트워크(
Figure 112019007699948-pat00050
)의 출력 확률을 나타낸다. here,
Figure 112019007699948-pat00046
Is the image(
Figure 112019007699948-pat00047
Represents the ground truth for ),
Figure 112019007699948-pat00048
Is the improved spatial characteristics (
Figure 112019007699948-pat00049
) For the diagnostic network (
Figure 112019007699948-pat00050
) Represents the output probability.

본 발명의 일 실시예에 따른 해석 네트워크는 보다 정확한 임상 결정을 위해 진단 손실(

Figure 112019007699948-pat00051
)을 최소화하여 학습될 수 있다. 나아가, 본 발명의 일 실시예에 따른 시각적 해석부(visual interpreter) 및 인코더(encoder) 또한 의미있는 시각적 증거를 제공하기 위하여 학습될 수 있다. Interpretation network according to an embodiment of the present invention is a diagnostic loss (
Figure 112019007699948-pat00051
) Can be learned by minimizing it. Furthermore, a visual interpreter and an encoder according to an embodiment of the present invention may also be learned to provide meaningful visual evidence.

이로 인한, 해석 손실(interpretation loss)은 하기의 [수학식 12]에 의해 정의된다.Due to this, the interpretation loss is defined by the following [Equation 12].

[수학식 12][Equation 12]

Figure 112019007699948-pat00052
Figure 112019007699948-pat00052

여기서,

Figure 112019007699948-pat00053
Figure 112019007699948-pat00054
는 각각 모양 특성 및 경계 특성에 대한 해석 손실을 나타낸다. 이 때, 각 해석 손실은 하기의 [수학식 13] 및 [수학식 14]과 같이 정의된다.here,
Figure 112019007699948-pat00053
And
Figure 112019007699948-pat00054
Represents the analysis loss for shape characteristics and boundary characteristics, respectively. At this time, each analysis loss is defined as in [Equation 13] and [Equation 14] below.

[수학식 13][Equation 13]

Figure 112019007699948-pat00055
Figure 112019007699948-pat00055

[수학식 14][Equation 14]

Figure 112019007699948-pat00056
Figure 112019007699948-pat00056

여기서,

Figure 112019007699948-pat00057
,
Figure 112019007699948-pat00058
,
Figure 112019007699948-pat00059
Figure 112019007699948-pat00060
는 각각 매칭 모양 설명(matching shape description), 미스매칭 모양 설명(mismatching shape description), 매칭 경계 설명(matching margin description) 및 미스매칭 경계 설명(mismatching margin description)을 나타낸다. here,
Figure 112019007699948-pat00057
,
Figure 112019007699948-pat00058
,
Figure 112019007699948-pat00059
And
Figure 112019007699948-pat00060
Denotes a matching shape description, a mismatching shape description, a matching margin description, and a mismatching margin description, respectively.

이 때, 미스매칭 설명(

Figure 112019007699948-pat00061
Figure 112019007699948-pat00062
)은 분포(
Figure 112019007699948-pat00063
)에서 무작위로 샘플링될 수 있다. 일 예로, ‘둥근 모양(round shape)’을 가지는 샘플이라면, 타원(oval) 모양, 소엽(lobulated) 모양 또는 불규칙(irregular) 모양으로부터 미스매칭 모양 설명(
Figure 112019007699948-pat00064
)이 샘플링될 수 있다. 다른 예로, ‘경계형(circumscribed) 경계’를 가지는 샘플이라면, 모호한(obscured) 경계, 불분명(ill-defined) 경계, 미세소엽(microlobutated) 경계 또는 침상(spiculated) 경계로부터 미스매칭 경계 설명(
Figure 112019007699948-pat00065
)이 샘플링될 수 있다. At this time, the mismatch description (
Figure 112019007699948-pat00061
And
Figure 112019007699948-pat00062
) Is the distribution (
Figure 112019007699948-pat00063
) Can be randomly sampled. For example, in the case of a sample having a'round shape', a description of a mismatched shape from an oval shape, a lobulated shape, or an irregular shape (
Figure 112019007699948-pat00064
) Can be sampled. As another example, if a sample has a'circumscribed boundary', the mismatch boundary description from an obscured boundary, an ill-defined boundary, a microlobutated boundary, or a spiculated boundary (
Figure 112019007699948-pat00065
) Can be sampled.

딥 네트워크는 모양 특성에 대한 해석 손실(

Figure 112019007699948-pat00066
)을 최소화함으로써, 모양 설명과 관련된 모양 특성을 인코딩하도록 학습된다. 동일한 방법으로, 딥 네트워크는 경계 특성에 대한 해석 손실(
Figure 112019007699948-pat00067
)을 최소화함으로써, 경계 설명과 관련된 경계 특성을 인코딩하도록 학습된다. Deep network is the analysis loss (
Figure 112019007699948-pat00066
) By minimizing it, it is learned to encode shape features related to the shape description. In the same way, the deep network has an analysis loss (
Figure 112019007699948-pat00067
) By minimizing it, it is learned to encode the boundary characteristics associated with the boundary description.

경계 특성의 경우, 희소성 페널티(sparsity penalty,

Figure 112019007699948-pat00068
)가 추가되어 경계 특성이 성기게 되도록(be sparse)할 수 있다. 나아가,
Figure 112019007699948-pat00069
는 희소성 페널티의 중요도를 결정하는 하이퍼 파라미터(hyper-parameter)를 나타낸다. In the case of boundary properties, a sparsity penalty
Figure 112019007699948-pat00068
) Can be added to make the boundary properties be sparse. Furthermore,
Figure 112019007699948-pat00069
Denotes a hyper-parameter that determines the importance of the scarcity penalty.

결과적으로, 전체적인 해석 네트워크는 하기의 [수학식 15]와 같은 손실 함수를 최소함으로써 학습된다. As a result, the overall analysis network is learned by minimizing the loss function as shown in [Equation 15] below.

[수학식 15][Equation 15]

Figure 112019007699948-pat00070
Figure 112019007699948-pat00070

여기서,

Figure 112019007699948-pat00071
는 진단 손실과 해석 손실 간의 균형을 유지하기 위한 균형 하이퍼 파라미터(balancing hyper-parameter)를 나타낸다. here,
Figure 112019007699948-pat00071
Represents a balancing hyper-parameter for maintaining a balance between diagnostic loss and interpretation loss.

전술한 바에 따라, 본 발명의 일 실시예에 따른 딥 네트워크인 해석 네트워크는 경계 설명과 경계 특성의 관련성 증가, 모양 설명과 모양 특성의 관련성 증가 및 진단 오류의 최소화를 최적화하도록 학습되는 것을 특징으로 한다. As described above, the analysis network, which is a deep network according to an embodiment of the present invention, is characterized in that it is learned to optimize the relationship between the boundary description and the boundary characteristics, increase the correlation between the shape description and the shape characteristics, and minimize diagnostic errors. .

도 6은 본 발명의 일 실시예에 따른 시각적 증거 해석 시스템의 세부 구성을 블록도로 도시한 것이고, 도 7은 본 발명의 일 실시예에 따른 측정부의 세부 구성을 블록도로 도시한 것이다.6 is a block diagram illustrating a detailed configuration of a visual evidence interpretation system according to an embodiment of the present invention, and FIG. 7 is a block diagram illustrating a detailed configuration of a measurement unit according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 시스템은 딥 네트워크를 이용하여 유방 종괴의 모양(shape) 및 경계(margin)에 대한 시각적 증거를 해석한다.Referring to FIG. 6, the system according to an embodiment of the present invention uses a deep network to analyze visual evidence for the shape and margin of a breast mass.

이를 위해, 본 발명의 일 실시예에 따른 시각적 증거 해석 시스템(600)은 인코딩부(610), 시각적 해석부(620) 및 측정부(630)를 포함한다. 또한, 본 발명의 다른 실시예에 따른 시각적 증거 해석 시스템(600)은 검증부(640)를 더 포함한다.To this end, the visual evidence analysis system 600 according to an embodiment of the present invention includes an encoding unit 610, a visual analysis unit 620, and a measurement unit 630. In addition, the visual evidence interpretation system 600 according to another embodiment of the present invention further includes a verification unit 640.

인코딩부(610)는 타겟 종괴 특성을 인코딩한다. The encoding unit 610 encodes the target mass characteristic.

인코딩부(610)는 입력 이미지(seed image) 예를 들어, 유방 종괴로 의심되는 타겟 종괴에 대한 관심 영역(region-of-interest; ROI) 이미지의 종괴 특성을 인코딩할 수 있다.The encoding unit 610 may encode a mass characteristic of an input image, for example, a region-of-interest (ROI) image for a target mass suspected as a breast mass.

예를 들면, 인코딩부(610)는 유방 영상 보고 데이터 시스템(BIRADS; Breast Imaging-Reporting and Data System)의 공간 특성 맵에 대한 유도 정보(guided information)에 따라 중요 영역 즉, 관심 영역을 보여주는 관심 영역 이미지의 종괴 특성을 인코딩할 수 있다. For example, the encoding unit 610 is a region of interest showing an important region, that is, a region of interest, according to guided information on a spatial characteristic map of a breast imaging-reporting and data system (BIRADS). You can encode the mass characteristics of the image.

시각적 해석부(620)는 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성한다. The visual analysis unit 620 generates a mass image of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics.

시각적 해석부(620)는 인코딩부(610)에 의해 인코딩된 타겟 종괴 특성을 입력으로 하는 시각적 해석 네트워크(visual interpretation network)를 이용하여 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성 각각의 종괴 이미지를 분리하여 생성할 수 있다. 더욱이, 시각적 해석부(620)는 타겟 종괴 특성에 대한 모양 특성 및 경계 특성의 공간 특성을 강조하여 개선된 시각적 특성을 제공할 수 있다. The visual analysis unit 620 uses a visual interpretation network that inputs the target mass characteristics encoded by the encoding unit 610 as an input to generate mass images of shape characteristics and boundary characteristics corresponding to the target mass characteristics. Can be created separately. Furthermore, the visual analysis unit 620 may provide improved visual characteristics by emphasizing the spatial characteristics of the shape characteristics and boundary characteristics of the target mass characteristics.

측정부(630)는 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정한다. The measurement unit 630 measures visual evidence for the target mass using a deep network that receives mass images and mass characteristic samples as inputs.

도 7을 참조하면, 측정부(630)는 모양 특성의 종괴 이미지와 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크(guide networks)를 이용하여 타겟 종괴에 대한 모양 관련성 점수(shape relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 모양 측정부(631) 및 경계 특성의 종괴 이미지와 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크(guide networks)를 이용하여 타겟 종괴에 대한 경계 관련성 점수(margin relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 경계 측정부(632)를 포함할 수 있다.Referring to FIG. 7, the measurement unit 630 calculates a shape relevance score for the target mass using guide networks that input a mass image of shape characteristics and a shape characteristic sample as inputs. A margin relevance score for the target mass using a shape measuring unit 631 that measures visual evidence, and boundary guide networks that input a mass image of boundary characteristics and a boundary characteristic sample as inputs. It may include a boundary measuring unit 632 that calculates) and measures visual evidence.

이 때, 상기 유도 네트워크는 종괴 이미지를 인코딩한 인코딩된 종괴 이미지와 모양 특성 또는 경계 특성에 대한 임베딩(embedding)된 설명 정보를 입력으로 연산하여 관련성 점수(relevance score)를 출력할 수 있으며, 관련도가 높을수록 높은 점수로 계산할 수 있다.At this time, the induction network may output a relevance score by calculating an encoded mass image that encodes the mass image and embedding description information for shape characteristics or boundary characteristics as inputs. The higher is, the higher the score can be calculated.

일 예로, 모양 측정부(631)는 모양 특성의 종괴 이미지와 불규칙한 모양(Irregular)의 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크를 이용하여 임상 결정을 시각적 증거로 해석하기 위해 제공할 수 있다. 보다 구체적으로, 모양 측정부(631)는 모양 특성의 종괴 이미지를 시각적 특성 인코더를 통해 인코딩하고, 모양 특성 샘플의 설명에 대해 설명 임베딩에 기초하여 임베딩 특성을 출력하며, 미리 학습된 모양 유도 네트워크에 기초하여 정제 이미지 특성 및 임베딩 특성에 의한 관련 점수를 산출할 수 있다. 이 때, 상기 정제 이미지 특성은 본 발명의 일 실시예에 따른 인코딩부에 의해 정제된 입력 이미지를 시각적 특성 인코더를 통해 인코딩한 정제 이미지에 대한 이미지 특성일 수 있다.As an example, the shape measuring unit 631 may provide the clinical decision to be interpreted as visual evidence by using a shape inducing network that receives a mass image of a shape characteristic and a sample of an irregular shape (Irregular) as inputs. More specifically, the shape measuring unit 631 encodes the mass image of the shape characteristic through a visual characteristic encoder, outputs the embedding characteristic based on the description embedding for the description of the shape characteristic sample, and uses the previously learned shape induction network. Based on the refined image characteristics and embedding characteristics, a related score can be calculated. In this case, the refined image characteristic may be an image characteristic of a refined image obtained by encoding an input image refined by an encoding unit according to an embodiment of the present invention through a visual feature encoder.

다른 예로, 경계 측정부(632)는 경계 특성의 종괴 이미지와 침상 경계(Spiculate)의 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크를 이용하여 임상 결정을 시각적 증거로 해석하기 위해 제공할 수 있다. 보다 구체적으로, 경계 측정부(632)는 경계 특성의 종괴 이미지를 시각적 특성 인코더를 통해 인코딩하고, 경계 특성 샘플의 설명에 대해 설명 임베딩에 기초하여 임베딩 특성을 출력하며, 미리 학습된 경계 유도 네트워크에 기초하여 정제 이미지 특성 및 임베딩 특성에 의한 관련 점수를 산출할 수 있다. 이 때, 상기 정제 이미지 특성은 본 발명의 일 실시예에 따른 인코딩부에 의해 정제된 입력 이미지를 시각적 특성 인코더를 통해 인코딩한 정제 이미지에 대한 이미지 특성일 수 있다.As another example, the boundary measurement unit 632 may provide the clinical decision to be interpreted as visual evidence by using a boundary guidance network that receives a boundary characteristic mass image and a spiculate boundary characteristic sample as inputs. More specifically, the boundary measurement unit 632 encodes the mass image of the boundary characteristic through a visual characteristic encoder, outputs the embedding characteristic based on the description embedding for the description of the boundary characteristic sample, and uses the boundary induction network learned in advance. Based on the refined image characteristics and embedding characteristics, a related score can be calculated. In this case, the refined image property may be an image property of a refined image obtained by encoding an input image refined by an encoding unit according to an embodiment of the present invention through a visual feature encoder.

그리고, 종괴 이미지, 병변 특성 샘플에 기초한 유도 네트워크(모양 유도 네트워크 및 경계 유도 네트워크)를 이용하여 관련 점수를 계산하고, 시각적 증거 측정 과정과 공간 특성 개선 과정을 업데이트함으로써, 본 발명의 딥 네트워크에 대한 트레이닝 과정을 반복하여 이를 통해 딥 네트워크를 학습할 수 있다. In addition, by calculating the relevant score using the guidance network (shape guidance network and the boundary guidance network) based on the mass image and the lesion characteristic sample, and updating the visual evidence measurement process and the spatial characteristic improvement process, the deep network of the present invention By repeating the training process, you can learn a deep network through it.

본 발명에 따라 임상적 결정을 위해 세부적인 수준의 시각적 해석을 제공하는 딥 네트워크인 해석 네트워크는 영상 해석 능력을 증가시키기 위해, 종괴의 모양 및 종괴의 경계(또는 종괴 어휘집(mass lexicon)이라 함)에 따라 시각적 증거를 분해한다. 이 때, 종괴 어휘는 유방 종괴의 특성을 기록하기 위하여 주로 사용된다. The analysis network, which is a deep network that provides a detailed level of visual interpretation for clinical decisions according to the present invention, is the shape of the mass and the boundary of the mass (also referred to as mass lexicon) in order to increase the image interpretation ability. According to the visual evidence. At this time, the mass vocabulary is mainly used to record the characteristics of the breast mass.

본 발명의 다른 실시예에 따른 시스템(600)의 검증부(640)는 인코딩된 타겟 종괴 특성과 합병된 종괴 이미지를 이용하여 임상 결정을 검증한다. The verification unit 640 of the system 600 according to another embodiment of the present invention verifies the clinical decision using the encoded target mass characteristic and the merged mass image.

검증부(640)는 모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병(merge)한 합병된 종괴 이미지와, 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하는 진단 네트워크(diagnosis network)를 이용하여 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증할 수 있다.The verification unit 640 uses a merged mass image obtained by merging a mass image of a shape feature and a mass image of a boundary feature, and a diagnostic network that calculates and inputs the encoded target mass feature. Malignant or benign clinical decisions about the mass can be verified.

검증부(640)는 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 타겟 종괴에 대한 모양 특성 및 경계 특성을 습득할 수 있다. 다시 말하면, 검증부(640)는 진단 네트워크를 통해 임상 결정(diagnostic decision), 경계(margin) 특성 및 모양(shape) 특성 세 가지를 출력할 수 있다.The verification unit 640 may acquire shape characteristics and boundary characteristics for the target mass based on the shape of the mass and the boundary of the mass learned in advance in the process of verifying the clinical decision using the diagnostic network. In other words, the verification unit 640 may output three types of a clinical decision, a margin characteristic, and a shape characteristic through the diagnosis network.

본 발명의 일 실시예에 따른 시스템에서, 상기 딥 네트워크는 공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 인코딩된 타겟 종괴 특성을 획득하고, 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하며, 생성된 종괴 이미지와 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것일 수 있다.In the system according to an embodiment of the present invention, the deep network is a target encoded by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map. It is learned through the process of acquiring mass characteristics, generating mass images of shape characteristics and boundary characteristics corresponding to target mass characteristics, and improving spatial characteristics due to visual evidence measured by the generated mass image and mass characteristic samples. I can.

비록, 도 6 및 도 7의 시스템에서 그 설명이 생략되었더라도, 도 6 및 도 7을 구성하는 각 구성 수단은 도 1a 내지 도 5에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Even though the description thereof is omitted in the systems of FIGS. 6 and 7, each of the components constituting FIGS. 6 and 7 may include all the contents described in FIGS. 1A to 5, which are engaged in the technical field. It is obvious to a person skilled in the art.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It can be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and drawings as described above, various modifications and variations can be made from the above description to those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

Claims (20)

종괴 특성에 따른 시각적 증거 해석 시스템에 의해 수행되는 종괴 특성에 따른 시각적 증거 해석 방법에 있어서,
상기 종괴 특성에 따른 시각적 증거 해석 시스템에서 인코딩부에 의해, 타겟 종괴 특성을 인코딩하는 단계;
시각적 해석부에 의해, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 단계; 및
측정부에 의해, 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 단계를 포함하되,
상기 딥 네트워크는
공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 상기 인코딩된 타겟 종괴 특성을 획득하고, 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성의 상기 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 방법.
In the visual evidence interpretation method according to mass properties performed by the visual evidence interpretation system according to mass properties,
Encoding a target mass characteristic by an encoding unit in the visual evidence analysis system according to the mass characteristic;
Generating, by a visual analysis unit, a mass image of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics; And
Including, by a measuring unit, measuring visual evidence for the target mass using a deep network that receives the mass image and mass characteristic sample as inputs,
The deep network is
The encoded target mass characteristic is obtained by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map, and the target mass characteristic corresponding to the target mass characteristic is obtained. It is characterized in that learning through the process of generating the mass image of shape characteristics and the boundary characteristics, and improving spatial characteristics due to visual evidence measured by the generated mass image and the mass characteristic sample, according to mass characteristics. How to interpret visual evidence.
제1항에 있어서,
상기 인코딩하는 단계는
상기 타겟 종괴에 대한 관심 영역(region-of-interest; ROI) 이미지의 종괴 특성을 인코딩하는, 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 1,
The encoding step
A method of interpreting visual evidence according to mass properties for encoding mass characteristics of a region-of-interest (ROI) image for the target mass.
제1항에 있어서,
상기 생성하는 단계는
상기 인코딩된 타겟 종괴 특성을 입력으로 하는 시각적 해석 네트워크(visual interpretation network)를 이용하여 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성 각각의 종괴 이미지를 생성하는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 1,
The generating step
Using a visual interpretation network that takes the encoded target mass characteristic as an input, the shape characteristic corresponding to the target mass characteristic and the mass image of each of the boundary characteristics are generated. Visual evidence interpretation method according to.
제3항에 있어서,
상기 측정하는 단계는
상기 모양 특성의 종괴 이미지와 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크(shape guide networks)를 이용하여 상기 타겟 종괴에 대한 모양 관련성 점수(shape relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 단계; 및
상기 경계 특성의 종괴 이미지와 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크(margin guide networks)를 이용하여 상기 타겟 종괴에 대한 경계 관련성 점수(margin relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 단계
를 포함하는 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 3,
The measuring step
Measuring visual evidence by calculating a shape relevance score for the target mass using shape guide networks that input the mass image of the shape feature and the shape feature sample as inputs. step; And
Visual evidence is measured by calculating a margin relevance score for the target mass using margin guide networks that input the mass image of the boundary characteristic and a boundary characteristic sample as inputs. step
Visual evidence interpretation method according to the mass characteristics, including.
제4항에 있어서,
상기 유도 네트워크는
상기 종괴 이미지를 인코딩한 인코딩된 종괴 이미지와 상기 모양 특성 또는 상기 경계 특성에 대한 임베딩(embedding)된 설명 정보를 입력으로 연산하여 관련성 점수(relevance score)를 출력하도록 구성되는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 4,
The induction network is
The mass characteristic, characterized in that configured to output a relevance score by calculating an encoded mass image that encodes the mass image and embedding description information for the shape feature or the boundary feature as an input. Visual evidence interpretation method according to.
제1항에 있어서,
상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 단계
를 더 포함하는 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 1,
Verifying a clinical decision by using the mass image merged with the encoded target mass characteristic
Visual evidence interpretation method according to the mass characteristics further comprising a.
제6항에 있어서,
상기 검증하는 단계는
모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병한 상기 합병된 종괴 이미지와 상기 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하는 진단 네트워크(diagnosis network)를 이용하여 상기 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증하는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 6,
The verifying step
Malignant or benign diagnosis for the target mass using a diagnostic network that calculates the merged mass image and the encoded target mass feature as input by combining the mass image of the shape feature and the mass image of the boundary feature. A method of interpreting visual evidence according to mass characteristics, characterized in that the clinical decision is verified.
제7항에 있어서,
상기 검증하는 단계는
상기 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 상기 타겟 종괴에 대한 상기 모양 특성 및 상기 경계 특성을 습득하는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 방법.
The method of claim 7,
The verifying step
In the process of verifying the clinical decision using the diagnostic network, the shape characteristic and the boundary characteristic for the target mass are acquired based on the shape of the mass and the boundary of the mass learned in advance. Visual evidence interpretation method according to.
삭제delete 종괴 특성에 따른 시각적 증거 해석 시스템에 의해 수행되는 종괴 특성에 따른 시각적 증거 해석 방법에 있어서,
상기 종괴 특성에 따른 시각적 증거 해석 시스템에서 인코딩부에 의해, 타겟 종괴 특성을 인코딩하는 단계;
시각적 해석부에 의해, 상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 단계;
측정부에 의해, 상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 단계; 및
검증부에 의해, 상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 단계를 포함하되,
상기 딥 네트워크는
공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 상기 인코딩된 타겟 종괴 특성을 획득하고, 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성의 상기 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 방법.
In the visual evidence interpretation method according to mass properties performed by the visual evidence interpretation system according to mass properties,
Encoding a target mass characteristic by an encoding unit in the visual evidence analysis system according to the mass characteristic;
Generating, by a visual analysis unit, a mass image of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics;
Measuring, by a measurement unit, visual evidence for the target mass using a deep network that receives the mass image and mass characteristic sample as inputs; And
Including, by a verification unit, verifying a clinical decision using the mass image merged with the encoded target mass characteristics,
The deep network is
The encoded target mass characteristic is obtained by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map, and the target mass characteristic corresponding to the target mass characteristic is obtained. It is characterized in that learning through the process of generating the mass image of shape characteristics and the boundary characteristics, and improving spatial characteristics due to visual evidence measured by the generated mass image and the mass characteristic sample, according to mass characteristics. How to interpret visual evidence.
타겟 종괴 특성을 인코딩하는 인코딩부;
상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 시각적 해석부; 및
상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 측정부를 포함하되,
상기 딥 네트워크는
공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 상기 인코딩된 타겟 종괴 특성을 획득하고, 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성의 상기 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
An encoding unit encoding the target mass characteristic;
A visual analysis unit for generating a mass image of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics; And
Including a measuring unit for measuring visual evidence (visual evidence) for the target mass using a deep network that receives the mass image and mass characteristic sample as inputs,
The deep network is
The encoded target mass characteristic is obtained by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map, and the target mass characteristic corresponding to the target mass characteristic is obtained. It is characterized in that learning through the process of generating the mass image of shape characteristics and the boundary characteristics, and improving spatial characteristics due to visual evidence measured by the generated mass image and the mass characteristic sample, according to mass characteristics. Visual evidence interpretation system.
제11항에 있어서,
상기 인코딩부는
상기 타겟 종괴에 대한 관심 영역(region-of-interest; ROI) 이미지의 종괴 특성을 인코딩하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 11,
The encoding unit
A system for analyzing visual evidence according to mass properties for encoding mass characteristics of a region-of-interest (ROI) image for the target mass.
제11항에 있어서,
상기 시각적 해석부는
상기 인코딩된 타겟 종괴 특성을 입력으로 하여 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성 각각의 종괴 이미지를 생성하는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 11,
The visual interpretation unit
A visual evidence analysis system according to mass properties, characterized in that generating mass images of each of the shape characteristics and the boundary characteristics corresponding to the target mass characteristics by inputting the encoded target mass characteristics as inputs.
제13항에 있어서,
상기 측정부는
상기 모양 특성의 종괴 이미지와 모양 특성 샘플을 입력으로 하는 모양 유도 네트워크(guide networks)를 이용하여 상기 타겟 종괴에 대한 모양 관련성 점수(shape relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 모양 측정부; 및
상기 경계 특성의 종괴 이미지와 경계 특성 샘플을 입력으로 하는 경계 유도 네트워크(guide networks)를 이용하여 상기 타겟 종괴에 대한 경계 관련성 점수(margin relevance score)를 산출하여 시각적 증거(visual evidence)를 측정하는 경계 측정부
를 포함하는 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 13,
The measurement unit
A shape for measuring visual evidence by calculating a shape relevance score for the target mass using guide networks that input the mass image of the shape characteristic and a shape characteristic sample as inputs. Measurement unit; And
Boundary for measuring visual evidence by calculating a margin relevance score for the target mass using guide networks that input the mass image of the boundary characteristic and a boundary characteristic sample as inputs. Measuring part
Visual evidence interpretation system according to the mass characteristics comprising a.
제14항에 있어서,
상기 유도 네트워크는
상기 종괴 이미지를 인코딩한 인코딩된 종괴 이미지와 상기 모양 특성 또는 상기 경계 특성에 대한 임베딩(embedding)된 설명 정보를 입력으로 연산하여 관련성 점수(relevance score)를 출력하도록 구성되는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 14,
The induction network is
The mass characteristic, characterized in that configured to output a relevance score by calculating an encoded mass image that encodes the mass image and embedding description information for the shape feature or the boundary feature as an input. Visual evidence interpretation system according to.
제11항에 있어서,
상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 검증부
를 더 포함하는 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 11,
Verification unit for verifying clinical decisions using the encoded mass characteristics and the merged mass image
Visual evidence interpretation system according to the mass characteristics further comprising a.
제16항에 있어서,
상기 검증부는
모양 특성의 종괴 이미지와 경계 특성의 종괴 이미지를 합병한 상기 합병된 종괴 이미지와 상기 인코딩된 타겟 종괴 특성을 연산하여 입력으로 하는 진단 네트워크(diagnosis network)를 이용하여 상기 타겟 종괴에 대한 악성 또는 양성의 임상 결정(diagnostic decision)을 검증하는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 16,
The verification unit
Malignant or benign diagnosis for the target mass using a diagnostic network that calculates the merged mass image and the encoded target mass feature as input by combining the mass image of the shape feature and the mass image of the boundary feature. Visual evidence interpretation system according to mass characteristics, characterized in that to verify the clinical decision (diagnostic decision).
제17항에 있어서,
상기 검증부는
상기 진단 네트워크를 이용하여 임상 결정을 검증하는 과정에서, 미리 학습된 종괴의 모양 및 종괴의 경계에 기반하여 상기 타겟 종괴에 대한 상기 모양 특성 및 상기 경계 특성을 습득하는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
The method of claim 17,
The verification unit
In the process of verifying the clinical decision using the diagnostic network, the shape characteristic and the boundary characteristic for the target mass are acquired based on the shape of the mass and the boundary of the mass learned in advance. Visual evidence interpretation system according to.
삭제delete 타겟 종괴 특성을 인코딩하는 인코딩부;
상기 인코딩된 타겟 종괴 특성에 대응하는 모양 특성 및 경계 특성의 종괴 이미지를 생성하는 시각적 해석부;
상기 종괴 이미지와 종괴 특성 샘플을 입력으로 하는 딥 네트워크를 이용하여 타겟 종괴에 대한 시각적 증거(visual evidence)를 측정하는 측정부; 및
상기 인코딩된 타겟 종괴 특성과 합병된 상기 종괴 이미지를 이용하여 임상 결정을 검증하는 검증부를 포함하되,
상기 딥 네트워크는
공간 특성 맵에 대한 유도 정보(guided information)에 따라 관심 영역(region-of-interest; ROI)을 나타내는 타겟 종괴 특성을 인코딩하여 상기 인코딩된 타겟 종괴 특성을 획득하고, 상기 타겟 종괴 특성에 대응하는 상기 모양 특성 및 상기 경계 특성의 상기 종괴 이미지를 생성하며, 상기 생성된 종괴 이미지와 상기 종괴 특성 샘플로 측정되는 시각적 증거로 인한 공간 특성을 개선하는 과정을 통해 학습되는 것을 특징으로 하는, 종괴 특성에 따른 시각적 증거 해석 시스템.
An encoding unit encoding the target mass characteristic;
A visual analysis unit for generating a mass image of shape characteristics and boundary characteristics corresponding to the encoded target mass characteristics;
A measuring unit for measuring visual evidence for a target mass using a deep network that receives the mass image and mass characteristic sample as inputs; And
Including a verification unit for verifying a clinical decision using the mass image merged with the encoded target mass characteristics,
The deep network is
The encoded target mass characteristic is obtained by encoding a target mass characteristic representing a region-of-interest (ROI) according to guided information on a spatial characteristic map, and the target mass characteristic corresponding to the target mass characteristic is obtained. It is characterized in that learning through the process of generating the mass image of shape characteristics and the boundary characteristics, and improving spatial characteristics due to visual evidence measured by the generated mass image and the mass characteristic sample, according to mass characteristics. Visual evidence interpretation system.
KR1020190008006A 2019-01-22 2019-01-22 Method for interpretating visual evidence according to breast mass characteristics and the system thereof KR102216279B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008006A KR102216279B1 (en) 2019-01-22 2019-01-22 Method for interpretating visual evidence according to breast mass characteristics and the system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008006A KR102216279B1 (en) 2019-01-22 2019-01-22 Method for interpretating visual evidence according to breast mass characteristics and the system thereof

Publications (2)

Publication Number Publication Date
KR20200091145A KR20200091145A (en) 2020-07-30
KR102216279B1 true KR102216279B1 (en) 2021-02-17

Family

ID=71839215

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008006A KR102216279B1 (en) 2019-01-22 2019-01-22 Method for interpretating visual evidence according to breast mass characteristics and the system thereof

Country Status (1)

Country Link
KR (1) KR102216279B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150098119A (en) * 2014-02-19 2015-08-27 삼성전자주식회사 System and method for removing false positive lesion candidate in medical image
KR102251242B1 (en) * 2014-11-26 2021-05-12 삼성전자주식회사 Apparatus and Method for Computer Aided Diagnosis
KR101938992B1 (en) * 2017-06-19 2019-01-15 한국과학기술원 Explainable computer­aided diagnosis system and the method thereof

Also Published As

Publication number Publication date
KR20200091145A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP7279015B2 (en) Evaluation of density in mammography
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US11488306B2 (en) Immediate workup
US8761473B2 (en) Tree structure creation apparatus, method and program
CN105938628B (en) The direct calculating of biological marker from image
KR102289277B1 (en) Medical image diagnosis assistance apparatus and method generating evaluation score about a plurality of medical image diagnosis algorithm
Helaly et al. Toward deep mri segmentation for alzheimer’s disease detection
US20200402236A1 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
Brugnara et al. Automated volumetric assessment with artificial neural networks might enable a more accurate assessment of disease burden in patients with multiple sclerosis
JP2023016928A5 (en)
Mehta et al. Propagating uncertainty across cascaded medical imaging tasks for improved deep learning inference
Jurek et al. Syntactic pattern recognition-based diagnostics of fetal palates
KR102307995B1 (en) The diagnostic system of lymph node metastasis in thyroid cancer using deep learning and method thereof
Lucassen et al. Deep learning for detection and localization of B-lines in lung ultrasound
Sarica et al. New MS lesion segmentation with deep residual attention gate U-Net utilizing 2D slices of 3D MR images
US20210035676A1 (en) Medical document creation support apparatus, method and program, learned model, and learning apparatus, method and program
WO2021112141A1 (en) Document creation assistance device, method, and program
KR102515068B1 (en) Method for Providing Information on Predicting Breast Cancer Lymph Node Metastasis Using Machine Learning
KR102216279B1 (en) Method for interpretating visual evidence according to breast mass characteristics and the system thereof
KR102223255B1 (en) Interpreting method for diagnostic decision of deep network using breast imaging-reporting and data system and the system thereof
EP3965117A1 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
CN116092643A (en) Interactive semi-automatic labeling method based on medical image
Ortega-Martorell et al. Embedding MRI information into MRSI data source extraction improves brain tumour delineation in animal models
Liu et al. Automatic localization of the fetal cerebellum on 3D ultrasound volumes
Bhushan Liver cancer detection using hybrid approach-based convolutional neural network (HABCNN)

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant