KR102045223B1 - Apparatus, method and computer program for analyzing bone age - Google Patents

Apparatus, method and computer program for analyzing bone age Download PDF

Info

Publication number
KR102045223B1
KR102045223B1 KR1020190051972A KR20190051972A KR102045223B1 KR 102045223 B1 KR102045223 B1 KR 102045223B1 KR 1020190051972 A KR1020190051972 A KR 1020190051972A KR 20190051972 A KR20190051972 A KR 20190051972A KR 102045223 B1 KR102045223 B1 KR 102045223B1
Authority
KR
South Korea
Prior art keywords
image
bone
analysis
value
interest
Prior art date
Application number
KR1020190051972A
Other languages
Korean (ko)
Inventor
이재준
Original Assignee
주식회사 크레스콤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크레스콤 filed Critical 주식회사 크레스콤
Priority to KR1020190051972A priority Critical patent/KR102045223B1/en
Application granted granted Critical
Publication of KR102045223B1 publication Critical patent/KR102045223B1/en

Links

Images

Classifications

    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method, an apparatus, and a computer program for analyzing bone age. A method for analyzing bone age based on a hand bone image, comprising the following steps of: receiving the hand bone image; extracting a plurality of regions of interest from the hand bone image; calculating a first feature for each of the regions of interest by applying, respectively, the regions of interest to a plurality of region of interest feature extraction models that have been independently learned to extract a feature of each of the regions of interest; and calculating an analysis value of the hand bone image for identifying the hand bone image by applying the first feature for each of the regions of interest to a pre-learned first integrated analysis model as an input vector. The first integrated analysis model generates one input vector with a plurality of features calculated by applying the regions of interest extracted in learning images to the region of interest feature extraction models, respectively, and is a machine learning model learned by using a plurality of input vectors corresponding to the number of the learning images as learning data, and the analysis value includes a vector value representing a bone maturation grade or a probability for each bone age, or bone age corresponding to a regression analysis model. According to the present invention, it is possible to reduce effect of an error on an analysis model that training data generated for directing and learning the entire image may have and to improve learning accuracy and objectivity of a deep neural network.

Description

골 연령 분석 방법, 장치 및 컴퓨터 프로그램{APPARATUS, METHOD AND COMPUTER PROGRAM FOR ANALYZING BONE AGE}Bone age analysis method, device and computer program {APPARATUS, METHOD AND COMPUTER PROGRAM FOR ANALYZING BONE AGE}

본 발명은 골 연령 분석 방법, 장치 및 컴퓨터 프로그램에 관한 것으로, 보다 자세하게는 기계 학습을 이용하여 수골 영상에 기초하여 골 연령을 분석하는 방법, 장치 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to a bone age analysis method, apparatus and computer program, and more particularly, to a method, apparatus and computer program for analyzing bone age based on the bone image using machine learning.

영상 분석 기술은 다양한 분야에 광범위하게 사용되고 있으며, 특히 기계 학습(machine learning) 알고리즘을 이용해 객체 식별의 정확도가 높아지면서 그 활용이 더욱 활발하게 이루어지고 있다. Image analysis technology is widely used in various fields, and the use of machine analysis algorithms is particularly active as machine learning algorithms increase the accuracy of object identification.

영상 분석에 있어서 질의 영상이 수신되면, 컴퓨터는 기계 학습을 기반으로 학습된 모델을 통해 질의 영상의 특징(또는 질의 영상에 포함된 객체의 특징)을 분류한다. 사용자는 질의 영상에 대한 분석 결과를 통해 질의 영상에 어떤 객체가 포함되어 있는지 - 예를 들어, 영상에 포함된 상품이 어떤 상품인지- 또는 각 객체가 어떤 특성을 갖는지 - 예를 들어 상품이 어떤 색상, 패턴을 갖는지, 영상에 포함된 사람 얼굴이 누구인지 - 등을 손쉽게 확인할 수 있으며, 이를 활용하여 사용자는 수많은 영상 데이터들을 빠르게 분류하고 이해할 수 있다. In the image analysis, when a query image is received, the computer classifies a feature of the query image (or a feature of an object included in the query image) through a model trained based on machine learning. The analysis result of the query image shows the user which object is included in the query image-for example, what product is included in the image-or what characteristics each object has-for example, what color is the product , A pattern, a person's face included in the image, etc. can be easily identified, and the user can quickly classify and understand a large number of image data.

객체를 식별하기 위해서는 식별하고자 하는 객체의 특성을 학습하는 것이 필요한데, 기식별된 다량의 데이터를 기계학습 모델에 학습시키는 지도학습기법이 사용된다. In order to identify an object, it is necessary to learn the characteristics of the object to be identified. A supervised learning method is used to train a machine learning model with a large amount of identified data.

종래에 기계학습기법을 이용하여 분석 모델을 생성하고, 학습된 분석 모델을 통해 질의 영상을 분석하는 방법을 크게 두 가지로 분류해 볼 수 있다.Conventionally, an analysis model may be generated using a machine learning method, and a method of analyzing a query image through a trained analysis model may be classified into two types.

첫째로는 전체 영상을 학습 대상으로 하여 분석 모델을 생성하고, 영상을 분석하는 방식이다. 전체 영상을 기계학습 모델에 입력하여 학습시키면, 분석 모델은 영상 내의 특징들을 자체적으로 학습하며 분류에 활용한다. Firstly, the analysis model is generated by analyzing the entire image and the image is analyzed. When the entire image is input into the machine learning model and trained, the analysis model learns the features in the image itself and uses it for classification.

둘째로는 영상 내에서 관심 영역(ROI, Region of Interest)들을 추출해 관심 영역을 학습 대상으로 분석 모델을 훈련하고, 관심 영역을 중심으로 영상을 분석하는 방식이다. 이때 관심 영역은 해당 분야의 전문가가 특정하는 것이 일반적이다, 해당 분야의 전문가들의 누적된 경험과 지식을 활용하여 주요 관심 영역을 추출하고 관심 영역을 중심으로 영상을 분석하면 영상 분류 및 분석의 정밀도를 높일 수 있다. Second, the ROI (Region of Interest) is extracted from the image to train an analysis model on the region of interest, and the image is analyzed based on the region of interest. At this time, the area of interest is generally specified by experts in the relevant field. By using the accumulated experience and knowledge of experts in the field, the main area of interest is extracted and the image is analyzed based on the area of interest. It can increase.

그러나 위 두 가지 방식 모두 각각 한계점을 갖고 있다. 전체 영상을 학습 대상으로 분석함에 있어서 영상 내의 복잡도가 크거나 특징적인 부분이 영상 내에 다수 존재할 경우 동일한 질의 영상(분석 대상)에 대한 분류 결과가 달라질 수 있다. 이는 지도 학습 데이터를 생성하는 주체에 따라 특징이 된다고 생각하는 부분이 달라 식별값이 달라질 수 있기 때문이다. 전체 영상 기반 분류 방식은 분석 모델을 생성하는데 사용되는 학습 데이터의 정확성과 객관성이 담보되지 않으면, 분류 결과의 신뢰성이 크게 저하되는 문제가 있으며, 전체 영상에 대한 직관적인 판단에 의존하게 될 수 있다. However, both methods have their own limitations. In analyzing the entire image as a learning target, when there are many complex or characteristic parts in the image, the classification result for the same query image (analysis target) may be different. This is because the identification value may vary depending on the subject generating the supervised learning data. In the whole image-based classification method, if the accuracy and objectivity of the training data used to generate the analysis model are not secured, the reliability of the classification result may be greatly deteriorated, and the whole image-based classification method may depend on an intuitive determination of the entire image.

뿐만 아니라 전체 영상 기반의 분류 방식은 영상 분류 시 중요한 의미를 갖지 않는 부분까지 함께 분석되기 때문에 질의 영상 식별과 무관한 노이즈가 해당 영상의 자동 분석 결과에 부정적인 영향을 줄 수 있다. In addition, since the whole image-based classification method analyzes even the parts that do not have an important meaning in classifying the image, noise that is not related to the query image identification may negatively affect the automatic analysis result of the corresponding image.

한편, 관심 영역별로 특징을 분석하는 방식은 전체 영상에서 관심 영역을 제외한 나머지 영역의 특징이 반영되지 않거나, 선택한 관심 영역의 중요도가 크지 않을 수도 있다는 점에서 한계가 있다. On the other hand, the method of analyzing the feature for each region of interest has a limitation in that the features of the remaining regions other than the region of interest are not reflected in the entire image or the importance of the selected region of interest may not be large.

본 발명은 전술한 문제점을 해결하기 위한 것으로서, 영상 분석의 정확도를 높일 수 있는 영상 분석 방법, 장치 및 컴퓨터 프로그램을 제공하는 것을 일 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image analysis method, an apparatus, and a computer program that can improve the accuracy of image analysis.

또한, 본 발명은 전체 영상의 지도 학습을 위해 생성된 훈련 데이터가 가질 수 있는 오류가 분석 모델에 미치는 영향을 감소시키고, 심층 신경망의 학습 정확도와 객관성을 높일 수 있는 영상 분석 방법을 제공하는 것을 다른 목적으로 한다. In addition, the present invention is to provide an image analysis method that can reduce the effect of the error of the training data generated for supervised learning of the entire image on the analysis model, and improve the learning accuracy and objectivity of the deep neural network The purpose.

또한, 본 발명은 판단 오류를 유발할 가능성이 높은 잡음 요소들이 영상에 포함되어 있는 경우, 영상 내의 주요 관심 영역에서 특징을 별도로 검출한 후 이를 최종 영상 분류에 반영함으로써 영상 분류의 객관성과 정확성을 높이는 것을 다른 목적으로 한다. In addition, the present invention improves objectivity and accuracy of image classification by separately detecting a feature in a main region of interest in the image and reflecting it in the final image classification, when the image includes noise elements that are likely to cause a decision error. For other purposes.

또한, 본 발명은 해당 질의 영상을 식별하는 데 있어 관심 영역별로 중요한 특징을 추출하고 식별값을 출력함으로써, 블랙박스로 일컬어지는 심층신경망의 영상 분류 결과에 대해 판단 근거와 해석을 제공하는 것을 다른 목적으로 한다. Another object of the present invention is to provide a basis for and determination of image classification results of a deep neural network, referred to as a black box, by extracting important features for each region of interest and outputting identification values in identifying a corresponding query image. It is done.

이러한 목적을 달성하기 위한 본 발명은 수골 영상에 기초하여 골 연령을 분석하는 방법에 있어서, 상기 수골 영상을 수신하는 단계, 상기 수골 영상에서 복수개의 관심 영역을 추출하는 단계, 상기 관심 영역 각각의 특징을 추출하기 위하여 독립적으로 학습된 복수개의 관심 영역 특징 추출 모델에 상기 관심 영역을 각각 적용하여 복수개의 관심 영역별 제1 특징을 산출하는 단계, 상기 복수개의 관심 영역별 제1 특징을 하나의 입력 벡터로 기 학습된 제1 통합 분석 모델에 적용하여, 상기 수골 영상을 식별하기 위한 상기 수골 영상의 분석값을 산출하는 단계를 포함하고, 상기 제1 통합 분석 모델은 학습영상에서 추출한 복수개의 관심 영역을 상기 관심 영역 특징 추출 모델에 각각 적용하여 산출된 복수개의 특징으로 하나의 입력 벡터를 생성하고, 상기 학습영상의 개수에 대응되는 복수개의 입력 벡터를 학습데이터로 하여 학습된 기계학습 모델이며, 상기 분석값은 골 성숙등급 또는 골 연령별 확률을 나타내는 벡터값, 또는 회귀분석모델에 대응되는 골 연령을 포함하는 것을 일 특징으로 한다. According to an aspect of the present invention, there is provided a method of analyzing bone age based on a bone image, including receiving the bone image, extracting a plurality of regions of interest from the bone image, and each feature of the region of interest. Calculating a first feature for each of the plurality of ROIs by applying the ROIs to a plurality of ROI feature extraction models that are independently trained to extract the first ROI, and inputting the first features of the plurality of ROIs as one input vector. Calculating an analysis value of the bone image for identifying the bone image by applying the trained first integrated analysis model, wherein the first integrated analysis model includes a plurality of ROIs extracted from a training image. Generates an input vector with a plurality of features calculated by applying to the ROI feature extraction model, respectively, A machine learning model trained using a plurality of input vectors corresponding to the number of learning images as learning data, and the analysis value is a vector value representing a bone maturity level or probability for each bone age, or bone age corresponding to a regression analysis model. It is characterized by including one.

전술한 바와 같은 본 발명에 의하면, 종래 방식 대비 영상 분석의 정확도를 높일 수 있다. According to the present invention as described above, it is possible to increase the accuracy of image analysis compared to the conventional method.

또한, 본 발명에 의하면 전체 영상의 지도 학습을 위해 생성된 훈련 데이터가 가질 수 있는 오류가 분석 모델에 미치는 영향을 줄일 수 있으며, 심층 신경망의 학습 정확도와 객관성을 높일 수 있다. In addition, according to the present invention, the effect of the training data generated for supervised learning of the entire image may be reduced on the analysis model, and the learning accuracy and objectivity of the deep neural network may be improved.

또한, 본 발명에 의하면 판단 오류를 유발할 가능성이 높은 잡음 요소들이 영상에 포함되어 있는 경우, 영상 내의 주요 관심 영역에서 특징을 별도로 검출한 후 이를 최종 영상 분류에 반영함으로써 영상 분류의 객관성과 정확성을 높일 수 있다. In addition, according to the present invention, if the image contains noise elements that are likely to cause a decision error, the feature is detected separately in the main region of interest in the image and then reflected in the final image classification to increase the objectivity and accuracy of the image classification. Can be.

또한, 본 발명에 의하면 블랙박스로 일컬어지는 심층신경망의 영상 분류 결과에 대해 판단 근거와 해석을 제공할 수 있다. In addition, according to the present invention, it is possible to provide a judgment basis and an interpretation on the image classification result of the deep neural network referred to as a black box.

도 1은 본 발명의 일 실시 예에 따른 영상 분석 장치를 설명하기 위한 블록도,
도 2는 본 발명의 일 실시 예에 따른 특징 추출 모델을 설명하기 위한 도면,
도 3은 본 발명의 일 실시 예에 따른 관심 영역 추출을 설명하기 위한 수골 영상,
도 4는 본 발명의 일 실시 예에 따른 영상 분석 방법을 설명하기 위한 순서도,
도 5는 본 발명의 다른 실시 예에 따른 영상 분석 방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating an image analyzing apparatus according to an embodiment of the present invention;
2 is a view for explaining a feature extraction model according to an embodiment of the present invention;
3 is a bone image for explaining a region of interest extraction according to an embodiment of the present invention;
4 is a flowchart illustrating an image analysis method according to an embodiment of the present invention;
5 is a flowchart illustrating an image analysis method according to another exemplary embodiment.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용되며, 명세서 및 특허청구의 범위에 기재된 모든 조합은 임의의 방식으로 조합될 수 있다. 그리고 다른 식으로 규정하지 않는 한, 단수에 대한 언급은 하나 이상을 포함할 수 있고, 단수 표현에 대한 언급은 또한 복수 표현을 포함할 수 있음이 이해되어야 한다. The above objects, features, and advantages will be described in detail with reference to the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. In describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals in the drawings are used to indicate the same or similar components, all combinations described in the specification and claims may be combined in any way. And unless specified otherwise, reference to the singular may include one or more, and reference to the singular may also include the plural expression.

본 발명은 다양한 분야에 적용 가능하나, 특히 골연령 판단을 위한 수골 영상 분석에 효과적으로 사용될 수 있다. 골연령은 아동 청소년의 신체적 성장의 진행 정도와 성장이 멈출 시기를 추정하는 데 중요한 역할을 한다. 따라서, 성장 잠재 가능성의 정도를 파악하는 데 사용된다. 골연령은 골단판(성장판)이 골화가 진행됨에 따라 골단과 골간단이 융합되어 가는 상태를 해당 뼈들의 존재와 형상의 변화를 통해 파악한다.The present invention can be applied to various fields, but can be effectively used for bone image analysis, particularly for determining bone age. Bone age plays an important role in estimating the progress of physical growth in children and adolescents and when growth stops. Therefore, it is used to determine the degree of growth potential. The bone age determines the state of fusion between the epiphysis and the epiphyseal as the epiphyseal plate (growth plate) progresses through ossification.

골연령 분석에는 수골영상을 주로 활용하며, 일반적으로 아틀라스 기반의GP방식 또는 TW방식으로 뼈의 성숙도를 보고 골연령을 판단한다.The bone age analysis is mainly used for bone age analysis. In general, bone age is determined by looking at bone maturity using the atlas-based GP method or the TW method.

GP 방식은 골연령 판독에 사용하는 손뼈의 전체 영상을 직관적으로 보고 판별하는 방식이며, TW 방식은 수골 영상에서 주요 세부 관절 부위별로 관심 영역들을 분리한 후, 관심 영역별로 각각 성숙 등급을 판단하고 이를 종합하여 골연령을 산출해내는 방식이다. The GP method is a method of intuitively viewing and discriminating the entire image of the hand bone used for the bone age reading, and the TW method separates the regions of interest for each of the major sub-articular regions from the bone image, and then determines the maturity level for each region of interest. It is a method of calculating bone age by combining.

GP 방식을 사용할 때 전문의는 골연령별 대표 영상과 질의 영상을 비교하여 질의 영상과 가장 유사한 대표 영상의 골연령을 질의 영상의 골연령으로 판단한다. 그러나 GP 방식은 판독하는 사람에 따라 편차가 클 수 있고, 동일 판독자가 판단을 내리더라도 시간에 따라 다른 평가를 내일 가능성이 높다는 연구 결과들이 다수 보고되고 있다. When the GP method is used, the specialist compares the representative image by the bone age and the query image, and determines the bone age of the representative image that is most similar to the query image as the bone age of the query image. However, many studies have reported that the GP method may have a large deviation depending on the reader, and that the same reader may make a different evaluation according to time even if the same reader makes a judgment.

TW 방식은 GP 방식에 비해 판독자별 또는 동일 판독자 간의 시간차 분류 결과의 편차가 적다는 연구 결과들이 있으며, 더 정확하고 오차 가능성이 적다고 평가되고 있다. 그러나 TW 방식도 각 관심 영역별로 성숙 등급을 분류하는 데 있어서 GP 방식보다는 작지만 오차가 발생할 수 있다. 또한 평가 대상으로 검출한 관심 영역 이외의 부분은 골연령 분석에 포함되지 않는 한계가 있다.Compared with the GP method, the TW method has less research results and the difference in the time difference classification results between the same readers, and it is evaluated that it is more accurate and less error probable. However, although the TW method is smaller than the GP method in classifying the maturity grade for each region of interest, an error may occur. In addition, there is a limitation that portions other than the ROI detected as the evaluation target are not included in the bone age analysis.

이러한 문제점은 GP 방식과 TW 방식을 기계학습을 이용해 구현하는 경우에도 동일하게 나타나는데, 본 발명에 의하면 상술한 문제점을 극복할 수 있으며, 수골 영상 분석의 정확도를 크게 향상시킬 수 있다.These problems are the same when the GP method and the TW method are implemented using machine learning. According to the present invention, the above problems can be overcome and the accuracy of the bone image analysis can be greatly improved.

이하에서는 도 1 내지 도 2를 참조하여 본 발명의 일 실시 예에 의한 영상 분석 장치를 살펴본다. Hereinafter, an image analyzing apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 영상 분석 장치(100)는 입력부(110), 검출부(130), 관심 영상 분석부(150), 통합분석부(170)를 포함하며, 전체 영상 분석부(160)을 더 포함할 수 있다. Referring to FIG. 1, the image analyzing apparatus 100 according to an exemplary embodiment of the present disclosure includes an input unit 110, a detector 130, an image analyzer of interest 150, and an integrated analyzer 170. The apparatus may further include an image analyzer 160.

입력부(110)는 사용자로부터 질의 영상을 입력받는 입력 모듈일 수 있으며, 다른 전자 장치(미도시)로부터 유무선 통신망을 통해 질의 영상을 수신하는 통신 모듈일 수 있다. 다른 실시 예로 입력부(110)는 객체의 영상을 획득하는 촬상 모듈일 수 있다. 질의 영상은 2차원의 컬러 또는 흑백 영상일 수 있으며 카메라, 방사선 촬영 장치, 컴퓨터 단층 촬영 장치 등의 촬상 장치를 통해 획득된 것이거나 전자 장치의 캡처 기능을 통해 획득된 것일 수 있다. 입력부(110)는 수신한 질의 영상을 전체 영상 분석부(160) 및/또는 검출부(130)로 전달할 수 있다. The input unit 110 may be an input module that receives a query image from a user, or may be a communication module that receives a query image from another electronic device (not shown) through a wired / wireless communication network. In another embodiment, the input unit 110 may be an imaging module that acquires an image of an object. The query image may be a two-dimensional color or black and white image, may be obtained through an imaging device such as a camera, a radiographic apparatus, a computed tomography apparatus, or may be obtained through a capture function of an electronic device. The input unit 110 may transmit the received query image to the entire image analyzer 160 and / or the detector 130.

검출부(130)는 질의 영상에서 하나 이상의 관심 영역을 추출한다. 여기서 관심 영역이란, 질의 영상을 분석하는 데 있어서 중요도를 지닌 특정 영역을 의미한다. 기계 학습 분석에 있어서 특정 영역의 중요도는 해당 영상이 속한 도메인 지식에 기반하는 경우가 많다. 즉, 관심 영역을 중심으로 분석하는 것은 분석에 있어 오류를 야기할 가능성이 있는 주요 관심 영역 이외의 영역에서의 노이즈를 제거하여 정확도를 높이기 위한 것이다. 예를 들어, 도 3에 도시된 바와 같은 수골 영상을 질의 영상으로 수신한 경우, 영상 분석 장치(100)는 수골 영상을 분석하여 골연령을 측정할 수 있다. 검출부(130)는 골연령 측정에 주요하게 고려되는 영역(R1 내지 R5) 등을 관심 영역으로 추출할 수 있다. The detector 130 extracts one or more regions of interest from the query image. Herein, the region of interest refers to a specific region having importance in analyzing the query image. In machine learning analysis, the importance of a particular region is often based on the domain knowledge to which the image belongs. In other words, the analysis based on the region of interest is intended to improve accuracy by removing noise in regions other than the region of interest that may cause errors in the analysis. For example, when receiving a bone image as shown in FIG. 3 as a query image, the image analysis apparatus 100 may analyze the bone image to measure bone age. The detector 130 may extract regions R1 to R5, which are mainly considered for bone age measurement, as regions of interest.

검출부(130)는 수동 검출부(135)와 자동 검출부(137)를 포함하며, 관심 영역은 수동 또는 자동으로 추출될 수 있다. 수동 검출부(135)는 사용자에 의해 설정된 위치 정보에 대응되는 영역을 관심 영역으로 추출할 수 있다. 즉, 도 3의 예시에서 사용자는 수골 영상에서 관심 영역이 되는 일 영역(R1 내지 R5)을 직접 설정할 수 있으며, 수동 검출부(135)는 사용자에 의해 지정된 영역을 관심 영역으로 추출하여 관심 영상 특징 추출부(160)로 전달할 수 있다. The detector 130 includes a manual detector 135 and an automatic detector 137, and the ROI may be manually or automatically extracted. The manual detector 135 may extract an area corresponding to the location information set by the user as the ROI. That is, in the example of FIG. 3, the user may directly set one region R1 to R5 that is the region of interest in the bone image, and the manual detector 135 extracts the region of interest by extracting the region designated by the user as the region of interest. It may be delivered to the unit 160.

자동 검출부(137)는 질의 영상에 특정 영역에 대해 학습된 자동 검출 모델을 적용하여 특정 영역에 대응되는 영역을 관심 영역으로 추출할 수 있다. 여기서 특정 영역이란, 전술한 예시에서 골연령 측정에 주요하게 고려되는 영역을 의미한다. 자동 검출부(137)는 전체 영상에서 특정 영상의 추출하기 위하여 복수의 특정 영역 영상을 이용하여 학습된(훈련 및 평가된) 심층 신경망인 자동 검출 모델을 포함할 수 있다. 자동 검출 모델로는 심층 신경망 기반의 Faster-RCNN, Yolo 검출 기법 등이 사용될 수 있으나, 이에 한정되는 것은 아니다. The automatic detector 137 may apply a trained automatic detection model to the query image to extract a region corresponding to the specific region as the region of interest. Herein, the specific area means an area that is mainly considered for measuring bone age in the above-described example. The automatic detector 137 may include an automatic detection model that is a deep neural network trained (trained and evaluated) using a plurality of specific region images to extract a specific image from the entire image. As the automatic detection model, a deep neural network-based Faster-RCNN, Yolo detection technique, etc. may be used, but is not limited thereto.

예를 들어, 자동 검출부(137)는 복수의 요골영상을 이용하여 자동 검출 모델을 훈련시킬 수 있으며, 이 경우 임의의 수골 영상(손뼈 전체 영상)을 입력하면 자동 검출부(137)는 요골에 해당하는 R1을 관심 영역으로 추출할 수 있다. For example, the automatic detection unit 137 may train the automatic detection model using a plurality of radial images. In this case, when an arbitrary bone image (full bone image) is input, the automatic detection unit 137 corresponds to the radial bone. R1 can be extracted to the region of interest.

검출부(130)는 질의 영상에서 하나 이상의 관심 영역(관심 영역 1, 2, … , N)을 추출하여, 추출된 관심 영상을 관심 영상 분석부(150)로 전달할 수 있다.The detector 130 may extract one or more ROIs (interest regions 1, 2,..., N) from the query image and transfer the extracted ROIs to the ROI 150.

학습부(140)는 관심 영역 학습부(143), 전체 영역 학습부(145), 통합 학습부(147)를 포함할 수 있다.The learner 140 may include an ROI learner 143, an entire region learner 145, and an integrated learner 147.

관심 영역 학습부(143)는 하나 이상의 관심 영역 특징 추출 모델을 독립적으로 학습시켜 관심 영상 분석부(150)에 제공할 수 있다. 각각의 관심 영역 특징 추출 모델은 기계 학습 모델로, 하나 이상의 계층으로 구성된 심층 신경망 또는 회귀 분석 모델일 수 있다.The ROI learner 143 independently learns one or more ROI feature extraction models and provides the ROI to the ROI 150. Each region of interest feature extraction model is a machine learning model, which may be a deep neural network or a regression analysis model composed of one or more layers.

관심 영역 학습부(143)는 각 관심 영역에 대해 기 식별된, 즉 기 설정된 식별값에 따라 분류된 다수의 관심 영역 영상을 훈련 데이터로 사용하여 관심 영역 특징 추출 모델을 훈련시킬 수 있다. 여기서 식별값은 질의 영상의 분석값과 동일한 종류의 값이거나, 상기 질의 영상의 분석값과 상관관계가 있는 다른 종류의 값일수있다.The ROI learner 143 may train the ROI feature extraction model by using a plurality of ROI images previously identified for each ROI, that is, classified according to a predetermined identification value, as training data. The identification value may be the same kind of value as the analysis value of the query image or may be another kind of value correlated with the analysis value of the query image.

예를 들어, 최종적으로 질의 영상의 골 연령을 판단하고자 하는 경우, 관심 영역 학습부(143)는 제1관심 영역(요골)특징 추출 모델을 학습시키기 위하여, 골 연령별 요골 영상을 훈련 데이터로 사용할 수도 있고, 골 연령과 상관 관계가 있는 골 성숙등급(A에서 I 사이) 별 요골 영상을 훈련데이터로 사용할 수도 있다. 즉,도 4에 도시된 수골 영상에서 요골(R1)의 골성숙등급은 전체 수골 영상의 골 연령을 판단하는 데 영향을 미치는 바, 골 성숙등급별로 그룹화된 요골 영상 복수 개를 이용하여 제1관심 영역 특징 추출 모델을 학습시킬 수 있다.For example, when finally determining bone age of the query image, the ROI learning unit 143 may use the bone age-specific radial image as training data to train the first region of interest (radius) feature extraction model. In addition, radial image by bone maturity level (A to I) correlated with bone age may be used as training data. That is, the bone maturity grade of the radial (R1) in the bone image shown in Figure 4 affects the determination of the bone age of the whole bone image, the first interest using a plurality of radial images grouped by bone maturity grade We can train the domain feature extraction model.

따라서, 이렇게 학습된 관심 영역 특징 추출 모델에,특정 관심 영역을 적용하면 관심 영역의 분석값을 획득할 수 있다. 즉 상기 예시에서 제1관심 영역 특징 추출 모델에 요골 영상을 입력하면, 입력한 요골 영상의 골 연령 또는 골 성숙등급을 관심 영역의 분석값으로 획득할 수 있다. Therefore, when a specific ROI is applied to the ROI feature extraction model thus learned, an analysis value of the ROI may be obtained. In other words, when the radial image is input to the first region of interest feature extraction model, bone age or bone maturity level of the input radial image may be acquired as an analysis value of the ROI.

전체 영역 학습부(145)는 관심 영역 학습부(143)와 마찬가지로 전체 영역 특징 추출 모델을 훈련시켜 전체 영상 분석부(160)에 제공하기 위한 것이다. 전체 영역 특징 추출 모델은 기계 학습 모델로, 하나 이상의 계층으로 구성된 심층 신경망 또는 회귀 분석 모델일 수 있다.Like the ROI learner 143, the whole region learner 145 trains the entire region feature extraction model and provides the same to the entire image analyzer 160. The full region feature extraction model is a machine learning model, which may be a deep neural network or a regression analysis model composed of one or more layers.

전체 영역 학습부(145)는 전체 영상에 대해 기 식별된, 즉 기 설정된 식별값에 따라 분류된 다수의 전체 영역 영상을 훈련 데이터로 사용하여 전체영역 특징 추출 모델을 훈련시킬 수 있다. 여기서 식별값은 질의 영상의 분석값과 동일한 종류의 값일 수 있다. 예를 들어, 전술한 바와 같이 수골 영상의 골 연령을 판단하고자 하는 경우, 특정한 골 연령으로 판단된 전체 수골 영상을 훈련 데이터로 사용할 수 있다.The full region learner 145 may train a full region feature extraction model by using a plurality of full region images previously identified for the entire image, that is, classified according to a predetermined identification value, as training data. The identification value may be the same kind of value as the analysis value of the query image. For example, when the bone age of the bone image is to be determined as described above, the entire bone image determined as the specific bone age may be used as training data.

통합 학습부(147)는 관심 영역별 학습을 통해 추출된 특징(또는 특징값)및/또는 전체 영역 학습부에서 추출한 전체 영역 특징값을 이용하여 통합 분석 모델을 훈련시킬 수 있다. 통합 학습부(147)에 대해서는 통합 분석부(170)에 대한 설명에서 보다 자세하게 설명하기로 한다.The integrated learning unit 147 may train the integrated analysis model by using the feature (or feature value) extracted through the ROI-specific learning and / or the whole region feature value extracted by the entire domain learner. The integrated learning unit 147 will be described in more detail in the description of the integrated analyzing unit 170.

관심 영상 분석부(150)는 관심 영역 각각의 특징을 추출하기 위하여 독립적으로 학습된 하나 이상의 관심 영역 특징 추출 모델에 하나 이상의 관심 영역을 각각 적용하여 관심 영역별 제1 특징을 산출할 수 있다. 그리고 관심 영역 특징 추출 모델을 통해 산출된 관심 영역별 제1 특징은 통합 분석부(170)의 입력으로 사용된다. The ROI analyzer 150 may calculate the first feature for each ROI by applying one or more ROIs to one or more ROI feature extraction models that are independently trained to extract the features of each ROI. The first feature for each ROI calculated through the ROI feature extraction model is used as an input of the integrated analyzer 170.

예를 들어, 수골 영상에서 R1 영역(요골 영역)을 관심 영역 1, 복수의 요골 영상으로 학습된 관심 영역 특징 추출 모델을 제1 관심 영역 특징 추출 모델(155)이라고 하면, 관심 영상 분석부(150)는 검출부(130)에서 검출된 관심 영역 1을 제1 관심 영역 특징 추출 모델에 입력하여, 관심 영역 1의 제1 특징을 산출할 수 있다. For example, if the ROI region (radius region) in the bone image is a region of interest 1 and the ROI feature extraction model learned from the plurality of radial images is called the first ROI feature extraction model 155, the ROI analyzer 150 ) May input the ROI 1 detected by the detector 130 to the first ROI feature extraction model to calculate a first feature of the ROI.

관심 영역 특징 추출 모델을 이용하여 관심 영역의 특징을 산출하는 방법의 일 실시 예를 도 2를 참조하여 보다 자세하게 살펴보면 다음과 같다. An embodiment of a method of calculating a feature of the ROI by using the ROI feature extraction model will be described in detail with reference to FIG. 2.

관심 영역 특징 추출 모델은 하나 이상의 계층으로 구성된 심층 신경망으로, 관심 영역의 특징들에 대한 특징 지도(feature map)을 만들어내는 다수의 합성곱 계층(convolution layer)과 다수의 합성곱 계층 사이에 서브 샘플링을 수행하는 통합 계층(pooling layer)을 포함하는 합성곱 신경망(convolutional Neural Network, CNN)일 수 있다. 합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출할 수 있다. 특징(feature) 또는 특징값은 영상을 분류 또는 식별하는 데 있어 중요한 핵심 특징들을 나타내는 벡터 값을 의미한다. 본 발명의 일 실시 예에 의하면 통합 분석부(170)로 입력되는 제1 특징은 심층 신경망을 구성하는 하나 이상의 계층 중 일 계층에서 출력되는 값 또는 일 계층으로 입력되는 값일 수 있다. A region of interest feature extraction model is a deep neural network composed of one or more layers, and subsampling between multiple convolutional layers and multiple convolutional layers that produce a feature map of the features of the region of interest. It may be a convolutional neural network (CNN) including a pooling layer that performs the operation. The convolutional neural network may extract features from the input image by alternately performing the convolutional product and subsampling on the input image. A feature or feature value refers to a vector value representing key features that are important for classifying or identifying an image. According to an embodiment of the present invention, the first characteristic input to the integrated analyzer 170 may be a value output from one layer or a value input from one layer among one or more layers constituting the deep neural network.

합성곱 신경망은 여러 개의 합성곱 계층(convolution layer), 여러 개의 서브샘플링 계층(subsampling layer, Max-Pooling layer, Pooling layer)를 포함하며, GAP 계층(Global Average Pooling layer), 완전 연결 계층(Fully-Connected layer), 소프트맥스 계층(Softmax layer) 등을 포함할 수 있다. 합성곱 계층은 입력 영상에 대해 합성곱을 수행하는 계층이며, 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값 또는 평균값을 추출하여 2차원 영상에 매핑하는 계층으로 국소적인 영역을 더 크게 하고 서브샘플링을 수행할 수 있다. A convolutional neural network includes multiple convolution layers, multiple subsampling layers, max-pooling layers, and pooling layers, and a global average pooling layer and a fully-connected layer. Connected layer), Softmax layer (Softmax layer) and the like. The composite product layer is a layer that performs a composite product on the input image, and the subsampling layer is a layer that extracts the maximum or average value of the input image locally and maps it to the 2D image. Can be done.

합성곱 계층에서는 커널의 크기, 사용할 커널의 개수(생성할 맵의 개수), 합성곱 연산 시 적용할 가중치 테이블 등의 정보가 필요하다. 서브 샘플링 계층에서는 서브 샘플링할 커널의 크기 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지 등에 대한 정보가 필요하다. In the product multiplication layer, information such as the size of the kernel, the number of kernels to be used (the number of maps to be generated), and the weight table to be applied in the product calculation is needed. In the subsampling layer, information about the size of the kernel to be subsampled and information about whether to select the maximum value or the minimum value among the values in the kernel region is needed.

합성곱 신경망(CNN)의 일 예를 도시한 도 2에서 합성곱 신경망은 합성곱 계층(layer 1, layer 3) 사이에 서브 샘플링이 이루어지는 통합 계층(layer 2)을 포함하고, 말단에 GAP 계층, 완전 연결 계층, 소프트맥스 계층을 포함할 수 있다. 이는 설명의 편의를 위한 것으로, 본 예시에 적용된 것과는 다른 특성을 갖는 계층을 보다 다양하게 조합하여 합성곱 신경망을 구성할 수 있으며, 본 발명은 심층신경망의 구성 및 구조에 의해 제한되지 아니한다. In FIG. 2 illustrating an example of a convolutional neural network (CNN), the convolutional neural network includes an integrated layer (Layer 2) in which subsampling is performed between convolutional layers (Layer 1 and Layer 3), and a GAP layer, It can include a fully connected layer and a softmax layer. This is for convenience of description, it is possible to configure a multiplicative neural network by combining a variety of layers having a different characteristic than that applied to this example, the present invention is not limited by the configuration and structure of the deep neural network.

전술한 바와 같이 관심 영상 분석부(150)에서 산출하는 제1 특징은 심층 신경망을 구성하는 하나 이상의 계층 중 일 계층에서 출력되는 값 또는 일 계층으로 입력되는 값일 수 있는 바, GAP에서 출력되는 값을 제1 특징으로 사용하는 경우의 일 실시 예는 다음과 같다. As described above, the first feature calculated by the image analyzer 150 of interest may be a value output from one layer or a value input from one layer among one or more layers constituting the deep neural network. An embodiment when using the first feature is as follows.

도 2에 도시된 바와 같이 관심 영역 특징 추출 모델의 GAP 계층에서 각 특징맵의 평균값을 구하고, 이를 완전 연결 계층을 통해 소프트맥스 계층에 전달하는 경우, 관심 영상 분석부(150)는 GAP를 통해 산출된 각 특징맵의 평균값 벡터를 해당 관심 영역의 특징으로 설정할 수 있다. 이 경우, GAP를 통해 산출된 K개의 채널 특징맵의 평균값(A1, A2, …, AK)이 관심 영역 n의 특징값으로 통합 분석부(170)에 입력된다. As shown in FIG. 2, when the average value of each feature map is obtained from the GAP layer of the ROI feature extraction model and transferred to the SoftMax layer through the fully connected layer, the image analysis unit 150 calculates the GAP layer through the GAP. An average value vector of each feature map may be set as a feature of the corresponding ROI. In this case, the average values A 1 , A 2 ,..., A K of the K channel feature maps calculated through the GAP are input to the integrated analysis unit 170 as feature values of the region of interest n.

채널 k의 특징맵에서 (i, j) 위치의 특징값을

Figure 112019045558067-pat00001
라 하면, 채널 k의 특징맵의 평균값인
Figure 112019045558067-pat00002
는 다음과 같이 나타낼 수 있다. The feature value at position (i, j) in the feature map of channel k
Figure 112019045558067-pat00001
In this case, the average value of the feature map of channel k
Figure 112019045558067-pat00002
Can be expressed as:

[수학식 1][Equation 1]

Figure 112019045558067-pat00003
Figure 112019045558067-pat00003

즉, 관심 영역 n의 특징값

Figure 112019045558067-pat00004
(K= 채널의 총 개수)이 되며, 통합분석부(170)로는 관심 영역별 특징값
Figure 112019045558067-pat00005
(N: 관심 영역의 총 개수)이 입력될 수 있다. That is, the feature value of the region of interest n
Figure 112019045558067-pat00004
(K = total number of channels), and the integrated analysis unit 170 characterizes each region of interest.
Figure 112019045558067-pat00005
(N: total number of regions of interest) may be input.

또 다른 실시 예로, 관심 영상 분석부(150)는 심층 신경망을 구성하는 다양한 계층 중 일 계층으로 입력되는 값을 제1 특징으로 사용할 수 있다. 예를 들어, 도 2의 실시 예에서 관심 영상 분석부(150)가 소프트맥스 계층으로 입력되는 값을 제1 특징(

Figure 112019045558067-pat00006
)으로 사용한다고 가정하자. 관심 영상 분석부(150)는 최종 클래스 분류를 위한 각 클래스의 스코어 또는 정규화된 확률값을 관심 영역의 특징값으로 산출하기 위하여 소프트맥스의 입력인 각 클래스 스코어 값을 통합분석부 입력에 넣을 수 있다. 물론 소프트맥스 결과로 나온 정규화된 확률값을 해당 관심 영역의 특징값으로 설정하여 통합분석부 입력에 넣을 수도 있다. In another embodiment, the image of interest analyzer 150 may use a value input to one layer among various layers constituting the deep neural network as the first feature. For example, in the exemplary embodiment of FIG. 2, a value of the image of the ROI 150 input to the softmax layer may be a first feature (
Figure 112019045558067-pat00006
Suppose you use The image analysis unit 150 may insert each class score value, which is an input of the softmax, into the integrated analysis unit input to calculate the score or normalized probability value of each class for final class classification as a feature value of the ROI. Of course, the normalized probability value resulting from the softmax result can be set as a feature value of the region of interest and put into the integrated analysis unit input.

이 예시에서, 클래스 C의 스코어를

Figure 112019045558067-pat00007
라고 하면,
Figure 112019045558067-pat00008
는 다음과 같이 나타낼 수 있다. In this example, the score of class C
Figure 112019045558067-pat00007
Speaking of
Figure 112019045558067-pat00008
Can be expressed as:

[수학식 2][Equation 2]

Figure 112019045558067-pat00009
Figure 112019045558067-pat00009

위 식에서, K는 채널의 총 개수이며,

Figure 112019045558067-pat00010
는 i채널 특징맵의 평균값,
Figure 112019045558067-pat00011
는 클래스 c에 대한
Figure 112019045558067-pat00012
의 가중치이다. Where K is the total number of channels,
Figure 112019045558067-pat00010
Is the mean value of the i-channel feature map,
Figure 112019045558067-pat00011
For class c
Figure 112019045558067-pat00012
Is the weight of.

이 경우 관심 영역 n의 특징값

Figure 112019045558067-pat00013
(M= 클래스의 총 개수)이 되며, 통합분석부(170)로는 관심 영역별 특징값
Figure 112019045558067-pat00014
이 입력될 수 있다. In this case, the feature value of the region of interest n
Figure 112019045558067-pat00013
(M = total number of classes), and the integrated analysis unit 170 characterizes each region of interest.
Figure 112019045558067-pat00014
Can be input.

관심 영역분석부(150)는 상술한 관심 영역별 특징값을 산출하는 것과는 별개로, 관심 영역별 분석값(

Figure 112019045558067-pat00015
)을 산출할 수 있다. 이는 통합분석부(170)에 특징값을 입력하는 것과는 별개로, 관심 영역 그 자체의 분석결과를 사용자에게 제공하기 위함이다. 관심 영역분석부(150)에서 산출된 관심 영역별 분석값은 출력부(190)로 전달될 수 있다.The ROI analysis unit 150 separates the above-described feature value for each ROI, and analyzes the ROIs.
Figure 112019045558067-pat00015
) Can be calculated. This is to provide the analysis result of the ROI itself to the user, apart from inputting the feature value into the integrated analysis unit 170. The ROI analysis value calculated by the ROI 150 may be transmitted to the output unit 190.

전체 영상 분석부(160)은 본 발명의 일 실시 예에 의한 영상 분석 장치(100)에 포함될 수도 있고 포함되지 않을 수도 있는데, 질의 영상을 복수의 영상으로 학습된 전체 영역 특징 추출 모델에 적용하여 질의 영상의 제2 특징을 산출한다. 즉, 전체 영역 특징 추출 모델은 전체 영상의 특징 추출을 위해 전체 영상을 기반으로 학습된 기계학습 프레임워크로, 수골 영상 분석의 실시 예에 따르면 골 연령별로 손뼈의 전체 이미지를 학습 및 평가하는 것에 의해 손뼈 전체 이미지에 포함된 특징값 분포에 따라 골 연령을 판단할 수 있도록 학습된 심층 신경망이다. The entire image analyzer 160 may or may not be included in the image analysis apparatus 100 according to an exemplary embodiment. The query may be applied to a full region feature extraction model trained as a plurality of images. Compute a second feature of the image. That is, the full region feature extraction model is a machine learning framework trained on the basis of the entire image for feature extraction of the entire image. According to an embodiment of the bone image analysis, the whole region feature extraction model is obtained by learning and evaluating the entire image of the bone by bone age. It is a deep neural network trained to determine bone age based on the distribution of feature values included in the entire image of the bone.

전체 영상 분석부(160)에서 사용하는 전체 영역 특징 추출 모델은 입력 영상이 질의 영상의 일부가 아닌 전체 영상이라는 점, 전체 영상을 기반으로 학습된 신경망이라는 점에서 관심 영역 특징 추출 모델과 차이가 있으나 그 구성 및 학습 방법은 관심 영역 특징 추출 모델과 동일할 수 있다. The full region feature extraction model used by the whole image analyzer 160 is different from the ROI feature extraction model in that the input image is a whole image instead of a part of the query image, and is a neural network trained based on the whole image. The configuration and learning method may be the same as the ROI feature extraction model.

전체 영상 분석부(160)에는 질의 영상 그 자체가 입력된다. 예를 들어, 질의 영상이 수골 영상인 경우에는 손뼈 영상, 질의 영상이 얼굴 영상인 경우에는 얼굴 전체의 형상이 포함된 영상이 전체 영상 분석부(160)로 입력될 수 있다. 관심 영상 분석부(150)는 검출부(130)를 통해 추출된 관심 영역만이 입력되므로, 질의 영상이 수골 영상인 경우 요골 영상, 세 번째 손가락뼈의 세 번째 관절 영상 등 일부 영역만이 입력되며, 질의 영상이 얼굴 영상인 경우에는 눈 영역, 코 영역, 입 영역 과 같이 세분화된 일 영역의 영상이 관심 영상 분석부(150)로 입력될 것이다. The query image itself is input to the entire image analyzer 160. For example, when the query image is a bone image, a hand bone image, and when the query image is a face image, an image including the shape of the entire face may be input to the entire image analyzer 160. Since only the ROI extracted through the detector 130 is input, the ROI image analyzer 150 may input only a partial region such as a radial image and a third joint image of a third finger bone when the query image is a bone image. When the query image is a face image, an image of one region, such as an eye region, a nose region, and a mouth region, may be input to the ROI 150.

상술한 바와 같이 전체 영역 특징 추출 모델 역시 도 2에 도시된 바와 같은 하나 이상의 계층으로 구성된 심층 신경망으로, 합성곱 신경망인 경우 입력되는 질의 영상 위에 커널을 배치한 후 합성곱을 수행하여 특징 맵을 생성하거나 서브 샘플링을 통해 커널 영역 내의 값들을 샘플링하는 과정을 반복 수행할 수 있다. 이러한 과정을 통해 전체 영상 분석부(160)는 질의 영상의 특징을 추출할 수 있다(제2 특징). As described above, the whole region feature extraction model is also a deep neural network composed of one or more layers as shown in FIG. 2, and in the case of a compound multiplication neural network, a feature map is generated by arranging a kernel on an input query image and performing a synthesis product. Through subsampling, the process of sampling the values in the kernel region may be repeated. Through this process, the entire image analyzer 160 may extract a feature of the query image (second feature).

제2 특징 역시 관심 영상 분석부(150)에서 통합 분석부(170)로 입력되는 제1 특징과 마찬가지로 심층 신경망을 구성하는 하나 이상의 계층 중 특정 계층에 입력되는 입력값 또는 특정 계층의 출력값일 수 있다. 물론 심층신경망 전체를 통과한 결과 값일 수도 있다. 제2 특징의 산출 방법은 관심 영상 분석부(150)에서 설명한 바와 동일하므로 중복되는 설명은 생략한다. Like the first feature input from the image analyzer 150 to the integrated analyzer 170, the second feature may be an input value input to a specific layer or an output value of a specific layer among one or more layers constituting the deep neural network. . Of course, this may be the result of passing through the entire deep neural network. Since the method of calculating the second feature is the same as that described in the image analysis unit 150 of interest, overlapping description thereof will be omitted.

일반적으로는 기계 학습 모델을 이용하여 특징값을 산출하면, 특징값의 확률 분포를 참조하여 영상을 분류한다. 그러나 본 발명은 영상의 학습 및 분류만을 수행하는 것이 아니라, 영상 분류를 위해 특정 관심 영역별로 학습된 각 심층 신경망에서 산출한 특징값을 학습하는 단계 및 구성을 통해 영상 분석의 정확도를 높인다는 점에서 종래 기술과 상이한 기술적 특징을 갖는다.In general, when a feature value is calculated using a machine learning model, the image is classified by referring to a probability distribution of the feature value. However, the present invention improves the accuracy of image analysis by not only performing image learning and classification, but also learning and characterizing a feature value calculated in each deep neural network learned for each region of interest for image classification. It has different technical characteristics from the prior art.

통합 분석부(170)는 제1 특징을 기 학습된 통합 분석 모델에 적용하여, 질의 영상의 분석값을 산출한다. 만약 전체 영상 분석부(160)과 관심 영상 분석부(150)가 영상 분석에 모두 사용되는 경우, 통합 분석부(170)는 제1 특징과 제2 특징을 기 학습된 통합 분석 모델에 적용하여, 질의 영상의 분석값을 산출할 수 있다. The integrated analysis unit 170 calculates an analysis value of the query image by applying the first feature to a previously learned integrated analysis model. If the entire image analyzer 160 and the image analysis unit 150 of interest are both used for image analysis, the integrated analyzer 170 may apply the first and second features to the previously learned integrated analysis model. The analysis value of the query image may be calculated.

여기서 통합 분석 모델은 통합 학습부(147)에서 생성된 것으로, 영상에서 추출한 하나 이상의 관심 영역을 하나 이상의 관심 영역 특징 추출 모델에 각각 적용하여 산출된 하나 이상의 특징으로 학습된 심층 신경망 또는 회귀 모델 등의 기계학습 모델일 수 있다. 다른 실시 예로 통합 분석 모델은 영상을 전체 영역 특징 추출 모델에 적용하여 산출한 특징과, 영상에서 추출한 하나 이상의 관심 영역을 하나 이상의 관심 영역 특징 추출 모델에 각각 적용하여 산출된 하나 이상의 특징으로 학습된 신경망, 심층 신경망 또는 회귀 모델일 수 있다.In this case, the integrated analysis model is generated by the integrated learning unit 147, such as a deep neural network or a regression model trained with one or more features calculated by applying one or more regions of interest extracted from an image to one or more regions of interest feature extraction. It may be a machine learning model. In another embodiment, the integrated analysis model is a neural network trained with a feature calculated by applying an image to a full region feature extraction model and one or more features calculated by applying one or more ROIs extracted from the image to one or more ROI feature extraction models. , Deep neural networks or regression models.

다시 말해서, 통합 분석 모델은 특징값으로 학습된 기계학습 모델로, 복수의 학습영상에서 추출한 관심 영역을 관심 영역 특징 추출 모델에 적용하여 산출된 특징(제1 특징)을 학습 데이터로 하거나, 학습 영상을 전체 영역 특징 추출 모델에 적용하여 산출한 특징(제2 특징)과 제1 특징을 학습 데이터로 하여 훈련된 것일 수 있다. 따라서 통합 분석부(170)의 입력 벡터

Figure 112019045558067-pat00016
Figure 112019045558067-pat00017
로 나타낼 수 있으며, 여기서 H는 관심 영역의 개수(전체 영상 포함)이며
Figure 112019045558067-pat00018
는 관심 영역 h의 특징값을 의미한다. In other words, the integrated analysis model is a machine learning model trained with feature values, and the feature (first feature) calculated by applying the ROIs extracted from the plurality of learning images to the ROI feature extraction model is used as training data, or the learning image. It may be trained using the feature (second feature) and the first feature calculated by applying to the full-domain feature extraction model as the training data. Therefore, the input vector of the integrated analysis unit 170
Figure 112019045558067-pat00016
Is
Figure 112019045558067-pat00017
Where H is the number of regions of interest (including the entire image)
Figure 112019045558067-pat00018
Denotes a feature value of the region of interest h.

예를 들어, 수골 영상 분석에서 요골 영역을 관심 영역 1이라고 할 때, 통합 학습부(147)는 골 연령별 또는 골 성숙 등급 별로 그룹화된 요골 영상 복수개를 제1 관심 영역 특징 추출 모델에 적용하여 산출된 요골 영상의 특징값들로 통합 분석 모델을 학습시킬 수 있다. 즉, 통합 분석 모델은 지도학습을 통해 골 연령별 요골 영상의 특징값의 특징을 학습할 수 있다. For example, in the bone image analysis, when the radial region is referred to as the region of interest 1, the integrated learning unit 147 is calculated by applying a plurality of radial images grouped by bone age or bone maturity level to the first region of interest feature extraction model. The integrated analysis model can be trained using the features of the radial image. That is, the integrated analysis model may learn features of feature values of the radial image for each bone age through supervised learning.

따라서 이 후 질의 영상이 입력되었을 때, 검출부(130)가 질의 영상에서 요골 영상을 추출하면, 관심 영상 분석부(150)는 요골 영상을 제1 관심 영역 특징 추출 모델에 적용하여

Figure 112019045558067-pat00019
을 질의 영상의 관심 영역 1의 특징 벡터로 산출하며,
Figure 112019045558067-pat00020
을 입력받은 통합 분석부(170)는
Figure 112019045558067-pat00021
의 특징을 산출하여
Figure 112019045558067-pat00022
의 특징에 대응되는 골 연령을 식별할 수 있다. 이와 같은 방식으로, 통합 분석부(170)는 각 관심 영역별 특징(
Figure 112019045558067-pat00023
) 및/또는 전체 영상의 특징(
Figure 112019045558067-pat00024
)를 학습 대상으로 하여 골연령별 영상 특징을 학습할 수 있다. Therefore, when the query image is input later, when the detector 130 extracts the radial image from the query image, the ROI analyzer 150 applies the radial image to the first ROI feature extraction model.
Figure 112019045558067-pat00019
Is calculated as the feature vector of the region of interest 1 of the query image,
Figure 112019045558067-pat00020
Integrated analysis unit 170 received the
Figure 112019045558067-pat00021
By calculating the features of
Figure 112019045558067-pat00022
Bone age corresponding to the characteristics of can be identified. In this way, the integrated analysis unit 170 may be characterized by each region of interest (
Figure 112019045558067-pat00023
) And / or features of the entire image (
Figure 112019045558067-pat00024
) Can be used to learn the image characteristics of each bone age.

정리하면, 본 발명의 통합 분석부(170)가 특징 분류에 사용하는 통합 분석 모델은 관심 영역의 특징만을 학습할 수도 있고, 관심 영역의 특징과 전체 영상의 특징의 조합을 학습할 수 있다. 이 후 질의 영상을 분석함에 있어서도 통합분석부(170)는 영상을 입력값으로 받는 것이 아니라 질의 영상의 특징값을 입력값으로 받아 분류를 수행할 수 있다. 본 명세서에서 통합 분석부(170)의 출력을 질의 영상의 분석값으로 명명하며, 이는 실제로는 질의 영상을 분석한 분류 결과, 즉 질의 영상의 기계 학습 모델(전체 영역 특징 추출 모델 및/또는 관심 영역 특징 추출 모델)의 결과값 또는 출력값의 특징 벡터인 것으로 이해될 수 있다. In summary, the integrated analysis model used by the integrated analysis unit 170 of the present disclosure may learn only the features of the ROI or learn a combination of the features of the ROI and the features of the entire image. Subsequently, in analyzing the query image, the integrated analysis unit 170 may classify by receiving the feature value of the query image as an input value instead of receiving the image as an input value. In the present specification, the output of the integrated analysis unit 170 is referred to as an analysis value of a query image, which is actually a classification result of analyzing the query image, that is, a machine learning model (full region feature extraction model and / or region of interest) of the query image. It can be understood that it is a feature vector of the result value or output value of the feature extraction model).

통합 분석부(170)는 분석값을 이용하여 질의 영상을 식별한다. 분석값은 질의 영상이 속하는 카테고리를 나타내거나 카테고리별 확률을 나타내는 벡터값 또는 회귀분석 모델의 결과값일 수 있다. The integrated analysis unit 170 identifies the query image by using the analysis value. The analysis value may be a vector value representing a category to which the query image belongs or a probability value for each category, or a result value of a regression analysis model.

예를 들어, 수골 영상을 분석하는 경우 분석값은 골 연령별 확률을 나타내는 벡터값일 수 있으며, 분석값에서 가장 높은 확률값에 대응되는 골 연령이 질의 영상의 골 연령으로 식별될 수 있고 또는 회귀분석모델에 대응되는 골연령값일 수 있다. 따라서, 만약 질의 영상의 분석 결과 연령이 10세로 산출되었다면, 도 1에 도시된 바와 같이 통합 분석부에서 출력되는 분석값

Figure 112019045558067-pat00025
는 일종의 카테고리에 해당하는 "10세"로 산출될 수도 있고, 회귀분석모델이 사용된 경우에는 "10.253"과 같이 골 연령으로 특정한 값이 산출될 수도 있다.For example, when analyzing the bone image, the analysis value may be a vector value representing the probability of each bone age, and the bone age corresponding to the highest probability value in the analysis value may be identified as the bone age of the query image, or the regression model It may be a corresponding bone age value. Therefore, if the age of the query image is calculated as the age of 10, the analysis value output from the integrated analysis unit as shown in FIG.
Figure 112019045558067-pat00025
May be calculated as "10 years old" corresponding to a category, or when a regression analysis model is used, a specific value may be calculated as bone age, such as "10.253".

출력부(190)는 통합 분석부(170)에서 산출된 질의 영상의 분석값 및 관심 영상 분석부(150)에서 산출된 관심 영역별 분석값을 사용자에게 제공할 수 있다. 예를 들어, 도 1의 195에 도시된 바와 같이, 사용자에게 제공되는 분석 결과는 질의 영상의 분석값

Figure 112019045558067-pat00026
뿐 아니라, 제1관심 영역의 분석값
Figure 112019045558067-pat00027
, 제2관심 영역의 분석값
Figure 112019045558067-pat00028
, 제3관심 영역의 분석값
Figure 112019045558067-pat00029
, 제4관심 영역의 분석값
Figure 112019045558067-pat00030
을 모두 포함할 수 있다. 도 1의 195는 질의 영상의 골 연령에 대한 분석 결과로, 제1관심 영역의 골 연령은 11세, 제2관심 영역의 골 연령은 9세, 제3 관심 영역의 골 연령은 12세로 분석된 경우의 일 예이다.The output unit 190 may provide the user with the analysis value of the query image calculated by the integrated analyzer 170 and the analysis value for each ROI calculated by the ROI analyzer 150. For example, as shown in 195 of FIG. 1, the analysis result provided to the user may include an analysis value of a query image.
Figure 112019045558067-pat00026
In addition, the analysis value of the first region of interest
Figure 112019045558067-pat00027
, Analytical values in the second region of interest
Figure 112019045558067-pat00028
, Analytical values in the third region of interest
Figure 112019045558067-pat00029
, Analytical values in the fourth region of interest
Figure 112019045558067-pat00030
It can include both. 195 of FIG. 1 is a result of analyzing the bone age of the query image. The bone age of the first region of interest is 11 years old, the bone age of the second region of interest is 9 years old, and the bone age of the third region of interest is 12 years old. One example of the case.

관심 영역의 분석값은 질의 영상의 분석값에 영향을 미칠 수 있는,즉 질의 영상의 분석값과 상관 관계가 있는 다른 종류의 값일 수 있는 바, 만일 학습부(140)에서 관심 영역 특징 추출 모델을 생성할 때 골 연령이 아닌 골 성숙등급을 식별값으로 하여 관심 영역을 학습시킨 경우, 관심 영역 특징 추출 모델에 관심 영역을 적용하여 도출되는 분석값은 골 성숙등급일 수 있다. 이 경우, 사용자에게는 관심 영역의 분석값으로 관심 영역별 골 성숙등급이 제공될 수 있다. 예를 들어, 제1관심 영역의 골 성숙등급은 C, 제2관심 영역의 골 성숙등급은 D, 제3관심 영역의 골 성숙등급은 C 와 같이 분석될 수 있다. 따라서 본 발명의 영상 분석 장치(100)는 질의 영상의 골 연령과 함께 각 관심 영역의 골 연령 또는 골 성숙등급을 제공함으로써 영상 분석 결과에 대한 판단 근거와 해석을 함께 제공해줄 수 있다는 점에서 효과적이다.The analysis value of the ROI may be another kind of value that may affect the analysis value of the query image, that is, correlated with the analysis value of the query image. When the region of interest is trained using the bone maturity level rather than bone age as an identification value, the analysis value derived by applying the region of interest to the ROI feature extraction model may be the bone maturity level. In this case, the user may be provided with a bone maturity grade for each region of interest as an analysis value of the region of interest. For example, the bone maturity grade of the first region of interest may be analyzed as C, the bone maturity grade of the second region of interest is D, and the bone maturity grade of the third region of interest is C. Therefore, the image analysis apparatus 100 of the present invention is effective in providing the basis and interpretation of the image analysis result by providing the bone age or the bone maturity level of each region of interest together with the bone age of the query image. .

도 4 및 도 5는 본 발명의 일 실시 예에 따른 영상 분석 방법을 도시한 순서도이다. 4 and 5 are flowcharts illustrating an image analyzing method according to an exemplary embodiment.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 전자 장치는 질의 영상을 수신하고(S100), 질의 영상에서 하나 이상의 관심 영역을 추출할 수 있다(S200). Referring to FIG. 4, an electronic device according to an embodiment of the present disclosure may receive a query image (S100) and extract one or more regions of interest from the query image (S200).

단계 200에서 전자 장치는 사용자에 의해 기 설정된 위치 정보에 대응되는 영역을 관심 영역으로 추출할 수 있으며, 질의 영상에 특정 영역에 대해 학습된 자동 검출 모델을 적용하여 특정 영역에 대응되는 영역을 관심 영역으로 추출할 수도 있다. In operation 200, the electronic device may extract an area corresponding to the location information set by the user as the ROI, and apply the automatic detection model trained on the specific region to the query image to search for the ROI corresponding to the specific area. You can also extract

전자 장치는 다음으로 전자 장치는 관심 영역 각각의 특징을 추출하기 위하여 독립적으로 학습된 하나 이상의 관심 영역 특징 추출 모델에 하나 이상의 관심 영역을 각각 적용하여 관심 영역별 제1 특징을 산출할 수 있다(S300). 관심 영역 특징 추출 모델은 하나 이상의 계층으로 구성된 심층 신경망이며, 제1 특징은 하나 이상의 계층 중 어느 하나의 계층에서 출력되는 값 또는 어느 하나의 계층으로 입력되는 값일 수 있다. Next, the electronic device may calculate the first feature for each ROI by applying one or more ROIs to one or more ROI feature extraction models that are independently trained to extract the features of each ROI (S300). ). The ROI feature extraction model is a deep neural network composed of one or more layers, and the first feature may be a value output from one of the one or more layers or a value input into any one layer.

전자 장치는 관심 영역별 제1 특징을 기 학습된 통합 분석 모델에 적용하여, 질의 영상을 식별하기 위한 분석값을 산출할 수 있다(S400). 즉, 질의 영상이 어떤 카테고리에 속하는지, 어떤 확률 값을 갖는지, 어떤 값에 대응되는지 등을 나타내는 분석값을 산출할 수 있다. 여기서 통합 분석 모델은 복수의 학습영상에서 추출한 하나 이상의 관심 영역을 하나 이상의 관심 영역 특징 추출 모델에 각각 적용하여 산출된 하나 이상의 특징으로 학습된 기계학습 모델로, 분석값은 제1 특징들을 통합한 것의 특징 벡터이거나, 카테고리 값을 의미하는 것으로 이해될 수 있다.The electronic device may calculate an analysis value for identifying the query image by applying the first feature for each region of interest to the previously trained integrated analysis model (S400). That is, an analysis value indicating which category a query image belongs to, what probability value it has, and what value it corresponds to may be calculated. The integrated analysis model is a machine learning model trained with one or more features calculated by applying one or more ROIs extracted from a plurality of learning images to one or more ROI feature extraction models, respectively, and the analysis value is obtained by integrating the first features. It may be understood as being a feature vector or meaning a category value.

한편, 단계 450에서 전자장치는 관심 영역별 분석값을 산출할 수 있다. 단계 450에서 산출되는 분석값은 질의 영상의 분석값과 동일한 종류의 값일 수 있으며, 질의 영상의 분석값과 상관 관계가 있는 다른 종류의 값일 수 있다. 예를 들어 질의 영상의 골 연령이 분석값으로 도출되는 경우, 단계 450에서 산출되는 관심 영역의 분석값은 관심 영역의 골 연령일 수도 있고, 골 연령 측정과 상관 관계를 갖는 골 성숙등급일 수도 있다. 이는 각 관심 영역 특징 추출 모델이 학습될 때 어떤 값이 식별값으로 사용되었는지 여부에 따라 달라질 수 있다.In operation 450, the electronic device may calculate an analysis value for each ROI. The analysis value calculated in operation 450 may be the same kind of value as the analysis value of the query image, or may be another kind of value correlated with the analysis value of the query image. For example, when the bone age of the query image is derived as an analysis value, the analysis value of the ROI calculated in step 450 may be the bone age of the ROI or may be a bone maturity grade correlated with the bone age measurement. . This may vary depending on which value is used as an identification value when each ROI feature extraction model is trained.

전자 장치는 단계 500에서 관심 영역별 분석값 및 질의 영상의 분석값을 사용자에게 제공할 수 있다. 예를 들어, 전자 장치에 포함된 디스플레이를 통해 분석값이 표시되거나, 전자 장치에 부착된 스피커 등을 통해 분석값이 출력될 수 도 있다.In operation 500, the electronic device may provide an analysis value of the ROI and an analysis value of the query image to the user. For example, the analysis value may be displayed through a display included in the electronic device, or the analysis value may be output through a speaker attached to the electronic device.

도 5의 실시 예에 의하면, 전자 장치는 관심 영역을 추출하여 관심 영역별 제1 특징을 산출함과 동시에, 질의 영상을 복수의 학습영상으로 학습된 전체 영역 특징 추출 모델에 적용하여 질의 영상의 제2 특징을 산출할 수 있다(S350). 이 경우 단계400에서 전자 장치는 제1 특징 및 제2 특징을 통합 분석 모델에 적용하여 질의 영상의 분석값을 산출할 수 있다. 이때 통합 분석 모델은 학습영상을 전체 영역 특징 추출 모델에 적용하여 산출한 특징과, 학습영상에서 추출한 하나 이상의 관심 영역을 하나 이상의 관심 영역 특징 추출 모델에 각각 적용하여 산출된 하나 이상의 특징으로 학습된 신경망 또는 심층 신경망이며, 단계 400에서 산출되는 분석값은 제1 특징 및 제2 특징을 통합한 것의 특징값인 것으로 이해될 수 있다.According to the embodiment of FIG. 5, the electronic device extracts a region of interest to calculate a first feature for each region of interest, and applies the query image to the entire region feature extraction model trained as a plurality of learning images to generate the query image. Two features may be calculated (S350). In this case, in operation 400, the electronic device may calculate an analysis value of the query image by applying the first feature and the second feature to the integrated analysis model. In this case, the integrated analysis model is a neural network trained with a feature calculated by applying a training image to a full region feature extraction model and one or more features calculated by applying one or more regions of interest extracted from the training image to one or more region of interest feature extraction models. Or a deep neural network, and the analysis value calculated in step 400 may be understood as a feature value of a combination of the first and second features.

본 명세서에서 생략된 일부 실시 예는 그 실시 주체가 동일한 경우 동일하게 적용 가능하다. 또한, 전술한 본 발명은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다.Some embodiments omitted in the present specification may be equally applicable to the same subject matter. In addition, the above-described present invention can be variously substituted, modified, and changed within the scope without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains to the above-described embodiments and attached It is not limited by the drawings.

100: 영상 분석 장치
110: 입력부
130: 검출부
140: 학습부
150: 관심 영상 분석부
160: 전체 영상 분석부
170: 통합 분석부
100: video analysis device
110: input unit
130: detector
140: learning unit
150: the image analysis unit of interest
160: the entire image analysis unit
170: integrated analysis unit

Claims (11)

수골 영상에 기초하여 골 연령을 분석하는 방법에 있어서,
상기 수골 영상을 수신하는 단계;
상기 수골 영상에서 복수개의 관심 영역을 추출하는 단계;
상기 관심 영역 각각의 특징을 추출하기 위하여 독립적으로 학습된 복수개의 관심 영역 특징 추출 모델에 상기 관심 영역을 각각 적용하여 복수개의 관심 영역별 제1 특징을 산출하는 단계;
상기 복수개의 관심 영역별 제1 특징을 하나의 입력 벡터로 기 학습된 제1 통합 분석 모델에 적용하여, 상기 수골 영상을 식별하기 위한 상기 수골 영상의 분석값을 산출하는 단계를 포함하고,
상기 제1 통합 분석 모델은
학습영상에서 추출한 복수개의 관심 영역을 상기 관심 영역 특징 추출 모델에 각각 적용하여 산출된 복수개의 특징으로 하나의 입력 벡터를 생성하고, 상기 학습영상의 개수에 대응되는 복수개의 입력 벡터를 학습데이터로 하여 학습된 기계학습 모델이며,
상기 분석값은
골 성숙등급 또는 골 연령별 확률을 나타내는 벡터값, 또는 회귀분석모델에 대응되는 골 연령을 포함하는 골 연령 분석 방법.
In the method of analyzing bone age based on the bone image,
Receiving the bone image;
Extracting a plurality of ROIs from the bone image;
Calculating a first feature for each of the plurality of ROIs by applying the ROI to each of a plurality of ROI feature extraction models trained independently to extract the features of each ROI;
Calculating an analysis value of the bone image for identifying the bone image by applying the first features of the plurality of ROIs to a first integrated analysis model previously learned as an input vector,
The first integrated analysis model
A single input vector is generated from a plurality of features calculated by applying a plurality of ROIs extracted from a training image to the ROI feature extraction model, and a plurality of input vectors corresponding to the number of the training images is used as training data. Is a trained machine learning model,
The analysis value is
A bone age analysis method comprising a bone age corresponding to a vector value representing a bone maturity grade or bone age probability, or a regression analysis model.
제1항에 있어서,
상기 수골 영상을 상기 학습영상으로 학습된 전체 영역 특징 추출 모델에 적용하여 상기 수골 영상의 제2 특징을 산출하는 단계를 더 포함하며,
상기 분석값을 산출하는 단계는
상기 복수개의 관심 영역별 제1 특징 및 상기 제2 특징을 하나의 입력 벡터로 제2 통합 분석 모델에 적용하여 상기 수골 영상의 분석값을 산출하는 단계를 포함하고,
상기 제2 통합 분석 모델은
상기 학습영상을 상기 전체 영역 특징 추출 모델에 적용하여 산출된 특징과, 상기 학습영상에서 추출한 복수개의 관심 영역을 상기 관심 영역 특징 추출 모델에 각각 적용하여 산출된 복수개의 특징으로 하나의 입력 벡터를 생성하고, 상기 학습영상의 개수에 대응되는 복수개의 입력 벡터를 학습 데이터로 하여 학습된 기계학습 모델인 골 연령 분석 방법.
The method of claim 1,
Calculating the second feature of the bone image by applying the bone image to the entire region feature extraction model trained as the training image;
The calculating of the analysis value
Calculating an analysis value of the bone image by applying the first and second features of the plurality of ROIs to a second integrated analysis model as one input vector,
The second integrated analysis model
A single input vector is generated with a feature calculated by applying the training image to the full region feature extraction model and a plurality of features calculated by applying the plurality of ROIs extracted from the training image to the ROI feature extraction model, respectively. And a machine learning model trained using a plurality of input vectors corresponding to the number of learning images as learning data.
제1항에 있어서,
상기 관심 영역 특징 추출 모델은 하나 이상의 계층으로 구성된 심층 신경망이며,
상기 제1 특징은 상기 하나 이상의 계층 중 어느 하나의 계층에서 출력되는 값 또는 상기 어느 하나의 계층으로 입력되는 값인 골 연령 분석 방법.
The method of claim 1,
The region of interest feature extraction model is a deep neural network composed of one or more layers,
The first characteristic is a bone age analysis method is a value output from any one of the one or more layers or a value input to the one of the layers.
제2항에 있어서,
상기 관심 영역 특징 추출 모델 및 상기 전체 영역 특징 추출 모델은 하나 이상의 계층으로 구성된 심층 신경망이며,
상기 제1 특징 및 상기 제2 특징은 상기 하나 이상의 계층 중 어느 하나의 계층에서 출력되는 값 또는 상기 어느 하나의 계층으로 입력되는 값인 골 연령 분석 방법.
The method of claim 2,
The ROI feature extraction model and the ROI feature extraction model are deep neural networks composed of one or more layers,
The first feature and the second feature is a bone age analysis method is a value output from any one of the one or more layers or a value input to the one of the layers.
제1항에 있어서,
상기 관심 영역 특징 추출 모델은 기 설정된 식별값에 따라 분류된 복수개의 관심 영역을 훈련 데이터로 사용하여 학습되며,
상기 식별값은 골 연령 또는 골 성숙등급인 것을 특징으로 하는 골 연령 분석 방법.
The method of claim 1,
The ROI feature extraction model is trained using a plurality of ROIs classified according to a predetermined identification value as training data.
The identification value is bone age analysis method, characterized in that the bone age or bone maturity grade.
제1항에 있어서,
상기 복수개의 관심 영역 특징 추출 모델에 상기 복수개의 관심 영역을 각각 적용하여 관심 영역별 분석값을 산출하는 단계;
상기 수골 영상의 분석값 및 상기 관심 영역별 분석값을 사용자에게 제공하는 단계를 포함하는 골 연령 분석 방법.
The method of claim 1,
Calculating an analysis value for each ROI by applying the ROIs to the ROI feature extraction models, respectively;
Bone age analysis method comprising the step of providing the analysis value of the bone image and the analysis value for each region of interest to the user.
제1항에 있어서,
상기 관심 영역을 추출하는 단계는
상기 수골 영상에 특정 영역에 대해 학습된 자동 검출 모델을 적용하여 상기 특정 영역에 대응되는 영역을 관심 영역으로 추출하는 단계를 포함하는 골 연령 분석 방법.
The method of claim 1,
Extracting the region of interest
And extracting a region corresponding to the specific region as the region of interest by applying an automatic detection model trained on the specific region to the bone image.
제1항에 있어서,
상기 관심 영역은
요골에 해당하는 영역을 포함하는 골 연령 분석 방법.
The method of claim 1,
The region of interest is
Bone age analysis method comprising the area corresponding to the radius.
수골 영상에 기초하여 골 연령을 분석하는 장치에 있어서,
상기 수골 영상을 수신하는 입력부;
상기 수골 영상에서 복수개의 관심 영역을 추출하는 검출부;
상기 관심 영역 각각의 특징을 추출하기 위하여 독립적으로 학습된 복수개의 관심 영역 특징 추출 모델에 상기 관심 영역을 각각 적용하여 복수개의 관심 영역별 제1 특징을 산출하는 관심 영상 분석부;
상기 복수개의 관심 영역별 제1 특징을 하나의 입력 벡터로 기 학습된 제1 통합 분석 모델에 적용하여, 상기 수골 영상의 분석값을 산출하고, 상기 분석값을 이용하여 상기 수골 영상을 식별하는 통합 분석부를 포함하며,
상기 제1 통합 분석 모델은
학습영상에서 추출된 복수개의 관심 영역이 상기 관심 영역 특징 추출 모델에 각각 적용되어 산출된 복수개의 특징으로 하나의 입력 벡터를 생성하고, 상기 학습영상의 개수에 대응되는 복수개의 입력 벡터를 학습데이터로 하여 학습된 기계학습 모델이며,
상기 분석값은
골 성숙등급 또는 골 연령별 확률을 나타내는 벡터값, 또는 회귀분석모델에 대응되는 골 연령을 포함하는 골 연령 분석 장치.
In the device for analyzing bone age based on the bone image,
An input unit to receive the bone image;
A detector extracting a plurality of ROIs from the bone image;
An interest image analyzer configured to calculate first features for each of the plurality of ROIs by applying the ROIs to a plurality of ROI feature extraction models trained independently to extract the features of each ROI;
The first feature of each region of interest is applied to a first integrated analysis model previously learned as an input vector to calculate an analysis value of the bone image, and to integrate the bone image using the analysis value. Includes an analysis unit,
The first integrated analysis model
A plurality of ROIs extracted from a training image are applied to the ROI feature extraction model to generate one input vector, and a plurality of input vectors corresponding to the number of the training images are used as training data. Machine learning model,
The analysis value is
Bone age analysis apparatus comprising a bone value corresponding to a vector value representing the bone maturity grade or the probability of each bone age, or a regression analysis model.
제9항에 있어서,
상기 수골 영상을 상기 학습영상으로 학습된 전체 영역 특징 추출 모델에 적용하여 상기 수골 영상의 제2 특징을 산출하는 전체 영상 분석부를 더 포함하며,
상기 통합 분석부는
상기 복수개의 관심 영역별 제1 특징과 상기 제2 특징을 하나의 입력 벡터로 기 학습된 제2 통합 분석 모델에 적용하여, 상기 수골 영상의 분석값을 산출하고,
상기 제2 통합 분석 모델은
상기 학습영상을 상기 전체 영역 특징 추출 모델에 적용하여 산출한 특징과, 상기 학습영상에서 추출된 복수개의 관심 영역이 상기 관심 영역 특징 추출 모델에 각각 적용되어 산출된 복수개의 특징으로 하나의 입력 벡터를 생성하고, 상기 학습영상의 개수에 대응되는 복수개의 입력 벡터를 학습 데이터로 하여 학습된 기계학습 모델인 골 연령 분석 장치.
The method of claim 9,
And a full image analyzing unit configured to calculate a second feature of the bone image by applying the bone image to the whole region feature extraction model trained as the learning image.
The integrated analysis unit
Calculating the analysis value of the bone image by applying the first and second features of the plurality of ROIs to a second integrated analysis model previously learned as an input vector,
The second integrated analysis model
A single input vector includes a feature calculated by applying the training image to the full region feature extraction model and a plurality of features calculated by applying the plurality of ROIs extracted from the training image to the ROI feature extraction model. A bone age analysis device, which is a machine learning model generated and trained using a plurality of input vectors corresponding to the number of learning images as learning data.
제1항 내지 제8항의 방법 중 어느 하나의 방법을 실행시키기 위하여 컴퓨터 판독 가능 매체에 저장된 골 연령 분석 프로그램.

A bone age analysis program stored on a computer readable medium for carrying out any one of the methods of claims 1-8.

KR1020190051972A 2019-05-03 2019-05-03 Apparatus, method and computer program for analyzing bone age KR102045223B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190051972A KR102045223B1 (en) 2019-05-03 2019-05-03 Apparatus, method and computer program for analyzing bone age

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190051972A KR102045223B1 (en) 2019-05-03 2019-05-03 Apparatus, method and computer program for analyzing bone age

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180057547A Division KR101977174B1 (en) 2017-09-13 2018-05-21 Apparatus, method and computer program for analyzing image

Publications (1)

Publication Number Publication Date
KR102045223B1 true KR102045223B1 (en) 2019-11-19

Family

ID=68771259

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190051972A KR102045223B1 (en) 2019-05-03 2019-05-03 Apparatus, method and computer program for analyzing bone age

Country Status (1)

Country Link
KR (1) KR102045223B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177567B1 (en) * 2019-12-09 2020-11-11 주식회사 뷰노 Method for generating bone image and apparatus using the same
KR102211389B1 (en) 2020-01-08 2021-02-03 (주)웨버인스트루먼트 Device of bone age calculation using artificial intelligence
WO2021118068A1 (en) * 2019-12-09 2021-06-17 주식회사 뷰노 Medical image generation method and device using same
KR20220007030A (en) * 2020-07-09 2022-01-18 주식회사 크레스콤 Growth analysis prediction apparatus using bone maturity distribution by interest area and method thereof
KR20220032815A (en) * 2020-09-08 2022-03-15 주식회사 뷰노 Method and apparatus for content based image retrieval
KR20220060746A (en) * 2020-11-05 2022-05-12 주식회사 뷰노 Method and apparatus for generating medical image
WO2024048918A1 (en) * 2022-08-31 2024-03-07 주식회사 크레스콤 Method for analyzing bone growth stages, device for analyzing bone growth stages, and system for analyzing bone growth stages

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140142413A1 (en) * 2012-11-16 2014-05-22 Samsung Electronics Co., Ltd. Computer-aided diagnosis method and apparatus
KR20160063128A (en) * 2014-11-26 2016-06-03 삼성전자주식회사 Apparatus and Method for Computer Aided Diagnosis
KR20160096460A (en) * 2015-02-05 2016-08-16 삼성전자주식회사 Recognition system based on deep learning including a plurality of classfier and control method thereof
KR101657495B1 (en) * 2015-09-04 2016-09-30 (주)한국플랫폼서비스기술 Image recognition method using deep learning analysis modular systems
KR20170026264A (en) * 2015-08-26 2017-03-08 옴니어스 주식회사 Product search method and system
KR20170045813A (en) * 2015-10-20 2017-04-28 삼성전자주식회사 Detecting method and apparatus of biometrics region for user authentication
KR20180038169A (en) * 2016-10-06 2018-04-16 가톨릭대학교 산학협력단 Safety classification method of the city image using deep learning-based data feature
KR101857624B1 (en) * 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same
KR20180064863A (en) * 2016-12-06 2018-06-15 부산대학교 산학협력단 SMI automatic analysis method of hand-wrist radiation images using deep learning

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140142413A1 (en) * 2012-11-16 2014-05-22 Samsung Electronics Co., Ltd. Computer-aided diagnosis method and apparatus
KR20160063128A (en) * 2014-11-26 2016-06-03 삼성전자주식회사 Apparatus and Method for Computer Aided Diagnosis
KR20160096460A (en) * 2015-02-05 2016-08-16 삼성전자주식회사 Recognition system based on deep learning including a plurality of classfier and control method thereof
KR20170026264A (en) * 2015-08-26 2017-03-08 옴니어스 주식회사 Product search method and system
KR101657495B1 (en) * 2015-09-04 2016-09-30 (주)한국플랫폼서비스기술 Image recognition method using deep learning analysis modular systems
KR20170045813A (en) * 2015-10-20 2017-04-28 삼성전자주식회사 Detecting method and apparatus of biometrics region for user authentication
KR20180038169A (en) * 2016-10-06 2018-04-16 가톨릭대학교 산학협력단 Safety classification method of the city image using deep learning-based data feature
KR20180064863A (en) * 2016-12-06 2018-06-15 부산대학교 산학협력단 SMI automatic analysis method of hand-wrist radiation images using deep learning
KR101857624B1 (en) * 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177567B1 (en) * 2019-12-09 2020-11-11 주식회사 뷰노 Method for generating bone image and apparatus using the same
WO2021118068A1 (en) * 2019-12-09 2021-06-17 주식회사 뷰노 Medical image generation method and device using same
KR102211389B1 (en) 2020-01-08 2021-02-03 (주)웨버인스트루먼트 Device of bone age calculation using artificial intelligence
EP3847969A1 (en) 2020-01-08 2021-07-14 Wever Instruments Co, Ltd 3d bone density and bone age calculation apparatus using artificial intelligence-based rotation manner
US11627928B2 (en) 2020-01-08 2023-04-18 Wever Instruments Co., Ltd 3D bone density and bone age calculation apparatus using artificial intelligence-based rotation manner
KR20220007030A (en) * 2020-07-09 2022-01-18 주식회사 크레스콤 Growth analysis prediction apparatus using bone maturity distribution by interest area and method thereof
KR102639558B1 (en) * 2020-07-09 2024-02-22 주식회사 크레스콤 Growth analysis prediction apparatus using bone maturity distribution by interest area and method thereof
KR20220032815A (en) * 2020-09-08 2022-03-15 주식회사 뷰노 Method and apparatus for content based image retrieval
KR102556235B1 (en) * 2020-09-08 2023-07-19 주식회사 뷰노 Method and apparatus for content based image retrieval
KR20220060746A (en) * 2020-11-05 2022-05-12 주식회사 뷰노 Method and apparatus for generating medical image
KR102556646B1 (en) 2020-11-05 2023-07-19 주식회사 뷰노 Method and apparatus for generating medical image
WO2024048918A1 (en) * 2022-08-31 2024-03-07 주식회사 크레스콤 Method for analyzing bone growth stages, device for analyzing bone growth stages, and system for analyzing bone growth stages

Similar Documents

Publication Publication Date Title
KR101977174B1 (en) Apparatus, method and computer program for analyzing image
KR102045223B1 (en) Apparatus, method and computer program for analyzing bone age
JP7458328B2 (en) Multi-sample whole-slide image processing via multi-resolution registration
US10265040B2 (en) Method and apparatus for adaptive computer-aided diagnosis
CN109154978A (en) System and method for detecting plant disease
EP2434434A2 (en) Method and system for training a landmark detector using multiple instance learning
US11386553B2 (en) Medical image data
US10130323B2 (en) Method and apparatus for planning computer-aided diagnosis
CN112150442A (en) New crown diagnosis system based on deep convolutional neural network and multi-instance learning
US20160259898A1 (en) Apparatus and method for providing reliability for computer aided diagnosis
KR102600401B1 (en) Apparatus, method and computer program for anayzing medical image using classification and segmentation
US20220156931A1 (en) Image processing method, apparatus, and system
KR102188649B1 (en) Image processing apparatus and method
Davis et al. Automated bone age assessment using feature extraction
CN115210755A (en) Resolving class-diverse loss functions of missing annotations in training data
Sameki et al. ICORD: Intelligent Collection of Redundant Data-A Dynamic System for Crowdsourcing Cell Segmentations Accurately and Efficiently.
GB2604706A (en) System and method for diagnosing small bowel cleanliness
CN111325282A (en) Mammary gland X-ray image identification method and device suitable for multiple models
Pujari et al. Detection and classification of fungal disease with radon transform and support vector machine affected on cereals
Heravi et al. Low price foot pressure distribution screening technique: Optical podoscope with accurate foot print segmentation using hidden Markov random field model
CN106446837B (en) A kind of detection method of waving based on motion history image
Manikandan et al. Automated classification of emphysema using data augmentation and effective pixel location estimation with multi-scale residual network
Settouti et al. Semi-automated method for the glaucoma monitoring
Gennari An investigation into deep learning for locating the optic disc in scanning laser ophthalmoscope retinal images
El Saddik et al. Non-invasive Anemia Detection from Conjunctival Images

Legal Events

Date Code Title Description
GRNT Written decision to grant