KR20180064863A - SMI automatic analysis method of hand-wrist radiation images using deep learning - Google Patents

SMI automatic analysis method of hand-wrist radiation images using deep learning Download PDF

Info

Publication number
KR20180064863A
KR20180064863A KR1020160165273A KR20160165273A KR20180064863A KR 20180064863 A KR20180064863 A KR 20180064863A KR 1020160165273 A KR1020160165273 A KR 1020160165273A KR 20160165273 A KR20160165273 A KR 20160165273A KR 20180064863 A KR20180064863 A KR 20180064863A
Authority
KR
South Korea
Prior art keywords
bone
interest
region
hand
images
Prior art date
Application number
KR1020160165273A
Other languages
Korean (ko)
Other versions
KR101901397B1 (en
Inventor
강동중
온한익
김성식
김원규
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Priority to KR1020160165273A priority Critical patent/KR101901397B1/en
Publication of KR20180064863A publication Critical patent/KR20180064863A/en
Application granted granted Critical
Publication of KR101901397B1 publication Critical patent/KR101901397B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/505Clinical applications involving diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention relates to a method for automatically analyzing a skeleton maturity indicator (SMI) through a predetermined deep neural network (DNN) from a plurality of hand and wrist radiation images. According to an embodiment of the present invention, the method for automatically analyzing an SMI from hand and wrist radiation images using deep learning, comprises: a first step of dividing a plurality of patch images including regions of interest having a predetermined same size and shape from a plurality of input hand and wrist radiation images for learning; a second step of determining a weight to determine a region of interest to be an analysis target of an SMI among the patch images using the divided patch images in a predetermined first DNN model as learning data; a third step of applying the determined weight to a hand and wrist radiation image for analysis to be analyzed in a predetermined second DNN model, to extract the region of interest from the hand and wrist radiation image for analysis, and extracting feature information of the region of interest; and a fourth step of determining the SMI from an extracted feature point of the region of interest.

Description

딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도(SMI) 자동 분석방법{SMI automatic analysis method of hand-wrist radiation images using deep learning}[0001] The present invention relates to a method for automatically analyzing bone maturity (SMI) from a hand-woven radiograph using deep-

본 발명은 딥러닝을 이용한 수완부 방사선 영상으로부터 골성숙도(SMI) 자동 분석방법에 관한 것으로서, 특히 복수의 수완부 방사선 영상으로부터 기설정된 깊은 신경망(Deep Neural Network:DNN)을 통해 골성숙도(SMI:skeletal maturity indicators)를 자동으로 분석하는 방법에 관한 것이다.The present invention relates to a method of automatically analyzing skeletal maturity (SMI) from a hand-held radiographic image using deep running, and more particularly, to a method of automatically analyzing skeletal maturity (SMI) through a deep neural network (DNN) skeletal maturity indicators. < / RTI >

골 성숙도(SMI)는 사람의 생물학적 나이를 판단하는 지수로서 의학진단을 수행하는데 있어서 중요한 기준으로 사용되고 있다. 골 성숙도의 분석에는 수완부 방사선 영상을 이용하는 연구가 많이 진행되고 있다. Bone Maturation (SMI) is an index to determine the biological age of a person and is used as an important criterion in performing medical diagnosis. Many studies have been carried out on the analysis of bone maturity using hand and arm radiographs.

종래에는 의사가 수완부의 방사선 영상을 확인하여 축적된 개인적인 경험과 노하우를 바탕으로 골 성숙도를 분석하였다. 하지만, 이 경우에 의사 개인마다 분석결과에 편차가 있고 정확한 판단이 어려웠다는 문제점이 있었다.In the past, the physician checked the radiographic image of the hand and arm and analyzed bone maturity based on accumulated personal experience and know-how. However, in this case, there was a problem in that there was a deviation in the analysis result for each doctor individual and it was difficult to make an accurate judgment.

이러한 문제점을 해결하기 위하여 종래에 컴퓨터 프로그램을 이용하여 수완부 영상으로부터 골 성숙도를 분석하는 기술이 개시되어 있다. 예컨대, 미국등록특허 제7848893호에는 손에 대한 뼈의 방사선 영상에서 뼈의 형상에 대응하는 화상의 강도를 샘플링하여 주요요소분석(Principal Component Analysis:PCA)로 설정하고 이러한 PCA를 이용하여 인간의 골격의 성숙도 값을 평가하는 방법이 개시된다.In order to solve such a problem, a technique for analyzing bone maturity from a hand-held image using a computer program has been disclosed. For example, U.S. Patent No. 7,848,893 discloses a technique in which the intensity of an image corresponding to the shape of a bone is sampled from a bone radiographic image of a hand and set as a Principal Component Analysis (PCA) A method for evaluating the maturity value of an image is disclosed.

다른 예로서, 유럽공개특허공보 제0626656호에는 소스 영상으로부터 상대적으로 구별되는 특징을 추출하고 추출된 영상의 화소값의 변화로부터 뼈의 성숙도를 판단하는 기술이 개시되며, 한국공개특허공보 제2007-0077319호에는 X-ray 사진의 손목을 구성하는 뼈들의 성장판의 해부학적인 특징, 구조, 크기, 농도, 예리성 및 모양을 포함하는 요소들을 제시된 프로그램을 통해 RUS 점수로 계산하고, 그 계산된 RUS 점수로 성장을 예측하는 방법이 개시된다.As another example, European Patent Publication No. 0626656 discloses a technique for extracting a feature that is relatively distinct from a source image and determining the maturity of the bone from a change in the pixel value of the extracted image, and Korean Patent Application Publication No. 2007- 0077319 describes the factors that include the anatomical features, structure, size, concentration, sharpness and shape of the growth plate of the bones that make up the wrist of the X-ray photographs. The calculated RUS score A method for predicting growth is disclosed.

하지만, 상기한 종래기술에서는 공지의 이미지 프로세싱(image processing) 기법을 이용하여 수완부 방사선 영상을 분석하여 화상의 강도, 구조, 크기, 화소값 등으로부터 특징점을 추출하고 그 특징점을 기설정된 기준에 따라 골 성숙도와 매핑하여 분석하므로 골 성숙도의 판단기준을 설정하는 것이 매우 어렵다. 또한, 사람마다 수완부의 크기나 형상에 일관성도 떨어지므로 판독의 난이도가 매우 높고, 짧은 시간에 수많은 사람의 방사선 영상들에 대해 복잡한 판독을 진행해야 하므로 정확도가 떨어지며 의료인과 의료자원에 비추어 비용의 상승과 진단 기간의 장기화를 초래한다는 문제점이 있다.However, in the above-described conventional techniques, the hand-held radiation image is analyzed using a known image processing technique to extract the feature points from the image intensity, structure, size, and pixel values, It is very difficult to set the criteria for bone maturity by mapping and analyzing bone maturity. In addition, since the inconsistency in the size and shape of the hand-arm part is inferior for each person, the difficulty of reading is very high, and the complicated reading is required for a large number of human radiation images in a short time. And the diagnosis period is prolonged.

미국 등록특허공보 US 7848893United States Patent Application Publication No. 7848893 유럽 공개특허공보 EP0626656European Patent Publication No. EP0626656 한국 공개특허공보 제10-2007-0077319호Korean Patent Publication No. 10-2007-0077319

본 발명은 상기한 종래기술의 문제점을 해결하기 위한 것으로서, 복수의 수완부 방사선 영상으로부터 기설정된 깊은 신경망(Deep Neural Network:DNN)을 통해 골성숙도(SMI:skeletal maturity indicators)를 자동으로 분석하는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a dip analyzer capable of automatically analyzing skeletal maturity indicators (SMI) through a deep neural network (DNN) And to provide a method for automatically analyzing bone maturity from a human skull radiographic image.

본 발명의 실시 예에 따른 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법은, 입력되는 복수의 학습용 수완부 방사선 영상으로부터 기설정된 동일한 크기 및 형태의 관심영역을 포함하는 다수의 패치영상을 구분하는 제1단계; 기설정된 제1 깊은 신경망(Deep Neural Network;DNN) 모델에서 상기 구분된 다수의 패치영상을 학습자료로 하여 상기 패치영상 중에서 골성숙도(SMI)의 분석대상이 되는 관심영역을 결정하기 위한 가중치를 결정하는 제2단계; 기설정된 제2 깊은 신경망(DNN) 모델에서 분석하고자 하는 분석용 수완부 방사선 영상에 대해 상기 결정된 가중치를 적용하여 상기 분석용 수완부 방사선 영상에서 관심영역을 추출하고 상기 관심영역의 특징정보를 추출하는 제3단계; 및 상기 추출된 관심영역 특징점으로부터 골 성숙도(SMI)를 결정하는 제4단계를 포함한다.A method for automatically analyzing skeletal maturity from a human skeleton radiographic image using deep learning according to an embodiment of the present invention includes a step of extracting a plurality of patch images including a region of interest having the same size and shape, A first step of distinguishing between; Determining a weight for determining a region of interest to be analyzed for bone maturity (SMI) among the patch images using a plurality of the patch images divided as a learning data in a predetermined Deep Neural Network (DNN) model ; Extracting a region of interest from the analytical weapon radiation image by applying the determined weight to the analytical weapon radiation image to be analyzed in a predetermined second deep neural network model and extracting the feature information of the ROI A third step; And a fourth step of determining bone maturity (SMI) from the extracted ROI feature points.

본 발명에서, 상기 관심영역은, 수완부에서 엄지의 종자골(sesamoid), 중지의 첫 마디뼈(proximal phalanx), 중지의 중간 마디뼈(middle phalanx), 중지의 끝 마디뼈(distal phalanx), 소지의 중간 마디뼈인 것을 특징으로 한다.In the present invention, the region of interest includes, in the handpiece, a sesamoid of the thumb, a proximal phalanx of the stump, a middle phalanx of the stump, a distal phalanx of the stump, And is a middle node bone of the base.

본 발명에서, 상기 가중치는, 엄지의 종자골, 중지의 첫 마디뼈, 중간 마디뼈, 끝 마디뼈 및 소지의 중간 마디뼈의 관심영역에서 골화, 융합, 골단의 캐핑, 골단의 너비에 따라 서로 다른 레벨의 관심영역을 결정하기 위해 결정된다.In the present invention, the weights are determined according to the width of the ossification, the fusion, the golfer's capping, and the golfer's neck in the region of interest of the thumb bone, the first node bone of the thumb, the middle node bone, the end node bone, It is determined to determine a different level of region of interest.

본 발명에서, 상기 제1단계는, 상기 입력되는 복수의 학습용 수완부 방사선 영상으로부터 기설정된 동일크기 및 형태의 영상을 추출하는 단계; 및 상기 추출된 영상을 HOG 특징 및 SVM 분류기를 이용하여 종자골, 뼈마디, 요골, 배경 및 수완부의 관심영역으로 패치영상을 구분하는 단계를 포함한다.According to an embodiment of the present invention, the first step may include: extracting images of the same size and shape predetermined from the input plurality of learning human-machine-vision radiographic images; And separating the extracted image into a patch image using a HOG feature and an SVM classifier as a region of interest of a seed bone, a bones, a radius, a background, and a handwarmer.

본 발명에서, 상기 제1 깊은 신경망 모델은 FCN(Fully Convolutional Network) 구조를 갖는다.In the present invention, the first deep neural network model has a FCN (Fully Convolutional Network) structure.

본 발명에서, 상기 제2단계는, 상기 FCN 구조의 제1 깊은 신경망 모델을 통해 상기 다수의 패치영상을 입력받아 다수의 관심영역을 결정하고 상기 관심영역을 결정하기 위해 상기 관심영역별로 가중치를 결정한다.In the present invention, the second step may include receiving a plurality of patch images through the first deep neural network model of the FCN structure, determining a plurality of ROIs, and determining a weight for each ROI to determine the ROIs do.

본 발명에서, 상기 제3단계는, 강화학습모듈에서 상기 입력되는 분석용 수완부 방사선 영상에 상기 결정된 가중치를 부여하여 상기 관심영역을 추출하는 단계; 특징추출모듈에서 상기 분석용 수완부 방사선 영상으로부터 특징점을 추출하는 단계; 결합기에서 상기 각각 추출된 관심영역 및 특징점을 매핑하여 상기 관심영역에 대한 특징점을 추출하는 단계; 및 의사결정모듈에서 상기 관심영역의 특징점을 이용하여 골 성숙도를 결정하는 단계를 포함한다.In the present invention, the third step may include: extracting the region of interest by assigning the determined weight to the inputted analyzing weapon radiation image in the reinforcement learning module; Extracting feature points from the analysis weapon radiation image in the feature extraction module; Extracting feature points for the region of interest by mapping the extracted regions of interest and feature points in a combiner; And determining bone maturity using the minutiae of the region of interest in the decision module.

본 발명에 의하면 딥러닝을 이용하여 골 성숙도에 대한 높은 신뢰도의 영상의학 진단을 자동으로 수행할 수 있다.According to the present invention, by using deep learning, it is possible to automatically perform radiological imaging diagnosis of high confidence in bone maturity.

또한, 본 발명에 의하면 깊은 신경망 모델을 이용하여 수완부 방사선 영상에서 골 성숙도 판단의 대상이 되는 관심영역을 추출하여 해당 관심영역의 특징정보로부터 골 성숙도를 판단하므로 정확도가 향상된다. In addition, according to the present invention, a deep neural network model is used to extract a region of interest that is an object of bone maturity determination in a hand-held radiological image, and the accuracy of bone maturity is improved from the feature information of the region of interest.

도 1은 본 발명에 따른 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석과정을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 다수의 수완부 방사선 영상을 패치영상으로 구분하는 예시도이다.
도 3은 본 발명에 따른 제1 깊은 신경망(DNN) 모델의 구조도이다.
도 4는 본 발명에 따른 제2 깊은 신경망(DNN) 모델의 구조도이다.
1 is a view illustrating an automatic analysis process of bone maturity from a hand-and-mouth radiographic image using the deep running according to the present invention.
FIG. 2 is a diagram illustrating an example of dividing a plurality of human-machine-vision radiation images into patch images according to an embodiment of the present invention.
3 is a structural diagram of a first deep neural network (DNN) model according to the present invention.
FIG. 4 is a structural diagram of a second deep neural network (DNN) model according to the present invention.

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세히 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the difference that the embodiments of the present invention are not conclusive.

또한, 본 발명의 실시 예의 구성요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; may be "connected," "coupled," or "connected. &Quot;

도 1은 본 발명에 따른 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석과정을 나타낸 도면이고, 도 2는 본 발명의 실시 예에 따른 다수의 수완부 방사선 영상을 패치영상으로 구분하는 예시도이다.FIG. 1 is a view illustrating a process of automatically analyzing skeletal maturity from a hand-held radiographic image using deep learning according to the present invention. FIG. 2 is a diagram illustrating an example of dividing a plurality of hand- to be.

도 1을 참조하면, 본 발명에 따른 골 성숙도 자동 분석과정은 크게 패치영상구분과정(110), 제1 깊은 신경망 모델에서의 학습과정(120) 및 제2 깊은 신경망 모듈에서의 분류과정(130)으로 이루어진다.Referring to FIG. 1, the process of automatically analyzing bone maturity according to the present invention includes a patch image classification process 110, a learning process 120 in a first deep neural network model, and a classification process 130 in a second deep neural network module. Lt; / RTI >

패치영상구분과정(110)에서는 다양한 이미지 프로세싱(image processing) 기법을 이용하여 도 2에 도시된 바와 같이 입력되는 복수의 학습용 수완부 방사선 영상으로부터 기설정된 동일한 크기 및 형태의 관심영역을 포함하는 다수의 패치영상을 구분한다. 이러한 패치영상구분과정은 구체적으로, 상기 입력되는 복수의 학습용 수완부 방사선 영상에서 기설정된 동일크기 및 형태의 영상을 추출하여 추출된 영상을 HOG(Histogram of Oriented Gradient)특징 및 SVM(Support Vector Machine) 분류기를 이용하여 종자골, 뼈마디, 요골, 배경 및 수완부의 관심영역으로 이루어진 패치영상을 구분하도록 한다.In the patch image segmentation process 110, a plurality of image data of a plurality of training images of the human and / or female parts of the human body, which are inputted as shown in FIG. 2, using various image processing techniques, Identify patch images. Specifically, the patch image segmentation process includes extracting images of the same size and shape predetermined from the plurality of input learning skull radiographic images, and extracting the extracted images using a Histogram of Oriented Gradient (HOG) feature and SVM (Support Vector Machine) The classifier is used to distinguish the patch image consisting of the region of interest of the seed bone, bones, radius, background, and handpiece.

본 발명에서 상기 관심영역은 일례로 수완부에서 엄지의 종자골(sesamoid), 중지의 첫 마디뼈(proximal phalanx), 중지의 중간 마디뼈(middle phalanx), 중지의 끝 마디뼈(distal phalanx), 소지의 중간 마디뼈로 설정한다. 이는 상기 5가지의 부위는 골 성숙도와 밀접한 관련이 있으므로 골 성숙도의 판단시 중점적으로 고려되는 부분이기 때문이다. 물론 다른 부위를 관심영역으로 설정할 수도 있다.In the present invention, the region of interest includes, for example, a sesamoid of a thumb, a proximal phalanx of a stop, a middle phalanx of a stop, a distal phalanx of a stop, It is set as the middle bones of the base. This is because these five sites are closely related to bone maturity and thus are considered as a key consideration in determining bone maturity. Of course, another region may be set as a region of interest.

제1 깊은 신경망(DNN) 모델의 학습과정(120)은 제1 깊은 신경망(Deep Neural Network;DNN) 모델을 이용하여 상기와 같이 구분된 다수의 패치영상을 학습자료로 하여 패치영상 중에서 골성숙도(SMI)의 분석대상이 되는 관심영역을 결정하기 위한 가중치를 결정한다.The learning process 120 of the first deep neural network (DNN) model uses the first deep neural network (DNN) model to classify the patch images as the learning data, SMI) to determine the region of interest to be analyzed.

상기와 같이 구분된 다수의 패치영상에서는 배경과 같이 골 성숙도를 판단함에 있어 불필요한 부위를 포함하므로 골 성숙도의 판단시에 중점적으로 고려되어야 할 부분인 관심영역을 결정하게 되는데, 이때 고려되는 부분이 가중치(weight)이다. 예컨대 이러한 가중치는 제1 깊은 신경망(DNN) 모델에 입력되는 패치영상 중에서 관심영역에 대해서는 가중치를 많이 부여함으로써 관심영역을 결정할 수 있도록 하고 관심영역이 아닌 경우에는 가중치를 부여하지 않거나 적게 부여함으로써 관심영역에서 배제하도록 한다.In a plurality of patch images classified as described above, an unnecessary region is included in the determination of bone maturity such as a background, so that the region of interest, which is a part to be considered when determining bone maturity, is determined. In this case, (weight). For example, such a weight may be determined by assigning a weight to a region of interest of a patch image input to a first deep neural network (DNN) model to determine a region of interest. If the region of interest is not a region of interest, .

특히, 본 발명에서는 도 2의 예시와 같이 구체적인 관심영역으로서 엄지의 종자골, 중지의 첫 마디뼈, 중간 마디뼈, 끝 마디뼈 및 소지의 중간 마디뼈에 대하여 각각 골화, 융합, 골단의 캐핑, 골단의 너비에 따라 서로 다른 레벨의 관심영역을 결정하기 위해 가중치를 결정하도록 한다. In particular, in the present invention, as shown in FIG. 2, ossification, fusing, capping of a golfer's bone, and the like are performed on a seed bone of a thumb, a first node bone of a stop, a middle node bone, an end node bone, Weights are determined to determine different levels of ROI depending on the width of the goal.

이러한 제1 깊은 신경망 모델에서의 학습과정(120)을 통해 다수의 패치영상으로부터 실질적으로 수완부의 관심영역을 정확하게 찾아내기 위한 가중치(w)를 결정하도록 한다. 이는 제1 깊은 신경망 모델의 입력이 i라고 하고 출력이 y라고 할 때 제1 깊은 신경망 모델의 함수 f를 이용한 y=f(i,w)의 관계식이 결정된다. 출력 y는 제1 깊은 신경망 모델에서 출력되는 관심영역이며, 이는 입력되는 수완부 방사선 영상에서 확인되는 관심영역 y'와 실질적으로 같아지도록 가중치(w)가 결정되어야 하는 것이다. 따라서, 제1 깊은 신경망 모델에서는 y=y'가 되는 가중치 w를 결정하는 것이다.Through the learning process 120 in the first deep neural network model, the weight w for determining the region of interest substantially in the handwritten region from a plurality of patch images is determined. This is because the input of the first deeper neural network is i and the output is y, the relation of y = f (i, w) using the function f of the first deep neural network model is determined. The output y is the region of interest output from the first deep neural network model, and the weight w must be determined such that it is substantially equal to the region of interest y 'identified in the incoming handwoven radiographic image. Thus, in the first deep neural network model, the weight w is determined to be y = y '.

제2 깊은 신경망 모듈에서의 분류과정(130)은 분석하고자 하는 분석용 수완부 방사선 영상을 입력받아서 상기와 같이 결정된 가중치(w)를 제2 깊은 신경망 모델에 적용하여 그 분석용 수완부 방사선 영역에 대한 관심영역을 추출하고, 그 추출된 관심영역의 특징정보를 추출하도록 한다. 여기서, 특징정보는 관심영역에서 골 성숙도를 결정하는 기준이 되는 정보로서 미리 설정되어 있다. 이에 상기와 같이 추출된 관심영역 특징정보로부터 골 성숙도(SMI)를 결정하도록 한다.The classification process 130 in the second deep neural network module receives the analytical arsenic radiation image to be analyzed and applies the weight w determined as described above to the second deep neural network model, And extracts feature information of the extracted region of interest. Here, the feature information is set in advance as information serving as a criterion for determining the bone maturity in the region of interest. The bone maturity (SMI) is determined from the extracted region feature information.

도 3은 본 발명에 따른 제1 깊은 신경망(DNN:Deep Neural Network) 모델의 구조도이고, 도 4는 본 발명에 따른 제2 깊은 신경망(DNN) 모델의 구조도이다.FIG. 3 is a structural diagram of a first deep neural network (DNN) model according to the present invention, and FIG. 4 is a structural diagram of a second deep neural network (DNN) model according to the present invention.

도 3을 참조하면, 본 발명에 따른 제1 깊은 신경망(DNN) 모델은 중간계층에서 벡터화(vectorization)를 수행하지 않는 FCN(Fully Convolutional Network) 구조를 갖는다. 이와 같이 본 발명에서는 FCN 구조의 제1 깊은 신경망을 오류 역전파 알고리즘(error backpropagation algorithm)으로 훈련시키면 해당 네트워크는 수완부 방사선 영상에 대한 의미론적 분할(semantic segmentation)을 수행할 수 있다. 이는 영상 공간에서 어떤 부분이 배경이고 어떤 부분이 마디뼈인지를 구분할 수 있으며, 이로써 패키영상으로부터 관심영역을 추출할 수 있도록 한다. 이때, 관심영역 추출을 위해 적용되는 가중치(w)를 추출한다. 이러한 가중치(w)는 제2 깊은 신경망 모델에도 적용된다.Referring to FIG. 3, the first deep neural network (DNN) model according to the present invention has a FCN (Fully Convolutional Network) structure in which vectorization is not performed in the middle layer. As described above, if the first deep neural network of the FCN structure is trained by an error backpropagation algorithm, the network can perform semantic segmentation on the handwarming radiation image. This can distinguish which part of the image space is the background and which part is the node bone, thereby extracting the region of interest from the packaged image. At this time, the weight w applied to extract the ROI is extracted. This weight w is also applied to the second deep neural network model.

도 4를 참조하면, 본 발명에 따른 제2 깊은 신경망(DNN) 모델은 강화학습모델(131), 특징추출모듈(132), 결합모듈(133) 및 의사결정모듈(134)을 포함한다. Referring to FIG. 4, the second deep neural network (DNN) model according to the present invention includes a reinforcement learning model 131, a feature extraction module 132, a combination module 133, and a decision module 134.

강화학습모듈(131)은 분석하고자 하는 분석용 수완부 방사선 영상을 입력받고, 입력된 분석용 수완부 방사선 영상에 상기한 제1 깊은 신경망 모델에서 추출된 가중치(w)를 적용하여 분석용 수완부 방사선 영상에 대하여 골 성숙도(SMI)을 분석할 관심영역을 추출한다. 본 발명의 실시예에서 바람직하게는 강화학습모듈(131)은 제1 깊은 신경망과 동일한 구조를 가질 수 있으며, 더 바람직하게는 FCN 구조를 가질 수 있다.The reinforcement learning module 131 receives the analytical arsenic radiation image to be analyzed and applies the weight w extracted from the first deep neural network model to the input analytical arsenic radiation image, We extract the region of interest to analyze bone maturity (SMI) for radiographic images. In the embodiment of the present invention, preferably, the reinforcement learning module 131 may have the same structure as the first deep neural network, and more preferably, it may have an FCN structure.

특징추출모듈(132)은 강화학습모듈(131)과는 병렬로 연결되어 독립적으로 기능을 수행하는 모듈로서, 분석하고자 하는 분석용 수완부 방사선 영상을 입력받아 그 수완부 방사선 영상에서 특징정보를 추출한다. 이러한 특징정보는 관심영역에서 골 성숙도를 결정하는 기준이 되는 정보로서 특징추출모듈(132)은 수완부 전체 연상에서 특징정보를 추출한다. The feature extraction module 132 is a module that is connected in parallel with the reinforcement learning module 131 and performs functions independently. The feature extraction module 132 receives the analytical handheld radiation image to be analyzed and extracts the feature information from the handheld radiation image do. The feature extraction module 132 extracts the feature information from the entire association between the hand and the hand as the reference information for determining the bone maturity in the region of interest.

결합모듈(133)은 강화학습모듈(131)과 특징추출모듈(132)에서 각각 추출된 결과를 서로 매핑하도록 한다. 즉, 강화학습모듈(131)에서 추출된 관심영역과 특징추출모듈(132)에서 추출된 특징정보를 매핑시켜 관심영역에 대한 특징정보를 추출하는 것이다. 이는 강화학습모듈(131)과 특징추출모듈(132)에서의 출력인 각각의 활성 맵(activation map)을 결합하는 연산을 이용하여 구현될 수 있으며, 일례로 행렬 연결(matrix concatenation)로 구현될 수 있으나, 이에 한정되지 않는다.The combining module 133 maps the extracted results in the enhanced learning module 131 and the feature extraction module 132 to each other. That is, the feature information extracted from the enhancement learning module 131 is mapped to the feature information extracted from the feature extraction module 132 to extract feature information on the region of interest. This may be implemented using an operation that combines the activation maps of the reinforcement learning module 131 and the output of the feature extraction module 132 and may be implemented as a matrix concatenation But is not limited thereto.

의사결정모듈(134)은 관심영역의 특징정보를 이용하여 골 성숙도(SMI)를 결정하도록 한다. 이는 수완부에서 골 성숙도와 밀접한 관련이 있는 관심영역에서 골 성숙도 판단의 지표가 되는 특징정보로부터 골 성숙도를 결정하는 것이다.The decision module 134 uses the feature information of the region of interest to determine bone maturity (SMI). This is to determine the bone maturity from the feature information, which is an index of bone maturity judgment, in the area of interest closely related to bone maturity in the hand - wrist.

이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. Furthermore, the terms "comprises", "comprising", or "having" described above mean that a component can be implanted unless otherwise specifically stated, But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

131 : 강화학습모델 132 : 특징추출모듈
133 : 결합모듈 134 : 의사결정모듈
131: Reinforcement Learning Model 132: Feature Extraction Module
133: Coupling module 134: Decision module

Claims (7)

입력되는 복수의 학습용 수완부 방사선 영상으로부터 기설정된 동일한 크기 및 형태의 관심영역을 포함하는 다수의 패치영상을 구분하는 제1단계;
기설정된 제1 깊은 신경망(Deep Neural Network;DNN) 모델에서 상기 구분된 다수의 패치영상을 학습자료로 하여 상기 패치영상 중에서 골성숙도(SMI)의 분석대상이 되는 관심영역을 결정하기 위한 가중치를 결정하는 제2단계;
기설정된 제2 깊은 신경망(DNN) 모델에서 분석하고자 하는 분석용 수완부 방사선 영상에 대해 상기 결정된 가중치를 적용하여 상기 분석용 수완부 방사선 영상에서 관심영역을 추출하고 상기 관심영역의 특징정보를 추출하는 제3단계; 및
상기 추출된 관심영역 특징점으로부터 골 성숙도(SMI)를 결정하는 제4단계를 포함하는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
A first step of dividing a plurality of patch images including a region of interest having the same size and shape, which are set in advance, from a plurality of input learning hand and arm radiographic images;
Determining a weight for determining a region of interest to be analyzed for bone maturity (SMI) among the patch images using a plurality of the patch images divided as a learning data in a predetermined Deep Neural Network (DNN) model ;
Extracting a region of interest from the analytical weapon radiation image by applying the determined weight to an analytical weapon radiation image to be analyzed in a predetermined second deep neural network model and extracting feature information of the ROI A third step; And
And a fourth step of determining a bone maturity level (SMI) from the extracted ROI minutiae points.
제1항에 있어서, 상기 관심영역은,
수완부에서 엄지의 종자골(sesamoid), 중지의 첫 마디뼈(proximal phalanx), 중지의 중간 마디뼈(middle phalanx), 중지의 끝 마디뼈(distal phalanx), 소지의 중간 마디뼈인 것을 특징으로 하는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
2. The apparatus of claim 1,
It is characterized by a sesamoid of the thumb, a proximal phalanx, a middle phalanx, a distal phalanx, and a middle node bone of the hand in the hand. A Method of Automatic Analysis of Bone Maturity from Human Skeletal Radiographic Images Using Deep Learning.
제2항에 있어서, 상기 가중치는,
엄지의 종자골, 중지의 첫 마디뼈, 중간 마디뼈, 끝 마디뼈 및 소지의 중간 마디뼈의 관심영역에서 골화, 융합, 골단의 캐핑, 골단의 너비에 따라 서로 다른 레벨의 관심영역을 결정하기 위해 결정되는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
3. The method of claim 2,
Determine regions of interest at different levels depending on ossification, fusion, capping of the epiphysis, and width of the epiphysis in the region of interest of the bone of the thumb, the first node bone of the stop, the middle node bone, the tip node bone and the middle node of the base. A Method for Automatic Analysis of Bone Maturation from Human Brain Radiographic Images Using Deep Learning Determined.
제1항에 있어서, 상기 제1단계는,
상기 입력되는 복수의 학습용 수완부 방사선 영상으로부터 기설정된 동일크기 및 형태의 영상을 추출하는 단계; 및
상기 추출된 영상을 HOG 특징 및 SVM 분류기를 이용하여 종자골, 뼈마디, 요골, 배경 및 수완부의 관심영역으로 패치영상을 구분하는 단계; 를 포함하는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
2. The method according to claim 1,
Extracting images of the same size and shape as predetermined from the plurality of input learning and learning arms radiographic images; And
Dividing the extracted image into regions of interest of the seed bone, bone, radius, background, and handpiece using the HOG feature and the SVM classifier; A method for automatically analyzing bone maturity from a hand - arm radiographic image using deep -
제1항에 있어서, 상기 제1 깊은 신경망 모델은,
FCN(Fully Convolutional Network) 구조를 갖는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
2. The method of claim 1, wherein the first deep-
A Method of Automatic Analysis of Bone Maturation from Human Brain Radiographic Images Using Deep Learning with FCN (Fully Convolutional Network) Structure.
제5항에 있어서, 상기 제2단계는,
상기 FCN 구조의 제1 깊은 신경망 모델을 통해 상기 다수의 패치영상을 입력받아 다수의 관심영역을 결정하고 상기 관심영역을 결정하기 위해 상기 관심영역별로 가중치를 결정하는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
6. The method according to claim 5,
A plurality of patch images are received through the first deep neural network model of the FCN structure to determine a plurality of ROIs and a weight is determined for each ROI to determine the ROIs, Automatic analysis of bone maturity.
제1항에 있어서, 상기 제3단계는,
강화학습모듈에서 상기 입력되는 분석용 수완부 방사선 영상에 상기 결정된 가중치를 부여하여 상기 관심영역을 추출하는 단계;
특징추출모듈에서 상기 분석용 수완부 방사선 영상으로부터 특징점을 추출하는 단계;
결합기에서 상기 각각 추출된 관심영역 및 특징점을 매핑하여 상기 관심영역에 대한 특징점을 추출하는 단계; 및
의사결정모듈에서 상기 관심영역의 특징점을 이용하여 골 성숙도를 결정하는 단계; 를 포함하는 딥러닝을 이용한 수완부 방사선 영상으로부터 골 성숙도 자동 분석방법.
2. The method according to claim 1,
Extracting the region of interest by assigning the determined weight to the input analysis humanoid radiation image in the reinforcement learning module;
Extracting feature points from the analysis weapon radiation image in the feature extraction module;
Extracting feature points for the region of interest by mapping the extracted regions of interest and feature points in a combiner; And
Determining bone maturity using a feature point of the ROI in a decision module; A method for automatically analyzing bone maturity from a hand - arm radiographic image using deep -
KR1020160165273A 2016-12-06 2016-12-06 SMI automatic analysis method of hand-wrist radiation images using deep learning KR101901397B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160165273A KR101901397B1 (en) 2016-12-06 2016-12-06 SMI automatic analysis method of hand-wrist radiation images using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160165273A KR101901397B1 (en) 2016-12-06 2016-12-06 SMI automatic analysis method of hand-wrist radiation images using deep learning

Publications (2)

Publication Number Publication Date
KR20180064863A true KR20180064863A (en) 2018-06-15
KR101901397B1 KR101901397B1 (en) 2018-09-21

Family

ID=62628940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160165273A KR101901397B1 (en) 2016-12-06 2016-12-06 SMI automatic analysis method of hand-wrist radiation images using deep learning

Country Status (1)

Country Link
KR (1) KR101901397B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190030151A (en) * 2017-09-13 2019-03-21 이재준 Apparatus, method and computer program for analyzing image
CN110276289A (en) * 2019-06-17 2019-09-24 厦门美图之家科技有限公司 Generate the method and human face characteristic point method for tracing of Matching Model
KR102045223B1 (en) * 2019-05-03 2019-11-19 주식회사 크레스콤 Apparatus, method and computer program for analyzing bone age
KR20190143657A (en) * 2018-06-21 2019-12-31 한국외국어대학교 연구산학협력단 Apparatus and method for alignment of bone suppressed chest x-ray image
CN110866908A (en) * 2019-11-12 2020-03-06 腾讯科技(深圳)有限公司 Image processing method, image processing apparatus, server, and storage medium
KR20210020618A (en) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 Abnominal organ automatic segmentation based on deep learning in a medical image
KR20210123802A (en) * 2020-04-06 2021-10-14 오스템임플란트 주식회사 Method And Apparatus for diagnosing a SMI stage of a patient using a X-ray image of a hand wrist
KR20210155835A (en) * 2020-06-15 2021-12-24 재단법인 아산사회복지재단 Method of searching for similar medical image and similar image search device for performing method
KR20220059244A (en) * 2020-11-02 2022-05-10 사회복지법인 삼성생명공익재단 Prediction method of adult height with deep-learning and system thereof
KR20220144149A (en) * 2021-04-19 2022-10-26 주식회사 바스젠바이오 Method for detecting fracture in x-ray image
KR20220164097A (en) * 2021-06-03 2022-12-13 주식회사 크레스콤 Apparatus, method and computer program for anayzing medical image using classification and segmentation
KR102521958B1 (en) * 2022-02-04 2023-04-13 김정석 Bone growth evaluation or prediction method and system
WO2024048918A1 (en) * 2022-08-31 2024-03-07 주식회사 크레스콤 Method for analyzing bone growth stages, device for analyzing bone growth stages, and system for analyzing bone growth stages

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0626656A2 (en) 1993-05-28 1994-11-30 South Birmingham District Health Authority Image processing system and method for automatic feature extraction
KR100715763B1 (en) * 2006-03-15 2007-05-08 재단법인서울대학교산학협력재단 Method for evaluation of skeletal malformation using atlas matching method
KR20070077319A (en) 2006-01-23 2007-07-26 길호석 Method for growth prediction with automatic rus score calculation
US7848893B2 (en) 2005-06-02 2010-12-07 Hans Henrik Thodberg Method for skeletal maturity determination
JP2014203157A (en) * 2013-04-02 2014-10-27 キヤノン株式会社 Image processor, image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0626656A2 (en) 1993-05-28 1994-11-30 South Birmingham District Health Authority Image processing system and method for automatic feature extraction
US7848893B2 (en) 2005-06-02 2010-12-07 Hans Henrik Thodberg Method for skeletal maturity determination
KR20070077319A (en) 2006-01-23 2007-07-26 길호석 Method for growth prediction with automatic rus score calculation
KR100715763B1 (en) * 2006-03-15 2007-05-08 재단법인서울대학교산학협력재단 Method for evaluation of skeletal malformation using atlas matching method
JP2014203157A (en) * 2013-04-02 2014-10-27 キヤノン株式会社 Image processor, image processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Automated Age Estimation from Hand MRI Volumes Using Deep Learning", MICCAI 2016: Medical Image Computing and Computer-Assisted Intervention - MICCAI *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017255B2 (en) 2017-09-13 2021-05-25 Crescom Co., Ltd. Apparatus, method and computer program for analyzing image
KR20190030151A (en) * 2017-09-13 2019-03-21 이재준 Apparatus, method and computer program for analyzing image
US11551433B2 (en) 2017-09-13 2023-01-10 Crescom Co., Ltd. Apparatus, method and computer program for analyzing image
KR20190143657A (en) * 2018-06-21 2019-12-31 한국외국어대학교 연구산학협력단 Apparatus and method for alignment of bone suppressed chest x-ray image
KR102045223B1 (en) * 2019-05-03 2019-11-19 주식회사 크레스콤 Apparatus, method and computer program for analyzing bone age
CN110276289A (en) * 2019-06-17 2019-09-24 厦门美图之家科技有限公司 Generate the method and human face characteristic point method for tracing of Matching Model
KR20220042072A (en) * 2019-08-16 2022-04-04 서울여자대학교 산학협력단 Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
KR20210020618A (en) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 Abnominal organ automatic segmentation based on deep learning in a medical image
CN110866908A (en) * 2019-11-12 2020-03-06 腾讯科技(深圳)有限公司 Image processing method, image processing apparatus, server, and storage medium
CN110866908B (en) * 2019-11-12 2021-03-26 腾讯科技(深圳)有限公司 Image processing method, image processing apparatus, server, and storage medium
KR20210123802A (en) * 2020-04-06 2021-10-14 오스템임플란트 주식회사 Method And Apparatus for diagnosing a SMI stage of a patient using a X-ray image of a hand wrist
KR20210155835A (en) * 2020-06-15 2021-12-24 재단법인 아산사회복지재단 Method of searching for similar medical image and similar image search device for performing method
KR20220059244A (en) * 2020-11-02 2022-05-10 사회복지법인 삼성생명공익재단 Prediction method of adult height with deep-learning and system thereof
KR20230002238A (en) * 2020-11-02 2023-01-05 사회복지법인 삼성생명공익재단 Prediction method of adult height with deep-learning and system thereof
KR20220144149A (en) * 2021-04-19 2022-10-26 주식회사 바스젠바이오 Method for detecting fracture in x-ray image
KR20220164097A (en) * 2021-06-03 2022-12-13 주식회사 크레스콤 Apparatus, method and computer program for anayzing medical image using classification and segmentation
KR102521958B1 (en) * 2022-02-04 2023-04-13 김정석 Bone growth evaluation or prediction method and system
WO2024048918A1 (en) * 2022-08-31 2024-03-07 주식회사 크레스콤 Method for analyzing bone growth stages, device for analyzing bone growth stages, and system for analyzing bone growth stages

Also Published As

Publication number Publication date
KR101901397B1 (en) 2018-09-21

Similar Documents

Publication Publication Date Title
KR101901397B1 (en) SMI automatic analysis method of hand-wrist radiation images using deep learning
US20220147757A1 (en) Method and system for machine learning classification based on structure or material segmentation in an image
KR101977174B1 (en) Apparatus, method and computer program for analyzing image
US10997466B2 (en) Method and system for image segmentation and identification
Lindner et al. Fully automatic cephalometric evaluation using random forest regression-voting
US11275976B2 (en) Medical image assessment with classification uncertainty
US9940545B2 (en) Method and apparatus for detecting anatomical elements
JPWO2020031243A1 (en) Teacher label image correction method, trained model creation method and image analysis device
EP3267394A1 (en) Method and apparatus for real-time detection of polyps in optical colonoscopy
CN102737250A (en) Method and system for automatic detection of spinal bone lesions in 3d medical image data
US20210133473A1 (en) Learning apparatus and learning method
CN108230301A (en) A kind of spine CT image automatic positioning dividing method based on active contour model
CN110796659B (en) Target detection result identification method, device, equipment and storage medium
Atici et al. Fully automated determination of the cervical vertebrae maturation stages using deep learning with directional filters
CN108171714A (en) It is a kind of based on the fracture area recognition methods compared in pairs and system
CN112819818A (en) Image recognition module training method and device
Schmarje et al. A data-centric approach for improving ambiguous labels with combined semi-supervised classification and clustering
Hatano et al. Classification of osteoporosis from phalanges CR images based on DCNN
AU2020223750B2 (en) Method and System for Image Annotation
EP3979192A1 (en) Paediatric bone age assessment of x-ray images based on detection of ossification regions
KR20210086374A (en) Method of classifying skin disease based on artificial intelligence
Saeed et al. Technique for tumor detection upon brain MRI image by utilizing support vector machine
CN115880358A (en) Construction method of positioning model, positioning method of image mark points and electronic equipment
CN109509189B (en) Abdominal muscle labeling method and labeling device based on multiple sub-region templates
CN113128585A (en) Deep neural network based multi-size convolution kernel method for realizing electrocardiographic abnormality detection and classification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant