KR102351373B1 - Apparatus for measuring body size through reverse direction fitting and method thereof - Google Patents

Apparatus for measuring body size through reverse direction fitting and method thereof Download PDF

Info

Publication number
KR102351373B1
KR102351373B1 KR1020200013241A KR20200013241A KR102351373B1 KR 102351373 B1 KR102351373 B1 KR 102351373B1 KR 1020200013241 A KR1020200013241 A KR 1020200013241A KR 20200013241 A KR20200013241 A KR 20200013241A KR 102351373 B1 KR102351373 B1 KR 102351373B1
Authority
KR
South Korea
Prior art keywords
medical image
feature point
body part
learning model
standard
Prior art date
Application number
KR1020200013241A
Other languages
Korean (ko)
Other versions
KR20210099411A (en
Inventor
이병일
변시섭
진재선
Original Assignee
(주)헬스허브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)헬스허브 filed Critical (주)헬스허브
Priority to KR1020200013241A priority Critical patent/KR102351373B1/en
Publication of KR20210099411A publication Critical patent/KR20210099411A/en
Application granted granted Critical
Publication of KR102351373B1 publication Critical patent/KR102351373B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

본 발명은 역방향 피팅을 통한 신체 사이즈 측정 장치 및 그 방법에 관한 것으로, 의료 전문가가 특정 신체부위에 대한 복수의 의료영상에 지정한 적어도 하나 이상의 특징점과 표준의료영상에 미리 정해진 특징점을 매칭시켜둔 상태에서, 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 상기 표준의료영상에 미리 정해진 특징점을 추출하여, 상기 사용자가 제공한 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행함으로써, 상기 사용자가 원하는 특정 신체부위의 사이즈를 상기 입력 의료영상에 할당된 특징점으로부터 정확하고 간편하게 측정할 수 있도록 하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring body size through reverse fitting, wherein at least one feature point designated by a medical professional in a plurality of medical images for a specific body part and a predetermined feature point in a standard medical image are matched. , extracting a predetermined feature point from the standard medical image that most closely matches the input medical image provided by the user, and performing reverse fitting in which the input medical image provided by the user is assigned to the input medical image in the reverse direction. The present invention relates to an apparatus and method for accurately and simply measuring the size of a body part from a feature point assigned to the input medical image.

Description

역방향 피팅을 통한 신체 사이즈 측정 장치 및 그 방법{APPARATUS FOR MEASURING BODY SIZE THROUGH REVERSE DIRECTION FITTING AND METHOD THEREOF}Apparatus for measuring body size through reverse fitting and method therefor

본 발명은 역방향 피팅을 통한 신체 사이즈 측정 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 의료 전문가가 특정 신체부위에 대한 복수의 의료영상에 지정한 적어도 하나 이상의 특징점과 표준의료영상에 미리 정해진 특징점을 매칭시켜둔 상태에서, 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 상기 표준의료영상에 미리 정해진 특징점을 추출하여, 상기 사용자가 제공한 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행함으로써, 상기 사용자가 원하는 특정 신체부위의 사이즈를 상기 입력 의료영상에 할당된 특징점으로부터 정확하고 간편하게 측정할 수 있도록 하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for measuring body size through reverse fitting, and more particularly, matching at least one feature point designated by a medical professional to a plurality of medical images for a specific body part with a predetermined feature point in a standard medical image In this state, by performing reverse fitting in which a predetermined feature point is extracted from the standard medical image that most closely matches the input medical image provided by the user and assigned to the input medical image provided by the user in the reverse direction, The present invention relates to an apparatus and method for enabling a user to accurately and simply measure the size of a specific body part desired by a user from a feature point assigned to the input medical image.

일반적으로 엑스레이(X-Ray), 컴퓨터 단층촬영(CT, Computed Tomography), 자기공명영상(MRI, Magnetic Resonance Imaging) 등의 2차원 및 3차원 정밀의료영상을 사용하여, 특정 병변을 찾아내고, 해당 병변의 크기나 위치 등을 판독한다.In general, 2D and 3D precision medical images such as X-Ray, Computed Tomography (CT), and Magnetic Resonance Imaging (MRI) are used to find specific lesions, and Read the size and location of the lesion.

이처럼 정밀의료영상을 통해서 특정 병변을 찾아내기 위한 일 예로, 종래에는 각 신체부위별로 다양한 모양과 크기를 가진 각종 학습용 의료영상을 미리 결정한 단일의 표준의료영상과 매칭시켜 학습함으로써, 해당 신체부위에 대한 학습모델을 생성하고, 사용자가 제공하는 입력 의료영상을 상기 생성한 학습모델에 입력하여 정량분석이 가능한 수치자료를 생성하고, 상기 생성한 수치자료를 통해 병증을 확인하였다.As an example for finding a specific lesion through a precision medical image as described above, in the prior art, various medical images for learning having various shapes and sizes for each body part are matched with a single standard medical image determined in advance to learn, A learning model was created, and an input medical image provided by the user was input to the created learning model to generate numerical data capable of quantitative analysis, and the condition was confirmed through the generated numerical data.

하지만, 상기 학습모델을 생성할 때 수많은 학습 데이터를 대상으로 충분히 학습하지 않으면, 사용자가 제공하는 입력 의료영상과 상기 표준의료영상이 서로 매칭되지 않아 결과가 부정확할 수 있다. 그러므로 사용자가 제공하는 입력 의료영상과 각 신체부위별 표준의료영상을 매칭할 때 정확도를 높일 수 있는 방안을 강구할 필요성이 있다.However, if the learning model is not sufficiently learned from a large number of learning data when generating the learning model, the input medical image provided by the user and the standard medical image do not match each other, and the result may be inaccurate. Therefore, there is a need to devise a way to increase the accuracy when matching the input medical image provided by the user with the standard medical image for each body part.

따라서 본 발명에서는 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 미리 정해진 특징점을 추출하여, 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행함으로써, 사용자가 원하는 특정 신체부위의 사이즈를 정확하고 간편하게 측정할 수 있는 방안을 제시하고자 한다.Therefore, in the present invention, by performing reverse fitting in which predetermined feature points are extracted from the standard medical image that most closely matches the input medical image provided by the user and assigned to the input medical image in the reverse direction, the specific body part desired by the user is obtained. We would like to suggest a way to measure the size accurately and easily.

즉 본 발명은 의료 전문가가 특정 신체부위에 대한 복수의 의료영상에 지정한 적어도 하나 이상의 특징점과 표준의료영상에 미리 정해진 특징점을 매칭시켜 두고, 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상의 특징점을 상기 입력 의료영상에 역방향으로 매칭함으로써, 특정 신체부위에 대한 사이즈를 측정하는 것이 가능하다.That is, the present invention matches at least one feature point designated by a medical professional to a plurality of medical images for a specific body part and a preset feature point to a standard medical image, and the standard medical care that most closely matches the input medical image provided by the user By matching the feature points of the image to the input medical image in the reverse direction, it is possible to measure the size of a specific body part.

다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, the prior art existing in the technical field of the present invention will be briefly described, and then the technical matters that the present invention intends to achieve differently from the prior art will be described.

먼저 한국등록특허 제1825719호(2018.02.06.)는 뇌 영상 처리 방법과 이를 이용하는 임상 뇌 영상과 표준 뇌 영상의 매칭 방법 및 장치에 관한 것으로, 사전 정의된 표준 뇌들에 대한 복수의 제1 영상들 각각에서 키포인트 또는 특징을 추출하는 단계, 뇌의 크기와 모양에 따라 서로 다르게 추출된 키포인트 또는 특징을 포함한 특징 벡터를 글로벌 특징으로 양자화하여 길이를 맞추는 벡터양자화단계, 및 복수의 제1 영상들 각각에 대응하여 서로 길이가 맞춰진 제1 벡터 양자화 정보를 저장하는 단계를 포함하는 것을 기술적 특징으로 한다.First, Korean Patent No. 1825719 (2018.02.06.) relates to a brain image processing method and a method and apparatus for matching a clinical brain image and a standard brain image using the same, and includes a plurality of first images for predefined standard brains. A step of extracting key points or features from each, a vector quantization step of quantizing feature vectors including key points or features extracted differently according to the size and shape of the brain into global features to match the length, and a vector quantization step for each of the plurality of first images and storing the first vector quantization information corresponding to each other in length.

즉, 상기 선행기술은 사람마다 뇌의 모양과 크기가 다른 임상 뇌 영상에 해당하는 표준 뇌 영상을 찾고, 표준 뇌 영상에 임상 뇌 영상을 정합시켜 뇌 영상을 일반화하는 내용에 대해 기재하고 있다. 하지만, 상기 선행기술은 미리 정해진 표준의료영상의 특징점을 사용자가 제공하는 입력 의료영상에 역방향으로 매칭하는 기술이 아니므로 본 발명과 구성상 차이점이 있다.That is, the prior art describes the content of finding a standard brain image corresponding to a clinical brain image having a different brain shape and size for each person and generalizing the brain image by matching the clinical brain image to the standard brain image. However, the prior art is different from the present invention in configuration because it is not a technique for matching a predetermined feature point of a standard medical image to an input medical image provided by a user in the reverse direction.

또한 한국등록특허 제1740464호(2017.06.08.)는 뇌졸중 진단 및 예후 예측 방법 및 시스템에 관한 것으로, 인간의 뇌의 적어도 일부를 포함하는 복수 개의 영상들을 수신하도록 구성된 영상 획득부; 상기 복수개의 영상들을 표준 뇌 영상을 기준으로 정렬하는 영상 정렬부; 상기 복수개의 영상들로부터 각각 병변 영역들 검출하고, 상기 검출된 병변 영역들에 맵핑하여 하나의 맵핑 영상을 생성하는 병변 영역 검출 및 맵핑부; 상기 맵핑 영상을 스케일링함으로써 표준 뇌 영상에 정합하고, 상기 맵핑 영상에 대해 영상 보정을 수행하는 정합 및 보정부; 상기 맵핑 영상을 3차원 데이터 공간에 수납함으로써 3차원 병변 영상을 생성하는 3차원 영상 생성부; 및 상기 3차원 병변 영상에 기초하여 뇌졸중을 진단하는 뇌졸중 진단부를 포함하는 것을 기술적 특징으로 한다.In addition, Korea Patent Registration No. 1740464 (June 8, 2017) relates to a method and system for diagnosing and predicting stroke, an image acquisition unit configured to receive a plurality of images including at least a part of a human brain; an image alignment unit for aligning the plurality of images based on a standard brain image; a lesion region detection and mapping unit for detecting lesion regions from the plurality of images, respectively, and mapping the detected lesion regions to generate a single mapping image; a matching and correcting unit that matches a standard brain image by scaling the mapping image and performs image correction on the mapping image; a three-dimensional image generator configured to generate a three-dimensional lesion image by accommodating the mapping image in a three-dimensional data space; and a stroke diagnosis unit for diagnosing a stroke based on the three-dimensional lesion image.

즉, 상기 선행기술은 뇌졸중을 정확하게 진단하고 뇌졸중의 환자 상태를 신뢰성있게 예측할 수 있는 내용에 대해 기재하고 있다. 하지만, 상기 선행기술은 뇌졸중의 원인 및 중증도를 클래스별 정확도와 함께 가시화하여 정량적, 통계적 결과를 제공하는 기술이므로, 미리 정해진 표준의료영상의 특징점을 사용자가 제공하는 입력 의료영상에 역방향으로 매칭하고, 역방향으로 매칭된 특징점을 이용하여 사용자가 원하는 특정 신체부위에 대한 사이즈를 측정하는 본 발명의 구성과 다르다.That is, the prior art describes the contents of accurately diagnosing stroke and reliably predicting the patient's condition of stroke. However, since the prior art is a technology that provides quantitative and statistical results by visualizing the cause and severity of stroke with class-specific accuracy, the characteristic points of a predetermined standard medical image are matched in the reverse direction with the input medical image provided by the user, It is different from the configuration of the present invention in which the size of a specific body part desired by the user is measured using the feature points matched in the reverse direction.

이상에서 선행기술들을 검토한 결과, 상기 선행기술들은 표준 뇌 영상에 임상 뇌 영상을 정합시켜 뇌 영상을 일반화하는 구성, 뇌졸중의 원인 및 중증도를 정확도와 함께 가시화하여 제공하는 구성 등을 제시하고 있지만, 본 발명은 사용자가 제공한 입력 의료영상의 특징점을 추출하고, 상기 추출한 특징점을 표준의료영상에 순방향으로 매칭하는 방식과 달리, 표준의료영상에 미리 정해진 특징점을 사용자가 제공하는 입력 의료영상에 역방향으로 매칭하여, 사용자가 원하는 특정 신체부위의 사이즈를 측정하는 기술적 특징을 제시하는 것으로서, 이와 관련된 구성에 대해서는 상기 선행기술에 아무런 기재나 그 어떠한 암시도 없기 때문에 상기 선행기술과 본 발명은 기술적 차이점이 분명한 것이다.As a result of reviewing the prior art above, the prior art suggests a configuration for generalizing a brain image by matching a clinical brain image to a standard brain image, and a configuration to visualize and provide the cause and severity of a stroke with accuracy. Unlike the method of extracting the feature points of the input medical image provided by the user and matching the extracted feature points to the standard medical image in the forward direction, the preset feature points in the standard medical image are applied in the reverse direction to the input medical image provided by the user. By matching, the technical characteristics of measuring the size of a specific body part desired by the user are presented, and since there is no description or any suggestion in the prior art for the related configuration, the prior art and the present invention have clear technical differences will be.

또한 사용자가 제공하는 의료영상을 통해 확인한 특정 신체부위에 대한 사이즈 정보를 통해 해당 사용자가 필요로 하는 제품을 맞춤형으로 제작함으로써, 사용자의 만족도를 높이고, 매출 향상 및 재고 관리를 용이하게 수행할 수 있는 구성은 상기 선행기술에 전혀 제시되지 않은 본 발명의 특징이다.In addition, by customizing the product needed by the user through the size information of a specific body part confirmed through the medical image provided by the user, it is possible to increase user satisfaction, improve sales, and facilitate inventory management. The configuration is a feature of the present invention that is not presented at all in the prior art.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 입력된 의료영상에서 특징점을 추출하고 이를 표준의료영상에 순방향으로 매칭하는 방식을 탈피하여, 표준의료영상에 미리 정해진 특징점을 사용자가 제공하는 입력 의료영상에 역방향으로 매칭함으로써, 상기 입력 의료영상에서 특징점을 정확하게 확인할 수 있는 장치 및 그 방법을 제공하는 것을 목적으로 한다.The present invention was created to solve the above problems, and by breaking away from a method of extracting feature points from an input medical image and matching them in a forward direction to a standard medical image, the user provides predetermined feature points to a standard medical image. An object of the present invention is to provide an apparatus and method for accurately identifying feature points in the input medical image by matching the input medical image in the reverse direction.

또한 본 발명은 의료 전문가가 특정 신체부위에 대한 복수의 의료영상에 지정한 적어도 하나 이상의 특징점과 표준의료영상에 미리 정해진 특징점을 매칭시켜둔 상태에서, 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 미리 정해진 특징점을 추출하여, 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행함으로써, 특정 신체부위의 사이즈를 측정할 수 있는 장치 및 그 방법을 제공하는 것을 목적으로 한다.In addition, in a state in which at least one feature point designated by a medical professional in a plurality of medical images for a specific body part and a preset feature point in a standard medical image are matched, the method is the closest match to the input medical image provided by the user. An object of the present invention is to provide an apparatus and method capable of measuring the size of a specific body part by performing reverse fitting by extracting predetermined feature points from a standard medical image and assigning them in the reverse direction to the input medical image.

또한 본 발명은 의료 전문가가 특정 신체부위에 대한 복수의 일반 의료영상에 지정한 적어도 하나 이상의 특징점과 표준의료영상에 미리 정해진 특징점의 매칭관계를 학습하여 학습모델을 생성하고, 상기 생성한 학습모델을 통해 사용자가 제공하는 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 미리 정해진 특징점을 역방향으로 할당하는 역방향 피팅을 수행함으로써, 특정 신체부위의 사이즈를 측정할 수 있는 장치 및 그 방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention generates a learning model by learning a matching relationship between at least one feature point designated by a medical professional in a plurality of general medical images for a specific body part and a feature point predetermined in a standard medical image, and through the created learning model Another aspect of providing an apparatus and method capable of measuring the size of a specific body part by performing reverse fitting in which predetermined feature points are assigned in the reverse direction to the standard medical image that most closely matches the input medical image provided by the user The purpose.

또한 본 발명은 의료영상을 통해서 영상의 사이즈에 대한 별도의 레퍼런스(reference) 없이도 실제 사이즈를 측정할 수 있는 장치 및 그 방법을 제공하는 것을 또 다른 목적으로 한다.Another object of the present invention is to provide an apparatus and method for measuring an actual size through a medical image without a separate reference to the size of the image.

또한 본 발명은 사용자가 제공하는 의료영상을 통해 확인한 특정 신체부위에 대한 사이즈 정보를 통해 사용자가 필요로 하는 제품을 제작할 수 있는 장치 및 그 방법을 제공하는 것을 또 다른 목적으로 한다.Another object of the present invention is to provide an apparatus and method capable of manufacturing a product required by a user through size information on a specific body part confirmed through a medical image provided by the user and a method therefor.

본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 장치는, 특정 신체부위에 대한 표준의료영상의 특징점을 입력 의료영상에 역방향으로 할당하는 역방향 피팅부; 및 상기 입력 의료영상에 할당된 상기 특징점을 이용하여 상기 특정 신체부위의 사이즈를 측정하는 신체 사이즈 측정부;를 포함하며, 상기 표준의료영상으로부터 미리 정해진 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 통해서 상기 특정 신체부위에 대한 신체 사이즈를 측정하는 것을 특징으로 한다.According to an embodiment of the present invention, there is provided an apparatus for measuring body size through backward fitting, comprising: a reverse fitting unit for allocating feature points of a standard medical image for a specific body part to an input medical image in a reverse direction; and a body size measuring unit that measures the size of the specific body part by using the feature points assigned to the input medical image, wherein a predetermined feature point from the standard medical image is assigned to the input medical image in a reverse direction It is characterized in that the body size for the specific body part is measured through fitting.

또한 상기 역방향 피팅부는, 상기 특정 신체부위에 대한 입력 의료영상과 가장 근접하게 매칭되는 하나의 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하는 표준의료영상 특징점 추출부; 상기 추출한 표준의료영상의 특징점에 대한 좌표를 상기 입력 의료영상의 해당 좌표로 변환하는 특징점 좌표 변환부; 및 상기 변환된 좌표로 상기 특징점을 상기 입력 의료영상에 할당하는 특징점 할당부;를 포함하는 것을 특징으로 한다.In addition, the backward fitting unit may include: a standard medical image feature point extraction unit for extracting at least one feature point for one standard medical image that most closely matches the input medical image for the specific body part; a feature point coordinate converter converting coordinates of the extracted feature points of the standard medical image into corresponding coordinates of the input medical image; and a feature point allocator for allocating the feature point to the input medical image using the converted coordinates.

또한 상기 표준의료영상은 상기 신체부위마다 적어도 하나 이상 구비되며, 상기 표준의료영상의 특징점은 복수의 해당 신체부위에 대한 의료영상의 대응하는 특징점과 미리 매칭되어 있으며, 상기 특징점은 상기 신체부위에 대한 의료영상의 특정 지점을 나타내는 것으로, 상기 지점의 좌표, 레이블, 및 상기 좌표의 데이터값을 포함하여 나타내는 것을 특징으로 한다.In addition, at least one standard medical image is provided for each body part, and a feature point of the standard medical image is matched in advance with a corresponding feature point of a medical image for a plurality of corresponding body parts, and the feature point is for the body part. It represents a specific point of a medical image, and it is characterized in that it includes the coordinates of the point, a label, and a data value of the coordinates.

또한 상기 신체 사이즈 측정 장치는, 신체부위마다 구비된 표준의료영상의 적어도 하나 이상의 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하는 학습모델 생성부;를 더 포함하는 것을 특징으로 한다.In addition, the body size measuring device generates a learning model by learning a matching relationship between at least one feature point of a standard medical image provided for each body part and a corresponding feature point of a general medical image for a plurality of corresponding body parts to generate a learning model It is characterized in that it further comprises;

또한 상기 학습모델 생성부는, 상기 신체부위에 대한 일반 의료영상마다 지정된 특정 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하거나, 또는 상기 신체부위에 대한 일반 의료영상에 지정된 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 일대일로 학습하여 학습모델을 생성하는 것을 특징으로 한다.In addition, the learning model generation unit generates a learning model by learning a matching relationship between a specific feature point designated for each general medical image for the body part and a corresponding feature point of the standard medical image, or in a general medical image for the body part. It is characterized in that the learning model is generated by one-to-one learning of a matching relationship between a specified feature point and a corresponding feature point of the standard medical image.

또한 상기 신체 사이즈 측정부는, 상기 입력 의료영상에 할당된 특징점간을 서로 연결하여 결합함으로써, 2차원 또는 3차원 모델링을 수행하고, 상기 수행한 2차원 또는 3차원 모델을 통해 상기 특정 신체부위의 사이즈를 측정하는 것을 특징으로 한다.In addition, the body size measuring unit performs two-dimensional or three-dimensional modeling by connecting and combining the feature points assigned to the input medical image, and the size of the specific body part through the performed two-dimensional or three-dimensional model. is characterized by measuring

아울러, 본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 방법은, 신체 사이즈 측정 장치에서, 특정 신체부위에 대한 표준의료영상의 특징점을 입력 의료영상에 역방향으로 할당하는 역방향 피팅 단계; 및 상기 입력 의료영상에 할당된 상기 특징점을 이용하여 상기 특정 신체부위의 사이즈를 측정하는 신체 사이즈 측정 단계;를 포함하며, 상기 표준의료영상으로부터 미리 정해진 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 통해서 상기 특정 신체부위에 대한 신체 사이즈를 측정하는 것을 특징으로 한다.In addition, according to an embodiment of the present invention, a method for measuring body size through backward fitting includes a reverse fitting step of, in a body size measuring apparatus, allocating feature points of a standard medical image for a specific body part to an input medical image in a reverse direction; and a body size measuring step of measuring the size of the specific body part by using the feature points assigned to the input medical image, wherein a predetermined feature point from the standard medical image is assigned to the input medical image in a reverse direction It is characterized in that the body size for the specific body part is measured through fitting.

또한 상기 역방향 피팅 단계는, 상기 특정 신체부위에 대한 입력 의료영상과 가장 근접하게 매칭되는 하나의 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하는 표준의료영상 특징점 추출 단계; 상기 추출한 표준의료영상의 특징점에 대한 좌표를 상기 입력 의료영상의 해당 좌표로 변환하는 특징점 좌표 변환 단계; 및 상기 변환된 좌표로 상기 특징점을 상기 입력 의료영상에 할당하는 특징점 할당 단계;를 포함하는 것을 특징으로 한다.In addition, the backward fitting step may include: a standard medical image feature point extraction step of extracting at least one feature point for one standard medical image that most closely matches the input medical image for the specific body part; a feature point coordinate transformation step of transforming the coordinates of the extracted feature points of the standard medical image into the corresponding coordinates of the input medical image; and a feature point assignment step of allocating the feature point to the input medical image using the transformed coordinates.

또한 상기 표준의료영상은 상기 신체부위마다 적어도 하나 이상 구비되며, 상기 표준의료영상의 특징점은 복수의 해당 신체부위에 대한 의료영상의 대응하는 특징점과 미리 매칭되어 있으며, 상기 특징점은 상기 신체부위에 대한 의료영상의 특정 지점을 나타내는 것으로, 상기 지점의 좌표, 레이블, 및 상기 좌표의 데이터값을 포함하여 나타내는 것을 특징으로 한다.In addition, at least one standard medical image is provided for each body part, and a feature point of the standard medical image is matched in advance with a corresponding feature point of a medical image for a plurality of corresponding body parts, and the feature point is for the body part. It represents a specific point of a medical image, and it is characterized in that it includes the coordinates of the point, a label, and a data value of the coordinates.

또한 상기 신체 사이즈 측정 방법은, 신체부위마다 구비된 표준의료영상의 적어도 하나 이상의 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하는 학습모델 생성 단계;를 더 포함하는 것을 특징으로 한다.In addition, the body size measurement method generates a learning model that generates a learning model by learning a matching relationship between at least one feature point of a standard medical image provided for each body part and a corresponding feature point of a general medical image for a plurality of body parts. step; characterized in that it further comprises.

또한 상기 학습모델 생성 단계는, 상기 신체부위에 대한 일반 의료영상마다 지정된 특정 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하거나, 또는 상기 신체부위에 대한 일반 의료영상에 지정된 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 일대일로 학습하여 학습모델을 생성하는 것을 특징으로 한다.In addition, the learning model generating step may include generating a learning model by learning a matching relationship between a specific feature point designated for each general medical image of the body part and a corresponding feature point of the standard medical image, or a general medical image for the body part It is characterized in that the learning model is generated by one-to-one learning of the matching relationship between the feature points specified in , and the corresponding feature points of the standard medical image.

또한 상기 신체 사이즈 측정 단계는, 상기 입력 의료영상에 할당된 특징점간을 서로 연결하여 결합함으로써, 2차원 또는 3차원 모델링을 수행하고, 상기 수행한 2차원 또는 3차원 모델을 통해 상기 특정 신체부위의 사이즈를 측정하는 것을 특징으로 한다.In addition, the body size measurement step performs two-dimensional or three-dimensional modeling by connecting and combining the feature points assigned to the input medical image, and the measurement of the specific body part through the performed two-dimensional or three-dimensional model. It is characterized by measuring the size.

이상에서와 같이 본 발명의 역방향 피팅을 통한 신체 사이즈 측정 장치 및 그 방법에 따르면, 특정 병변을 확인하거나 찾아내기 위하여 사용자가 제공한 의료영상에서 특징점을 추출하고 이를 표준의료영상에 순방향으로 매칭하는 방식과 다르게, 의료 전문가가 특정 신체부위에 대한 복수의 의료영상에 지정한 적어도 하나 이상의 특징점과 표준의료영상에 미리 정해진 특징점을 매칭시켜둔 상태에서, 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 미리 정해진 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 통해서, 사용자의 의료영상으로부터 특징점을 빠르고 정확하게 확인할 수 있으며, 상기 특징점을 토대로 사용자의 의료영상으로부터 원하는 신체부위의 사이즈를 간편하게 측정할 수 있는 효과가 있다.As described above, according to the apparatus and method for measuring body size through backward fitting of the present invention, in order to identify or find a specific lesion, feature points are extracted from a medical image provided by a user and matched to a standard medical image in a forward direction In contrast to , a standard that most closely matches the input medical image provided by the user in a state where at least one feature point specified by a medical professional in a plurality of medical images for a specific body part and a predetermined feature point are matched to a standard medical image Through reverse fitting, which assigns a predetermined feature point to the medical image to the input medical image in the reverse direction, the feature point can be quickly and accurately confirmed from the user's medical image, and the size of the desired body part from the user's medical image can be conveniently determined based on the feature point It has a measurable effect.

또한, 본 발명은 모자, 의류 등을 제작하는 제조업체에서 사용자의 의료영상을 통해 측정한 신체부위의 사이즈 정보를 이용하여 각 사용자들에게 맞춤형 제품을 제작하여 제공함으로써, 사용자의 제품 만족도를 높일 수 있으며, 제품의 반품 가능성을 현저하게 줄여 매출 향상 및 재고 관리를 용이하게 수행할 수 있는 효과가 있다.In addition, the present invention can increase the user's product satisfaction by manufacturing and providing customized products to each user by using the size information of the body part measured through the user's medical image by the manufacturer of hats, clothing, etc. , it has the effect of remarkably reducing the possibility of product return, improving sales and easily performing inventory management.

도 1은 본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 장치의 전체 블록도이다.
도 2는 본 발명에 적용되는 역방향 피팅에 따른 신체 사이즈 측정과 병변 확인을 위한 순방향 처리의 차이점을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 과정을 설명하기 위한 도면이다.
도 4는 본 발명에 적용되는 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계에 따라 생성되는 매칭 테이블 또는 학습모델의 일 예를 설명하기 위한 도면이다.
도 5는 본 발명에 적용되는 역방향 피팅 및 신체 사이즈 측정의 일 예를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 신체 사이즈 측정 장치의 구성을 상세하게 나타낸 블록도이다.
도 7은 본 발명의 일 실시예에 따른 역방향 피팅을 통해 신체 사이즈를 측정하는 과정을 상세하게 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른 각 신체부위별 표준의료영상과 복수의 일반 의료영상의 각 특징점간의 매칭관계를 토대로 한 매칭 테이블 또는 학습모델 구축 과정을 상세하게 나타낸 순서도이다.
도 9는 본 발명의 일 실시예에 따른 신체 사이즈 측정 장치의 하드웨어 구조를 나타낸 도면이다.
1 is an overall block diagram of an apparatus for measuring body size through backward fitting according to an embodiment of the present invention.
2 is a diagram for explaining the difference between body size measurement and forward processing for lesion confirmation according to backward fitting applied to the present invention.
3 is a view for explaining a body size measurement process through backward fitting according to an embodiment of the present invention.
4 is a diagram for explaining an example of a matching table or a learning model generated according to a matching relationship between each feature point of a standard medical image and a general medical image applied to the present invention.
5 is a diagram for explaining an example of reverse fitting and body size measurement applied to the present invention.
6 is a detailed block diagram illustrating the configuration of an apparatus for measuring body size according to an embodiment of the present invention.
7 is a flowchart illustrating in detail a process of measuring a body size through backward fitting according to an embodiment of the present invention.
8 is a flowchart illustrating in detail a process of constructing a matching table or a learning model based on a matching relationship between a standard medical image for each body part and each feature point of a plurality of general medical images according to an embodiment of the present invention.
9 is a diagram illustrating a hardware structure of an apparatus for measuring body size according to an embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 역방향 피팅을 통한 신체 사이즈 측정 장치 및 그 방법에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.Hereinafter, a preferred embodiment of an apparatus and method for measuring body size through reverse fitting of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements. In addition, specific structural or functional descriptions of the embodiments of the present invention are only exemplified for the purpose of describing the embodiments according to the present invention, and unless otherwise defined, all terms used herein, including technical or scientific terms They have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present specification. It is preferable not to

도 1은 본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 장치의 전체 블록도이다.1 is an overall block diagram of an apparatus for measuring body size through backward fitting according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명은 신체 사이즈 측정 장치(100), 데이터베이스(200), 복수의 의료영상 제공 단말(300), 복수의 사용자 단말(400) 등을 포함하여 구성된다.As shown in FIG. 1 , the present invention is configured to include a body size measuring apparatus 100 , a database 200 , a plurality of medical image providing terminals 300 , a plurality of user terminals 400 , and the like.

상기 신체 사이즈 측정 장치(100)는 네트워크를 통해 상기 의료영상 제공 단말(300)로부터 각 신체부위의 표준의료영상을 수집하여 상기 데이터베이스(200)에 저장하여 관리한다.The body size measuring apparatus 100 collects standard medical images of each body part from the medical image providing terminal 300 through a network, stores them in the database 200 and manages them.

이때 상기 표준의료영상은 머리, 흉부, 팔, 다리 등의 각 신체부위마다 표준으로 사용하기 위해서 적어도 하나 이상 생성된 것으로서, 신체부위에 대한 특정 지점의 좌표, 레이블 및 상기 좌표의 데이터값(픽셀(pixel)값, 복셀(voxel)값 등)을 나타내는 특징점이 적어도 하나 이상 미리 지정되어 있으며, 상기 표준의료영상의 각 특징점은 복수의 해당 신체부위에 대한 의료영상의 대응하는 특징점과 미리 매칭되어 있다.At this time, the standard medical image is generated at least one or more to be used as a standard for each body part such as the head, chest, arm, leg, etc. At least one feature point indicating a pixel) value, a voxel value, etc.) is pre-designated, and each feature point of the standard medical image is previously matched with a corresponding feature point of a medical image for a plurality of corresponding body parts.

또한 상기 신체 사이즈 측정 장치(100)는 네트워크를 통해 상기 의료영상 제공 단말(300)로부터 각종 신체부위별 일반 의료영상을 일정한 주기에 따라 수집하거나 실시간으로 수집하고, 상기 수집한 각 신체부위별 일반 의료영상과 해당 신체부위의 표준의료영상의 특징점간의 매칭관계를 상기 데이터베이스(200)에 저장하여 관리한다.In addition, the body size measuring apparatus 100 collects general medical images for each body part from the medical image providing terminal 300 through a network according to a predetermined period or collects in real time, and collects the general medical images for each body part. The matching relationship between the image and the feature points of the standard medical image of the corresponding body part is stored and managed in the database 200 .

예를 들어, 상기 신체 사이즈 측정 장치(100)는 상기 표준의료영상에 미리 정해진 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점(의료 전문가가 직접 확인하여 결정)을 매칭하여 각 특징점간의 매칭관계를 나타내는 매칭 테이블을 생성하거나, 또는 상기 표준의료영상에 미리 정해진 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점의 매칭관계를 학습하여 학습모델을 생성하고, 상기 생성한 매칭 테이블 또는 학습모델을 상기 데이터베이스(200)에 저장하여 관리한다.For example, the body size measuring apparatus 100 matches a predetermined feature point in the standard medical image with a corresponding feature point (determined by a medical professional directly by a medical professional) of a general medical image for a plurality of corresponding body parts, and each feature point Creating a matching table indicating the matching relationship between A matching table or a learning model is stored and managed in the database 200 .

이때 상기 일반 의료영상은 개인정보 활용에 동의한 사용자들의 의료영상으로서, 2차원의 엑스레이 영상, 3차원의 CT나 MRI 등의 모든 의료영상을 포함하며, 개인정보를 삭제하여 노출되지 않도록 한다.In this case, the general medical image is a medical image of users who have consented to the use of personal information, and includes all medical images such as a two-dimensional X-ray image, a three-dimensional CT or MRI image, and personal information is deleted so as not to be exposed.

또한 상기 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 토대로 상기 매칭 테이블 또는 학습모델을 생성할 때, 본 발명에서는 성, 연령, 인종 등에 따라 세분화하여 생성함으로써, 상기 매칭 테이블 또는 학습모델의 신뢰도를 크게 향상시킬 수 있으며, 신체 사이즈의 측정 정확도를 높일 수 있다.In addition, when generating the matching table or learning model based on the matching relationship between each feature point of the standard medical image and the general medical image, in the present invention, the matching table or learning model is generated by subdividing it according to gender, age, race, etc. Reliability can be greatly improved, and body size measurement accuracy can be improved.

또한 상기 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 학습하여 학습모델을 생성할 때, 본 발명에서는 지도학습, 비지도학습, 강화학습 등의 다양한 학습방법을 사용할 수 있다.In addition, when generating a learning model by learning the matching relationship between each feature point of the standard medical image and the general medical image, various learning methods such as supervised learning, unsupervised learning, and reinforcement learning can be used in the present invention.

한편, 상기 신체 사이즈 측정 장치(100)는 상기 매칭 테이블 또는 학습모델을 상기 데이터베이스(200)에 저장하여 관리하는 상태에서, 네트워크를 통해 상기 사용자 단말(400)로부터 사용자가 원하는 특정 신체부위에 대한 사이즈를 확인하기 위한 입력 의료영상이 제공되면, 상기 입력 의료영상이 어느 신체부위인지를 확인하고, 상기 확인한 특정 신체부위의 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 이용하여 생성한 매칭 테이블 또는 학습모델을 상기 데이터베이스(200)로부터 로딩한다. 이때 상기 입력 의료영상은 사용자가 사이즈 측정을 원하는 부분을 지정한 임의의 특징점 정보(즉 정확한 특징점 위치를 모르는 사용자가 임시로 지정하는 포인트를 의미)를 포함한다.On the other hand, the body size measuring apparatus 100 stores and manages the matching table or the learning model in the database 200, and the size for a specific body part desired by the user from the user terminal 400 through the network. When an input medical image is provided to confirm Alternatively, the learning model is loaded from the database 200 . In this case, the input medical image includes arbitrary key point information (that is, a point temporarily designated by a user who does not know the exact location of the key point) for designating a portion for which the user wants to measure the size.

또한 상기 신체 사이즈 측정 장치(100)에서 상기 입력 의료영상이 어느 신체부위인지를 확인하는 방식은 사용자 인터페이스를 활용하는 방식 또는 인공지능을 활용하는 방식을 적용할 수 있다.In addition, a method of using a user interface or a method of utilizing artificial intelligence may be applied as a method of confirming which body part the input medical image is in the body size measuring apparatus 100 .

상기 사용자 인터페이스를 활용하는 방식에 대하여 보다 구체적으로 설명하면, 상기 신체 사이즈 측정 장치(100)는 사용자가 상기 사용자 단말(400)에 표시되는 신체부위별로 나뉜 사용자 인터페이스를 통해 입력 의료영상을 드래그 앤 드랍(drag & drop) 형태로 해당 신체부위에 끌어다 입력하거나, 사용자가 직접 어느 신체부위에 대한 입력 의료영상인지를 텍스트 형태로 입력하거나, 사용자가 상기 신체 사이즈 측정 장치(100)에서 제공하는 신체부위에 대한 리스트 중 적어도 하나 이상의 리스트를 선택하는 것을 통해서 상기 입력 의료영상이 어느 신체부위인지를 즉각적으로 확인할 수 있다.More specifically, the method of utilizing the user interface is described in detail, in which the body size measuring apparatus 100 allows the user to drag and drop an input medical image through a user interface divided by body parts displayed on the user terminal 400 . (drag & drop) to the corresponding body part, or the user directly inputs the input medical image for which body part in text form, or the user directly enters the input medical image on the body part provided by the body size measuring device 100 . By selecting at least one or more lists from among the list for the medical information, it is possible to immediately check which body part the input medical image is of.

또한 상기 인공지능을 활용하는 방식에 대하여 보다 구체적으로 설명하면, 상기 신체 사이즈 측정 장치(100)는 상기 사용자 단말(400)로부터 입력 의료영상이 제공되면, 상기 입력 의료영상을 기 설정된 신체부위 확인용 학습모델에 적용하여, 상기 입력 의료영상이 어느 신체부위인지를 확인할 수 있다.In more detail, the method of utilizing the artificial intelligence is described in detail. When the input medical image is provided from the user terminal 400, the body size measuring apparatus 100 uses the input medical image to check a preset body part. By applying to the learning model, it is possible to check which body part the input medical image is.

이후, 상기 신체 사이즈 측정 장치(100)는 상기 로딩한 매칭 테이블 또는 학습모델에 사용자가 제공한 입력 의료영상을 적용하여 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하고, 상기 추출한 표준의료영상의 각 특징점에 대한 좌표를 상기 입력 의료영상의 해당 특징점의 각 좌표로 변환하며, 상기 변환한 좌표로 상기 표준의료영상의 특징점을 상기 입력 의료영상에 할당한다.Thereafter, the body size measuring apparatus 100 applies the input medical image provided by the user to the loaded matching table or learning model to extract at least one feature point for the most closely matched standard medical image, and the extracted The coordinates of each feature point of the standard medical image are converted into coordinates of the corresponding feature point of the input medical image, and the feature points of the standard medical image are assigned to the input medical image with the converted coordinates.

즉 상기 매칭 테이블 또는 학습모델을 통해서 사용자가 제공한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상의 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행하는 것이다.That is, reverse fitting is performed in which the feature points of the standard medical image that most closely match the input medical image provided by the user through the matching table or the learning model are assigned to the input medical image in the reverse direction.

또한 상기 신체 사이즈 측정 장치(100)는 상기 입력 의료영상에 할당된 상기 특징점을 이용하여 사용자가 원하는 특정 신체부위의 사이즈를 측정하고, 상기 측정한 사이즈를 상기 사용자 단말(400)로 제공한다.In addition, the body size measuring apparatus 100 measures the size of a specific body part desired by the user using the feature points assigned to the input medical image, and provides the measured size to the user terminal 400 .

예를 들어, 상기 입력 의료영상에 할당된 각 특징점간을 서로 연결하여 결합함으로써, 2차원 모델링 또는 3차원 모델링을 수행하고, 2차원 모델 또는 3차원 모델을 통해 특정 신체부위에 대한 정확한 신체 사이즈를 측정하여 사용자에게 제공할 수 있다.For example, by connecting and combining each feature point assigned to the input medical image, two-dimensional modeling or three-dimensional modeling is performed, and the exact body size for a specific body part is determined through the two-dimensional model or the three-dimensional model. It can be measured and provided to the user.

이에 따라 사용자는 특정 신체부위에 대한 표준의료영상의 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 토대로 자신이 원하는 특정 신체부위의 정확한 사이즈를 확인할 수 있고, 정확한 사이즈로 제품을 맞춤형으로 제작할 수 있게 된다.Accordingly, the user can check the exact size of a specific body part that he or she wants based on the reverse fitting that assigns the feature points of the standard medical image for a specific body part to the input medical image in the reverse direction, and can customize the product to the exact size. be able to

이때 본 발명에 적용되는 역방향 피팅에 따른 신체 사이즈 측정과 병변 확인을 위한 의료영상의 순방향 처리의 차이점을 도 2를 참조하여 구체적으로 설명하면 다음과 같다.At this time, the difference between body size measurement and forward processing of a medical image for lesion confirmation according to backward fitting applied to the present invention will be described in detail with reference to FIG. 2 .

도 2는 본 발명에 적용되는 역방향 피팅에 따른 신체 사이즈 측정과 병변 확인을 위한 순방향 처리의 차이점을 설명하기 위한 도면이다.2 is a diagram for explaining the difference between body size measurement and forward processing for lesion confirmation according to backward fitting applied to the present invention.

도 2의 (a)에 나타낸 바와 같이, 의료영상을 통한 병변 확인을 수행하는 일반적인 방식은 다양한 의료영상을 미리 결정된 표준의료영상과 매칭시켜 학습함으로써 학습모델을 생성하고, 사용자가 제공하는 의료영상을 학습모델에 적용하여 특정 패턴(예: 특징점)을 추출하고, 상기 추출한 특정 패턴을 표준의료영상에 매칭하여 정량분석이 가능한 결과를 도출하고, 이를 통해서 병증을 판단하는 순방향 처리 방식이었다.As shown in (a) of FIG. 2, a general method of performing lesion identification through medical images is to create a learning model by matching various medical images with a predetermined standard medical image and learning, and then use the medical images provided by the user. It was a forward processing method in which a specific pattern (eg, feature point) was extracted by applying to the learning model, the extracted specific pattern was matched with a standard medical image to derive a result that could be analyzed quantitatively, and through this, the disease was judged.

하지만, 본 발명은 도 2의 (b)에 나타낸 바와 같이, 사용자가 제공하는 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하여, 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 토대로 상기 입력 의료영상에서 특징점을 정확하게 확인하고, 상기 특징점을 서로 연결하여 특정 신체부위의 사이즈를 측정할 수 있도록 한 것이다. 즉 본 발명은 사용자가 제공하는 의료영상을 표준의료영상으로 순방향으로 변환하면서 단순히 병증을 찾아내는 것에 그치지 않고, 표준의료영상에 정해져 있는 특징점을 사용자가 제공하는 의료영상에 적용하는 역방향 처리를 통해서 신체 사이즈를 측정하는 구성상 특징이 있는 것이다.However, in the present invention, as shown in FIG. 2B , at least one feature point for a standard medical image that most closely matches the input medical image provided by the user is extracted and assigned to the input medical image in the reverse direction. Based on the backward fitting, the feature points are accurately identified in the input medical image, and the feature points are connected to each other to measure the size of a specific body part. In other words, the present invention does not stop at simply finding a condition while converting a medical image provided by a user into a standard medical image in a forward direction, but also applies the feature points set in the standard medical image to the medical image provided by the user through reverse processing to body size It has a compositional characteristic that measures .

한편, 본 발명의 역방향 피팅을 통한 신체 사이즈 측정 서비스의 가장 일반적인 사용형태는, 상기 신체 사이즈 측정 장치(100)를 도 1에서와 같이 독립적인 플랫폼 형태로 구성하고, 사용자가 상기 사용자 단말(400)에 설치된 애플리케이션 프로그램을 통해 입력 의료영상을 제공하면, 상기 신체 사이즈 측정 장치(100)에서 사전에 구축해 놓은 매칭 테이블 또는 학습모델에 적용하여 상기 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행함으로써, 사용자가 원하는 특정 신체부위의 사이즈를 측정하는 것이다.On the other hand, the most common usage form of the body size measurement service through backward fitting of the present invention is that the body size measurement device 100 is configured as an independent platform as shown in FIG. 1 , and the user uses the user terminal 400 . When an input medical image is provided through an application program installed in The size of a specific body part desired by a user is measured by performing backward fitting in which one or more feature points are assigned to the input medical image in the reverse direction.

하지만, 본 발명은 이러한 방식으로 한정되는 것은 아니며, 컴퓨팅 파워 및 환경이 개선되는 경우 상기 신체 사이즈 측정 장치(100)의 기능을 상기 사용자 단말(400)에 직접 구현할 수 있다.However, the present invention is not limited in this way, and when computing power and environment are improved, the function of the body size measuring apparatus 100 may be directly implemented in the user terminal 400 .

상기 데이터베이스(200)는 상기 신체 사이즈 측정 장치(100)에서 상기 복수의 의료영상 제공 단말(300)로부터 수집한 신체부위별 표준의료영상과 상기 매칭 테이블이나 학습모델 생성에 사용되는 각종 신체부위별 일반 의료영상을 저장하여 관리한다. 여기서 상기 데이터베이스(200)는 개별적인 DB에 데이터를 저장하고 관리하는 역할을 하는 데이터베이스 관리 시스템(DBMS)으로 취급하고 설명한다.The database 200 includes standard medical images for each body part collected from the plurality of medical image providing terminals 300 by the body size measuring device 100 and general for each body part used for generating the matching table or learning model. Storing and managing medical images. Here, the database 200 is treated and described as a database management system (DBMS) that serves to store and manage data in individual DBs.

또한 상기 데이터베이스(200)는 상기 신체 사이즈 측정 장치(100)에서 상기 표준의료영상과 상기 일반 의료영상의 각 특징점간의 매칭관계를 토대로 생성한 매칭 테이블 또는 학습모델을 저장하여 관리하며, 상기 신체 사이즈 측정 장치(100)의 요청에 따라 저장, 관리하고 있는 신체부위별 매칭 테이블 또는 학습모델을 상기 신체 사이즈 측정 장치(100)로 제공한다.In addition, the database 200 stores and manages a matching table or a learning model generated based on a matching relationship between each feature point of the standard medical image and the general medical image in the body size measuring apparatus 100, and manages the measurement of the body size. The matching table or learning model for each body part stored and managed according to the request of the device 100 is provided to the body size measuring device 100 .

또한 상기 데이터베이스(200)는 상기 신체 사이즈 측정 장치(100)에서 수행하는 상기 표준의료영상과 일반 의료영상을 이용한 신체부위별 매칭 테이블 또는 학습모델의 생성, 상기 매칭 테이블 또는 학습모델을 토대로 사용자가 제공한 특정 신체부위와 가장 근접하게 매칭되는 표준의료영상의 특징점 추출, 상기 표준의료영상에 대한 적어도 하나 이상의 특징점의 상기 입력 의료영상으로의 역방향 할당, 상기 할당된 특징점을 이용한 특정 신체부위의 사이즈 측정을 위한 각종 동작프로그램의 저장과 업데이트 관리를 수행한다.In addition, the database 200 is provided by the user based on the generation of a matching table or learning model for each body part using the standard medical image and the general medical image performed by the body size measuring device 100, and the matching table or the learning model Extraction of feature points of a standard medical image that most closely matches a specific body part, reverse assignment of at least one feature point for the standard medical image to the input medical image, and measurement of the size of a specific body part using the assigned feature point It performs storage and update management of various operation programs for

상기 의료영상 제공 단말(300)은 의료기관이나 의료기관 종사자가 운영하거나 소지한 유무선 통신 단말, 의료영상을 종합적으로 관리하는 데이터 센터에서 운영하는 통신 단말, 개인 사용자들이 보유한 통신 단말 등을 포함하는 것으로서, 각 신체부위별 표준의료영상과 일반 의료영상을 상기 신체 사이즈 측정 장치(100)로 제공한다.The medical image providing terminal 300 includes a wired/wireless communication terminal operated or possessed by a medical institution or medical institution worker, a communication terminal operated in a data center that comprehensively manages medical images, and a communication terminal owned by individual users, and each A standard medical image for each body part and a general medical image are provided to the body size measuring apparatus 100 .

이때 상기 표준의료영상은 새롭게 생성되거나 변경되는 경우 상기 신체 사이즈 측정 장치(100)로 즉시 제공하며, 상기 각 신체부위별 일반 의료영상은 상기 신체 사이즈 측정 장치(100)의 요청에 따라 일정 기간 동안 모아둔 것을 소정의 주기 또는 실시간으로 제공할 수 있다.At this time, when the standard medical image is newly created or changed, it is immediately provided to the body size measuring device 100, and the general medical images for each body part are collected for a certain period according to the request of the body size measuring device 100. It can be provided in a predetermined period or in real time.

상기 사용자 단말(400)은 엑스레이, CT, MRI 등의 각종 의료영상을 보유하고 있는 일반 사용자들이 사용하는 스마트폰, PC, 태블릿 등의 유무선 통신 단말로서, 기 설치된 애플리케이션 프로그램을 이용하는 사용자의 조작에 따라 특정 신체부위의 입력 의료영상을 상기 신체 사이즈 측정 장치(100)로 출력한다.The user terminal 400 is a wired/wireless communication terminal such as a smart phone, PC, tablet, etc. used by general users who have various medical images such as X-ray, CT, and MRI, according to the operation of the user using a pre-installed application program. An input medical image of a specific body part is output to the body size measuring apparatus 100 .

또한 상기 사용자 단말(400)은 상기 신체 사이즈 측정 장치(100)로부터 상기 입력 의료영상을 통해 사용자가 원하는 특정 신체부위를 측정한 사이즈 정보를 제공받아 상기 애플리케이션 프로그램을 통해 표시한다.In addition, the user terminal 400 receives information on the size of a specific body part that the user wants through the input medical image from the body size measuring device 100 and displays it through the application program.

이를 통해 사용자는 측정도구를 이용한 수동 측정, 자신의 모습을 촬영한 광학 이미지, 아바타 등을 이용한 일반적인 방식을 벗어서, 의료영상을 통해 측정한 자신이 원하는 특정 신체부위의 사이즈에 따라 다양한 제품의 제작이나 주문을 수행할 수 있게 된다.Through this, users can make various products or manufacture various products according to the size of a specific body part they want measured through medical images, breaking away from the general method using manual measurement using a measuring tool, optical image of themselves, and avatar. order can be executed.

한편 이와 같은 역방향 피팅을 통한 신체 사이즈를 측정하는 과정을 도 3을 참조하여 상세하게 설명하면 다음과 같다.Meanwhile, the process of measuring the body size through the reverse fitting will be described in detail with reference to FIG. 3 as follows.

도 3은 본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 과정을 설명하기 위한 도면이다.3 is a view for explaining a body size measurement process through backward fitting according to an embodiment of the present invention.

먼저 상기 의료영상 제공 단말(300)에서 네트워크를 통해 상기 신체 사이즈 측정 장치(100)로 머리, 흉부, 손, 발 등의 다양한 신체부위에 대한 표준의료영상과 일반 의료영상을 제공하면(①), 상기 신체 사이즈 측정 장치(100)에서 각 신체부위별 표준의료영상 및 일반 의료영상을 상기 데이터베이스(200)에 저장하여 관리한다(②).First, if the medical image providing terminal 300 provides standard medical images and general medical images for various body parts, such as the head, chest, hands, and feet, to the body size measuring device 100 through the network (①), The body size measuring device 100 stores and manages standard medical images and general medical images for each body part in the database 200 (②).

또한 상기 신체 사이즈 측정 장치(100)는 상기 의료영상 제공 단말(300)로부터 제공받은 각 신체부위별 표준의료영상과 일반 의료영상의 특징점간의 매칭관계에 따라 생성된 매칭 테이블, 또는 각 신체부위별 표준의료영상과 일반 의료영상의 특징점간의 매칭관계를 학습하여 생성한 학습모델을 상기 데이터베이스(200)에 저장하여 관리한다(③).In addition, the body size measuring apparatus 100 includes a matching table generated according to the matching relationship between the standard medical image for each body part and the feature points of the general medical image provided from the medical image providing terminal 300, or the standard for each body part. The learning model generated by learning the matching relationship between the feature points of the medical image and the general medical image is stored and managed in the database 200 (③).

이때 상기 매칭 테이블 또는 학습모델의 생성 과정을 도 4를 참조하여 상세하게 설명하면 다음과 같다.In this case, the process of generating the matching table or the learning model will be described in detail with reference to FIG. 4 as follows.

도 4는 본 발명에 적용되는 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계에 따라 생성되는 매칭 테이블 또는 학습모델의 일 예를 설명하기 위한 도면이다.4 is a diagram for explaining an example of a matching table or learning model generated according to a matching relationship between each feature point of a standard medical image and a general medical image applied to the present invention.

도 4의 (a)에 나타낸 바와 같이, 상기 신체 사이즈 측정 장치(100)는 각 신체부위별 표준의료영상에 미리 정해진 적어도 하나 이상의 특징점과 의료 전문가에 의해 지정된 상기 표준의료영상의 각 특징점에 대응하는 각 신체부위별 복수의 일반 의료영상 #1 내지 #n개의 적어도 하나 이상의 특징점간의 매칭관계를 나타내는 매칭 테이블을 생성하거나, 또는 상기 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 학습하여 학습모델을 생성하고, 각 신체부위별로 생성한 상기 매칭 테이블 또는 학습모델을 상기 데이터베이스(200)에 저장하여 관리한다.As shown in (a) of FIG. 4 , the body size measuring apparatus 100 corresponds to at least one predetermined feature point in the standard medical image for each body part and each feature point in the standard medical image designated by a medical professional. A learning model by generating a matching table representing the matching relationship between at least one feature point of #1 to #n of a plurality of general medical images for each body part, or by learning the matching relationship between each feature point of the standard medical image and the general medical image , and the matching table or learning model generated for each body part is stored and managed in the database 200 .

이처럼 상기 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 매칭 테이블 또는 학습모델로 생성하는 이유는, 상기 일반 의료영상은 신체부위의 크기나 모양에서 차이가 있기 때문에 의료 전문가가 지정하는 특징점의 위치가 서로 다르고, 이에 따라 상기 표준의료영상에 지정되어 있는 각 특징점간의 매칭관계를 확인하여 각 신체부위별 복수의 일반 의료영상마다 매칭관계를 사전에 구축해 놓는 것이 필요하기 때문이다.As such, the reason for creating a matching relationship between each feature point of the standard medical image and the general medical image as a matching table or learning model is that the general medical image has a difference in the size or shape of the body part. This is because the locations are different, and accordingly, it is necessary to establish a matching relationship in advance for a plurality of general medical images for each body part by checking the matching relationship between each feature point designated in the standard medical image.

특히, 상기 매칭 테이블 또는 학습모델 생성에 사용되는 표준의료영상은 하나이고, 일반 의료영상은 복수개이므로, 상기 일반 의료영상과 표준의료영상의 매칭을 통해 생성되는 매칭관계는 일반 의료영상별, 특징점별로 수많이 존재하게 되며, 수많은 매칭관계를 매칭 테이블 또는 학습모델로 생성하는 것이 필요하다.In particular, since there is one standard medical image used for generating the matching table or learning model, and there are a plurality of general medical images, the matching relationship created through the matching of the general medical image and the standard medical image is for each general medical image and each feature point. There are many, and it is necessary to create numerous matching relationships as a matching table or learning model.

한편, 본 발명에서는 각 신체부위별 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 매칭 테이블로 생성하여 관리하는 방식에 대하여 설명하고 있으나, 각 신체부위별 일반 의료영상의 수가 크게 늘어나 매칭 테이블로 관리하기에는 한계가 있기 때문에 학습모델을 적용하는 것이 바람직할 것이다.Meanwhile, in the present invention, a method for creating and managing a matching relationship between each feature point of a standard medical image and a general medical image for each body part as a matching table is described, but the number of general medical images for each body part has greatly increased, so the matching table It would be desirable to apply a learning model because there is a limit to managing it.

각 신체부위별 표준의료영상과 일반 의료영상의 각 특징점간의 매칭관계를 학습모델로 구축할 때, 학습을 진행하는 네트워크 구조는 도 4의 (b)에 나타낸 바와 같이, CNN(convolution neural network)을 사용할 수 있으며, CNN은 각 신체부위별 일반 의료영상(즉 학습용 의료영상)이 입력되는 입력 레이어, 컨볼루션(convolution) 레이어, 풀링(pooling) 레이어 및 완전연관(fully connected) 레이어로 구성된다.When building a matching relationship between each feature point of a standard medical image for each body part and a general medical image as a learning model, the network structure for learning is shown in FIG. CNN is composed of an input layer, a convolution layer, a pooling layer, and a fully connected layer to which general medical images (that is, medical images for learning) for each body part are input.

이때 상기 입력 레이어에 입력되는 각 신체부위별 일반 의료영상은 풀 컬러(full color) 기반의 의료영상을 사용하는 것이 바람직하지만, 이에 한정되는 것은 아니며, 상기 각 신체부위별 일반 의료영상을 그레이 스케일로 변환하여 사용하거나, 관심영역 부분(즉 특징점이 위치한 영역)을 양자화(quantization)하여 사용하거나, 2진화(binary)하여 사용할 수 있다.In this case, the general medical image for each body part input to the input layer preferably uses a full color-based medical image, but is not limited thereto, and the general medical image for each body part is converted to gray scale. It can be used by transforming it, quantizing the region of interest (that is, the region where the feature point is located) and using it, or it can be used after being binary.

또한 상기 컨볼루션 레이어는 특정 가중치를 가지는 커널을 미리 설정한 스트라이드(즉 상기 커널의 이동단위를 의미함)에 따라 상기 학습데이터에 대한 이미지 데이터의 특정 부분과 상기 커널의 가중치를 컨볼루션하여, 상기 이미지 데이터의 특정 부분에 대한 특징 맵을 생성하여 출력한다.In addition, the convolution layer convolves a specific part of the image data for the training data and the weight of the kernel according to a preset stride (that is, the movement unit of the kernel) in which a kernel having a specific weight is set. It generates and outputs a feature map for a specific part of image data.

또한 풀링 레이어는 상기 커널과 스트라이드의 크기에 따라 상기 컨볼루션 레이어로부터 출력되는 특정 맵을 풀링함으로써, 상기 특징 맵을 적어도 하나 이상의 서브 이미지 데이터로 서브 샘플링한다.In addition, the pooling layer subsamples the feature map into at least one or more sub-image data by pooling a specific map output from the convolutional layer according to the sizes of the kernel and the stride.

또한 상기 컨볼루션 레이어와 상기 풀링 레이어가 하나의 쌍으로 구성되어 적어도 하나 이상으로 구현될 수 있다.In addition, the convolution layer and the pooling layer may be configured as a pair and implemented as at least one.

또한 완전연관 레이어는 상기 생성한 적어도 하나 이상의 특징 맵을 연결시켜 각 신체부위별 일반 의료영상에 대한 특징점 정보를 출력할 수 있도록 한다. 이때, 출력되는 상기 특징점 정보는 0 ~ 1 사이의 확률 값을 가진다.In addition, the fully associative layer connects at least one or more of the generated feature maps to output feature point information for a general medical image for each body part. In this case, the outputted feature point information has a probability value between 0 and 1.

다시 도 3을 참조하면, 상기 신체 사이즈 측정 장치(100)에서 각 신체부위별 표준의료영상과 복수의 일반 의료영상의 각 특징점간의 매칭관계를 매칭 테이블 혹은 학습모델로 구축한 이후, 상기 사용자 단말(400)은 사용자의 조작에 따라 특정 신체부위의 입력 의료영상을 상기 신체 사이즈 측정 장치(100)로 제공하고(④), 상기 신체 사이즈 측정 장치(100)는 상기 사용자 단말(400)로부터 제공받은 특정 신체부위에 대한 입력 의료영상이 어느 신체부위인지를 확인하고, 상기 확인한 특정 신체부위에 해당하는 매칭 테이블 또는 학습모델을 상기 데이터베이스(200)로부터 로딩한다(⑤).Referring back to FIG. 3 , after establishing a matching relationship between the standard medical images for each body part and each feature point of a plurality of general medical images in the body size measuring apparatus 100 as a matching table or learning model, the user terminal ( 400) provides an input medical image of a specific body part to the body size measuring apparatus 100 according to a user's operation (④), and the body size measuring device 100 provides a specific input medical image provided from the user terminal 400 It is checked which body part the input medical image for the body part is, and a matching table or a learning model corresponding to the identified specific body part is loaded from the database 200 (⑤).

또한 상기 신체 사이즈 측정 장치(100)는 상기 데이터베이스(200)로부터 로딩한 해당 신체부위의 매칭 테이블 또는 학습모델에 상기 입력 의료영상을 적용하여 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하고, 상기 추출한 특징점을 상기 입력 의료영상에 역방향으로 할당한다(⑥).In addition, the body size measuring apparatus 100 applies the input medical image to the matching table or learning model of the corresponding body part loaded from the database 200 to determine at least one feature point for the closest matching standard medical image. is extracted, and the extracted feature points are assigned to the input medical image in the reverse direction (⑥).

또한 상기 신체 사이즈 측정 장치(100)는 상기 입력 의료영상에 역방향으로 할당된 특징점을 이용하여 사용자가 원하는 특정 신체부위의 사이즈를 측정하고(⑦), 상기 측정한 특정 신체부위의 사이즈를 상기 사용자 단말(400)로 출력하여 사용자가 신체 사이즈 측정결과를 확인할 수 있도록 한다(⑧).In addition, the body size measuring apparatus 100 measures the size of a specific body part desired by the user using the feature points assigned in the reverse direction to the input medical image (⑦), and determines the measured size of the specific body part from the user terminal It is output to (400) so that the user can check the body size measurement result (⑧).

이때 상기 역방향 피팅 및 신체 사이즈의 측정 과정을 도 5를 참조하여 상세하게 설명하면 다음과 같다.Hereinafter, the reverse fitting and the body size measurement process will be described in detail with reference to FIG. 5 .

도 5는 본 발명에 적용되는 역방향 피팅 및 신체 사이즈 측정의 일 예를 설명하기 위한 도면이다.5 is a diagram for explaining an example of reverse fitting and body size measurement applied to the present invention.

상기 신체 사이즈 측정 장치(100)는 사용자가 제공한 상기 입력 의료영상을 사전에 생성하여 구축해 놓은 해당 신체부위의 매칭 테이블 또는 학습모델에 적용하여, 상기 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 특징점을 추출한다. 즉 상기 매칭 테이블 또는 학습모델을 통해서 사용자가 사이즈 측정을 원하는 부분을 지정한 임의의 특징점 정보가 포함된 특정 신체부위의 상기 입력 의료영상과 가장 유사한 매칭관계를 가지는 표준의료영상에 대한 특징점을 확인하는 것이다.The body size measuring apparatus 100 generates the input medical image provided by the user in advance and applies it to a matching table or learning model of the corresponding body part, which is a standard medical image that most closely matches the input medical image. Extract the feature points for That is, through the matching table or the learning model, a feature point for a standard medical image having the most similar matching relationship to the input medical image of a specific body part including information on a feature point for which a user wants to measure a size is identified. .

이와 같이 상기 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상의 특징점이 추출되면, 상기 신체 사이즈 측정 장치(100)는 상기 표준의료영상에 대한 적어도 하나 이상의 특징점의 좌표를 상기 입력 의료영상의 해당 특징점의 좌표로 변환하며, 상기 변환한 좌표로 각 특징점을 할당한다.As such, when a feature point of the standard medical image that most closely matches the input medical image is extracted, the body size measuring apparatus 100 sets the coordinates of at least one feature point for the standard medical image to the corresponding feature point of the input medical image. is converted into coordinates of , and each feature point is assigned to the converted coordinates.

이후 상기 신체 사이즈 측정 장치(100)는 상기 입력 의료영상에 할당된 각 특징점간을 서로 연결하여 2차원 또는 3차원 모델링을 수행한 다음, 사용자가 원하는 신체부위의 사이즈를 측정하여 상기 사용자 단말(400)로 제공한다.Thereafter, the body size measuring apparatus 100 connects each feature point assigned to the input medical image to perform two-dimensional or three-dimensional modeling, and then measures the size of the body part desired by the user to determine the size of the user terminal 400 ) is provided.

다음에는, 본 발명의 일 실시예에 따른 역방향 피팅을 통한 신체 사이즈 측정 장치의 구체적인 세부 구성을 도 6을 참조하여 상세하게 설명한다.Next, a detailed configuration of an apparatus for measuring body size through reverse fitting according to an embodiment of the present invention will be described in detail with reference to FIG. 6 .

도 6은 본 발명의 일 실시예에 따른 신체 사이즈 측정 장치의 구성을 상세하게 나타낸 블록도이다.6 is a detailed block diagram illustrating the configuration of an apparatus for measuring body size according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 상기 신체 사이즈 측정 장치(100)는 매칭 테이블 생성부(110), 학습모델 생성부(120), 매칭 테이블 또는 학습모델 선택부(130), 역방향 피팅부(140), 신체 사이즈 측정부(150), 측정결과 출력부(160) 등을 포함하여 구성된다.As shown in FIG. 6 , the body size measuring apparatus 100 includes a matching table generating unit 110 , a learning model generating unit 120 , a matching table or learning model selecting unit 130 , and a reverse fitting unit 140 . , a body size measurement unit 150 , and a measurement result output unit 160 .

또한 상기 신체 사이즈 측정 장치(100)는 도면에 도시하지는 않았지만, 각 구성 부분에 동작전원을 공급하는 전원부, 각종 기능에 대한 데이터 입력을 위한 입력부, 각종 동작프로그램을 저장하는 메모리, 각종 동작프로그램의 업데이트를 관리하는 업데이트 관리부, 상기 신체 사이즈 측정 장치(100)의 각 구성 부분을 총괄적으로 제어하는 제어부, 데이터베이스 등의 외부 장치와 데이터 송수신을 위한 인터페이스부, 각 신체부위별 표준의료영상 및 일반 의료영상을 수집하는 수집부 등을 추가로 포함할 수 있다.In addition, although not shown in the drawing, the body size measuring apparatus 100 includes a power supply unit for supplying operating power to each component, an input unit for data input for various functions, a memory for storing various operation programs, and updating of various operation programs. An update management unit that manages the body size measurement device 100, a control unit that collectively controls each component, an interface unit for data transmission and reception with an external device such as a database, standard medical images and general medical images for each body part It may further include a collecting unit for collecting.

상기 매칭 테이블 생성부(110)는 상기 의료영상 제공 단말(300)로부터 수집한 각 신체부위별 일반 의료영상과 해당 신체부위의 표준의료영상의 특징점간의 매칭관계를 나타내는 매칭 테이블을 생성하고, 상기 생성한 매칭 테이블을 상기 데이터베이스(200)로 출력하여 저장, 관리되도록 한다. 즉 상기 일반 의료영상과 표준의료영상의 각 특징점간의 거리, 2차원 또는 3차원 좌표의 차이, 데이터값 등을 포함하는 매칭관계를 테이블로 구축하여 관리하는 것이다. 이는 다음의 학습모델에도 동일하게 적용될 수 있다.The matching table generating unit 110 generates a matching table indicating a matching relationship between the general medical image for each body part collected from the medical image providing terminal 300 and the feature points of the standard medical image of the corresponding body part, and the generation A matching table is output to the database 200 to be stored and managed. That is, a matching relationship including the distance between each feature point of the general medical image and the standard medical image, the difference between two-dimensional or three-dimensional coordinates, and data values, etc. is constructed and managed as a table. This can be equally applied to the following learning model.

상기 학습모델 생성부(120)는 상기 의료영상 제공 단말(300)로부터 수집한 각 신체부위별 일반 의료영상과 해당 신체부위의 표준의료영상의 특징점간의 매칭관계를 학습하여 학습모델을 생성하고, 상기 생성한 학습모델을 상기 데이터베이스(200)로 출력하여 저장, 관리되도록 한다. 즉 신체부위마다 적어도 하나 이상 구비된 표준의료영상의 적어도 하나 이상의 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하는 것이다.The learning model generating unit 120 generates a learning model by learning the matching relationship between the general medical image for each body part collected from the medical image providing terminal 300 and the characteristic points of the standard medical image of the corresponding body part, and The generated learning model is output to the database 200 to be stored and managed. That is, the learning model is generated by learning the matching relationship between at least one feature point of the standard medical image provided at least one or more for each body part and the corresponding feature point of the general medical image for the plurality of body parts.

이때 상기 학습모델 생성부(120)는 상기 신체부위에 대한 일반 의료영상마다 지정된 특정 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성할 수 있다. 예를 들어, 각 신체부위별 복수의 일반 의료영상 각각에 대한 특정 특징점(n개)과 상기 표준의료영상의 특정 특징점(1개)에 대한 매칭관계를 학습하는, n(일반 의료영상 각각의 특정 특징점) 대 1(표준의료영상의 특정 특징점)의 학습을 통해 각 특징점별로 하나의 학습모델을 생성하는 것이다.In this case, the learning model generator 120 may generate a learning model by learning a matching relationship between a specific feature point designated for each general medical image of the body part and a corresponding feature point of the standard medical image. For example, learning a matching relationship between a specific feature point (n pieces) for each of a plurality of general medical images for each body part and a specific feature point (one piece) of the standard medical image, n (specific for each general medical image) It is to create one learning model for each feature point) through 1 (specific feature point of standard medical image) learning.

또한 상기 학습모델 생성부(120)는 상기 신체부위에 대한 일반 의료영상에 지정된 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 일대일로 학습하여 학습모델을 생성할 수 있다. 예를 들어, 각 신체부위별 일반 의료영상에 대한 각 특징점(1개)과 상기 표준의료영상의 각 특징점(1개)에 대한 매칭관계를 일대일로 학습하는, 1(일반 의료영상별 특정 특징점) 대 1(표준의료영상의 특정 특징점)의 학습을 통해 '신체부위별 일반 의료영상 X 특징점 수'의 학습모델을 생성하는 것이다.In addition, the learning model generator 120 may generate a learning model by learning a matching relationship between the feature points specified in the general medical image of the body part and the corresponding feature points of the standard medical image on a one-to-one basis. For example, 1 (specific feature points for each general medical image) that learns the matching relationship between each feature point (one piece) of each body part and each feature point (one piece) of the standard medical image for each body part and one-to-one It is to create a learning model of 'general medical image X number of feature points for each body part' through one-to-one (specific feature points of standard medical images).

또한 상기 학습모델 생성부(120)는 상기 생성한 학습모델의 오차를 검증하고, 상기 검증한 결과를 토대로 오차를 최소화하기 위해서 학습 파라미터를 조정하여 상기 학습모델을 최적화하는 기능(즉 백 프로퍼게이션(back-propagation) 기능)을 수행할 수 있다.In addition, the learning model generator 120 verifies the error of the created learning model, and adjusts the learning parameters to minimize the error based on the verified result to optimize the learning model (that is, back propagation). (back-propagation) function) can be performed.

한편, 상기 매칭 테이블 생성부(110)와 상기 학습모델 생성부(120)는 사용 환경(예를 들어, 매칭 테이블 또는 학습모델을 구축하기 위한 의료영상의 수)에 따라 어느 하나를 선택하여 사용하는 것이 바람직하다. 하지만 이에 한정되는 것은 아니며, 매칭 테이블과 학습모델 2개를 동시에 적용하여 사용할 수도 있다. 만일 매칭 테이블과 학습모델 2개를 동시에 적용하는 경우, 매칭 테이블을 통해 도출한 결과와 학습모델을 통해 도출한 결과를 비교하고, 상기 비교한 결과 정확도가 더 높은 것을 선택하여 적용하면 된다.On the other hand, the matching table generating unit 110 and the learning model generating unit 120 select and use any one according to the usage environment (eg, the number of medical images for building the matching table or the learning model). it is preferable However, the present invention is not limited thereto, and the matching table and two learning models may be applied and used at the same time. If the matching table and the two learning models are simultaneously applied, the result derived from the matching table and the learning model are compared, and the one with higher accuracy as a result of the comparison is selected and applied.

상기 매칭 테이블 또는 학습모델 선택부(130)는 상기 사용자 단말(400)로부터 제공받은 입력 의료영상이 어느 신체부위에 해당하는지를 확인하고, 상기 확인한 신체부위에 따라 상기 데이터베이스(200)에 저장하여 관리중인 매칭 테이블 또는 학습모델을 선택하고, 상기 선택한 매칭 테이블 또는 학습모델에 대한 정보를 상기 역방향 피팅부(140)로 출력한다.The matching table or learning model selection unit 130 checks which body part the input medical image provided from the user terminal 400 corresponds to, and stores it in the database 200 according to the checked body part and manages it. A matching table or a learning model is selected, and information on the selected matching table or learning model is output to the reverse fitting unit 140 .

상기 역방향 피팅부(140)는 상기 매칭 테이블 또는 학습모델 선택부(130)로부터 제공받은 특정 신체부위에 따라 선정된 매칭 테이블 또는 학습모델에 대한 정보를 토대로 해당 신체부위에 대한 매칭 테이블 또는 학습모델을 상기 데이터베이스(200)로부터 로딩하고, 상기 로딩한 매칭 테이블 또는 학습모델을 이용하여 상기 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 수행한다.The reverse fitting unit 140 selects a matching table or learning model for the corresponding body part based on information on the matching table or learning model selected according to the specific body part provided from the matching table or the learning model selection unit 130 . Reverse direction of loading from the database 200 and assigning at least one feature point for a standard medical image that most closely matches the input medical image to the input medical image using the loaded matching table or learning model in the reverse direction perform fitting.

이때 상기 역방향 피팅부(140)는 표준의료영상 특징점 추출부(141), 특징점 좌표 변환부(142), 특징점 할당부(143)로 구성된다.In this case, the backward fitting unit 140 includes a standard medical image feature point extractor 141 , a feature point coordinate transform unit 142 , and a feature point allocator 143 .

상기 표준의료영상 특징점 추출부(141)는 상기 매칭 테이블 또는 학습모델에 상기 입력 의료영상을 적용하여, 상기 특정 신체부위에 대한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출한다.The standard medical image feature point extraction unit 141 applies the input medical image to the matching table or the learning model, and at least one feature point for the standard medical image that most closely matches the input medical image for the specific body part. to extract

상기 특징점 좌표 변환부(142)는 상기 표준의료영상 특징점 추출부(141)에서 추출한 표준의료영상의 각 특징점에 대한 좌표를 상기 입력 의료영상의 해당 좌표로 변환한다.The key point coordinate conversion unit 142 converts the coordinates of each key point of the standard medical image extracted by the standard medical image key point extraction unit 141 into corresponding coordinates of the input medical image.

상기 특징점 할당부(143)는 상기 특징점 좌표 변환부(142)에서 변환한 각 특징점에 대한 좌표로 상기 표준의료영상의 특징점을 상기 입력 의료영상의 해당 위치로 할당한다.The feature point allocator 143 allocates the feature point of the standard medical image to the corresponding position of the input medical image as coordinates for each feature point transformed by the feature point coordinate transformation unit 142 .

상기 신체 사이즈 측정부(150)는 상기 역방향 피팅부(140)를 통해서 상기 입력 의료영상에 할당된 상기 특징점을 이용하여 사용자가 원하는 특정 신체부위의 사이즈를 측정한다.The body size measuring unit 150 measures the size of a specific body part desired by the user by using the feature points allocated to the input medical image through the backward fitting unit 140 .

즉 상기 신체 사이즈 측정부(150)는 상기 입력 의료영상에 할당된 특징점간을 서로 연결하여 결합함으로써, 2차원 또는 3차원 모델링을 수행하고, 상기 수행한 2차원 또는 3차원 모델을 통해 사용자가 원하는 특정 신체부위의 사이즈를 측정하는 것이다.That is, the body size measuring unit 150 performs two-dimensional or three-dimensional modeling by connecting and combining the feature points assigned to the input medical image, and through the performed two-dimensional or three-dimensional model, the user wants It measures the size of a specific body part.

상기 측정결과 출력부(160)는 상기 신체 사이즈 측정부(150)에서 측정한 특정 신체부위의 사이즈를 상기 사용자 단말(400)로 전송하여, 사용자가 상기 사용자 단말(400)에 설치된 애플리케이션 프로그램을 통해 특정 신체부위의 사이즈를 즉시 확인할 수 있도록 한다.The measurement result output unit 160 transmits the size of a specific body part measured by the body size measurement unit 150 to the user terminal 400, and the user through the application program installed in the user terminal 400 It allows you to immediately determine the size of a specific body part.

이때 상기 특정 신체부위의 사이즈는 상기 사용자 단말(400)로 문자, 그래픽 또는 이들을 조합한 형태로 제공될 수 있다.In this case, the size of the specific body part may be provided to the user terminal 400 in the form of text, graphics, or a combination thereof.

다음에는, 이와 같이 구성된 본 발명에 따른 역방향 피팅을 통한 신체 사이즈 측정 방법의 일 실시예를 도 7과 도 8을 참조하여 상세하게 설명한다. 이때 본 발명의 방법에 따른 각 단계는 사용 환경이나 당업자에 의해 순서가 변경될 수 있다.Next, an embodiment of a method for measuring body size through reverse fitting according to the present invention configured as described above will be described in detail with reference to FIGS. 7 and 8 . At this time, the order of each step according to the method of the present invention may be changed by the environment of use or by those skilled in the art.

도 7은 본 발명의 일 실시예에 따른 역방향 피팅을 통해 신체 사이즈를 측정하는 과정을 상세하게 나타낸 순서도이다.7 is a flowchart illustrating in detail a process of measuring a body size through backward fitting according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 상기 신체 사이즈 측정 장치(100)는 네트워크를 통해 사용자 단말(400)로부터 입력 의료영상이 입력되는지를 판단하고(S110), 상기 사용자 단말(400)로부터 입력 의료영상이 입력되면, 상기 입력 의료영상이 어느 신체부위인지를 확인하고, 상기 입력 의료영상의 신체부위에 따른 매칭 테이블 또는 학습모델을 선택한다(S120).As shown in FIG. 7 , the body size measuring apparatus 100 determines whether an input medical image is input from the user terminal 400 through the network (S110), and the input medical image from the user terminal 400 is Upon input, it is checked which body part the input medical image is, and a matching table or a learning model according to the body part of the input medical image is selected (S120).

이때 상기 S120 단계의 신체부위 확인은, 사용자 인터페이스를 활용하거나 인공지능을 활용하여 확인하게 되는데, 예를 들어, 신체부위별로 나뉜 사용자 인터페이스를 통해 입력 의료영상을 해당 신체부위에 끌어다 입력하거나, 사용자가 직접 신체부위에 대한 정보를 텍스트 형태로 입력하거나, 사용자가 신체부위에 대한 리스트 중 적어도 하나 이상의 리스트를 선택하거나, 신체부위 확인용 학습모델을 통해 자동으로 확인하는 방법 등을 적용할 수 있다.In this case, the confirmation of the body part in step S120 is confirmed by using a user interface or artificial intelligence. For example, by dragging and inputting an input medical image to the corresponding body part through the user interface divided by body part, or by the user Information on body parts may be directly input in text form, a user may select at least one list from a list of body parts, or a method of automatically checking through a learning model for body part confirmation may be applied.

상기 S120 단계를 통해 상기 입력 의료영상의 신체부위에 따른 매칭 테이블 또는 학습모델을 선택한 이후, 상기 신체 사이즈 측정 장치(100)는 특정 신체부위에 대한 표준의료영상의 특징점을 입력 의료영상에 역방향으로 할당하는 역방향 피팅 단계를 수행한다.After selecting a matching table or a learning model according to the body part of the input medical image through step S120, the body size measuring apparatus 100 assigns feature points of the standard medical image for a specific body part to the input medical image in the reverse direction Perform the reverse fitting step.

상기 역방향 피팅 단계를 보다 구체적으로 설명하면, 상기 신체 사이즈 측정 장치(100)는 사용자가 제공하는 특정 신체부위에 대한 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하는 표준의료영상 특징점 추출 단계를 수행하고(S130), 상기 추출한 표준의료영상의 특징점에 대한 좌표를 상기 입력 의료영상의 해당 좌표로 변환하는 특징점 좌표 변환 단계를 수행하며(S140), 상기 변환된 좌표로 상기 특징점을 상기 입력 의료영상에 할당하는 특징점 할당 단계를 수행한다(S150).To explain the backward fitting step in more detail, the body size measuring apparatus 100 extracts at least one feature point for a standard medical image that most closely matches the input medical image for a specific body part provided by the user. The standard medical image feature point extraction step is performed (S130), and the feature point coordinate transformation step of converting the coordinates of the extracted feature points of the standard medical image to the corresponding coordinates of the input medical image is performed (S140), and the converted coordinates A keypoint assignment step of allocating the keypoint to the input medical image is performed (S150).

이때 상기 S130 단계에서 사용자가 제공하는 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 대한 특징점을 추출하는 것은, 하나의 표준의료영상에 미리 정해진 특징점과 복수의 일반 의료영상에 지정된 특징점의 매칭을 토대로 생성된 매칭 테이블 또는 학습모델을 이용하여, 상기 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상의 특징점을 찾아내는 것을 의미한다.At this time, in step S130, extracting the feature points for the standard medical image that most closely matches the input medical image provided by the user is the matching of a predetermined feature point in one standard medical image and a feature point specified in a plurality of general medical images. This means finding a feature point of a standard medical image that most closely matches the input medical image by using a matching table or a learning model generated based on the matching table.

상기 S130 단계 내지 S150 단계를 통해 역방향 피팅 단계가 수행된 이후, 상기 신체 사이즈 측정 장치(100)는 상기 입력 의료영상에 할당된 상기 특징점을 이용하여 상기 특정 신체부위의 사이즈를 측정하는 신체 사이즈 측정 단계를 수행한다(S160). 즉 상기 입력 의료영상에 할당된 특징점간을 서로 연결하여 결합함으로써, 2차원 또는 3차원 모델링을 수행하고, 상기 수행한 2차원 또는 3차원 모델을 통해 상기 특정 신체부위의 사이즈를 측정하는 것이다.After the backward fitting step is performed through steps S130 to S150, the body size measuring apparatus 100 measures the size of the specific body part using the feature points assigned to the input medical image. to perform (S160). That is, by connecting and combining the feature points assigned to the input medical image, two-dimensional or three-dimensional modeling is performed, and the size of the specific body part is measured through the performed two-dimensional or three-dimensional model.

또한 상기 신체 사이즈 측정 장치(100)는 상기 S160 단계에서 측정한 특정 신체부위의 사이즈를 네트워크를 통해 상기 사용자 단말(400)로 제공하여, 사용자가 즉시 확인할 수 있도록 한다(S170).In addition, the body size measuring apparatus 100 provides the size of the specific body part measured in step S160 to the user terminal 400 through the network, so that the user can check it immediately (S170).

한편, 상기 신체 사이즈 측정 장치(100)는 사용자가 제공하는 입력 의료영상으로부터 특정 신체부위의 사이즈를 측정할 때 사용하는 각 신체부위별 표준의료영상과 복수의 일반 의료영상의 각 특징점간의 매칭관계를 토대로 매칭 테이블 또는 학습모델을 생성하여 상기 데이터베이스(200)에 저장하여 관리하여야 하는데, 이를 도 8을 참조하여 상세하게 설명하면 다음과 같다.On the other hand, the body size measuring apparatus 100 determines the matching relationship between the standard medical images for each body part used when measuring the size of a specific body part from the input medical image provided by the user and each feature point of a plurality of general medical images. A matching table or a learning model should be created based on it, stored in the database 200, and managed, which will be described in detail with reference to FIG. 8 as follows.

도 8은 본 발명의 일 실시예에 따른 각 신체부위별 표준의료영상과 복수의 일반 의료영상의 각 특징점간의 매칭관계를 토대로 한 매칭 테이블 또는 학습모델 구축 과정을 상세하게 나타낸 순서도이다.8 is a flowchart illustrating in detail a process of constructing a matching table or learning model based on a matching relationship between a standard medical image for each body part and each feature point of a plurality of general medical images according to an embodiment of the present invention.

먼저 상기 신체 사이즈 측정 장치(100)는 상기 의료영상 제공 단말(300)로부터 각 신체부위별 표준의료영상과 복수의 일반 의료영상을 수집한다(S210).First, the body size measuring apparatus 100 collects a standard medical image for each body part and a plurality of general medical images from the medical image providing terminal 300 (S210).

이때 상기 표준의료영상은 신체부위마다 적어도 하나 이상 구비되고, 상기 표준의료영상의 특징점은 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점과 미리 매칭되어 있으며, 상기 특징점은 상기 신체부위에 대한 의료영상의 특정 지점을 나타내는 것으로, 상기 지점의 좌표, 레이블, 및 상기 좌표의 데이터값을 포함하여 나타낸다.At this time, at least one standard medical image is provided for each body part, and the feature points of the standard medical image are matched in advance with corresponding feature points of the general medical image for a plurality of corresponding body parts, and the feature points are for the body parts. It indicates a specific point on the medical image, and includes the coordinates of the point, a label, and a data value of the coordinates.

상기 S210 단계를 통해 신체부위별 복수의 일반 의료영상을 수집한 이후, 상기 신체 사이즈 측정 장치(100)는 의료 전문가를 통해 상기 수집한 일반 의료영상별로 적어도 하나 이상의 특징점을 결정하고, 상기 결정한 특징점의 레이블링을 수행한다(S220).After collecting a plurality of general medical images for each body part through step S210, the body size measuring apparatus 100 determines at least one feature point for each general medical image collected through a medical professional, and Labeling is performed (S220).

이후 상기 신체 사이즈 측정 장치(100)는 상기 표준의료영상에 미리 정해진 특징점과 상기 S220 단계를 통해 수행된 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점을 매칭하여 각 특징점간의 매칭관계를 나타내는 매칭 테이블을 생성한다(S230).Thereafter, the body size measuring apparatus 100 matches the characteristic points predetermined in the standard medical image with the corresponding characteristic points in the general medical image for a plurality of corresponding body parts performed in step S220 to indicate a matching relationship between the characteristic points. A matching table is created (S230).

상기 S230 단계의 매칭 테이블을 생성하는 것 이외에, 상기 신체 사이즈 측정 장치(100)는 신체부위마다 구비된 표준의료영상의 적어도 하나 이상의 특징점과 상기 S220 단계를 통해 수행된 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하는 학습모델 생성 단계를 수행하고(S240), 상기 생성한 학습모델을 검증하고, 상기 검증한 결과를 토대로 오차를 최소화하는 방향으로 가중치를 조정하여 상기 학습모델을 최적화한다(S250).In addition to generating the matching table of step S230, the body size measuring apparatus 100 provides at least one feature point of the standard medical image provided for each body part and general information for a plurality of corresponding body parts performed through the step S220. A learning model generation step of generating a learning model by learning the matching relationship between corresponding feature points of a medical image is performed (S240), the generated learning model is verified, and weights are weighted in a direction to minimize an error based on the verified result to optimize the learning model (S250).

이때 상기 S240 단계를 통해 학습모델을 생성할 때, 상기 신체 사이즈 측정 장치(100)는 상기 신체부위에 대한 일반 의료영상마다 지정된 특정 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성(n대1)하거나, 또는 상기 신체부위에 대한 일반 의료영상에 지정된 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 일대일로 학습하여 학습모델을 생성(1대1)할 수 있다.At this time, when generating the learning model through the step S240, the body size measuring apparatus 100 learns and learns a matching relationship between a specific feature point designated for each general medical image of the body part and a corresponding feature point of the standard medical image A model can be created (n-to-one), or a learning model can be created (one-to-one) by learning the matching relationship between the feature points specified in the general medical image for the body part and the corresponding feature points in the standard medical image on a one-to-one basis. have.

한편, 상기 신체 사이즈 측정 장치(100)는 상기 S230 단계의 매칭 테이블 생성과 상기 S240 및 S250 단계의 학습모델 생성 중 어느 하나를 선택하여 사용하거나, 2개 모두를 선택하여 사용할 수 있다.Meanwhile, the body size measuring apparatus 100 may select and use either one of the matching table generation in step S230 and the learning model generation in steps S240 and S250, or both may be selected and used.

또한 상기 신체 사이즈 측정 장치(100)는 상기 S230 단계에서 생성한 매칭 테이블 또는 상기 S240 및 S250 단계에서 생성 및 최적화한 학습모델을 상기 데이터베이스(200)로 출력하여 저장, 관리하도록 한다(S260).In addition, the body size measuring apparatus 100 outputs the matching table generated in step S230 or the learning model created and optimized in steps S240 and S250 to the database 200 to store and manage it (S260).

도 9는 본 발명의 일 실시예에 따른 신체 사이즈 측정 장치(100)의 하드웨어 구조를 나타낸 도면이다.9 is a diagram illustrating a hardware structure of an apparatus 100 for measuring body size according to an embodiment of the present invention.

도 9에 도시한 것과 같이, 상기 신체 사이즈 측정 장치(100)의 하드웨어 구조는, 중앙처리장치(1000), 메모리(2000), 사용자 인터페이스(3000), 데이터베이스 인터페이스(4000), 네트워크 인터페이스(5000), 웹서버(6000) 등을 포함하여 구성된다.As shown in FIG. 9 , the hardware structure of the body size measuring apparatus 100 includes a central processing unit 1000 , a memory 2000 , a user interface 3000 , a database interface 4000 , and a network interface 5000 . , and a web server 6000 and the like.

상기 사용자 인터페이스(3000)는 그래픽 사용자 인터페이스(GUI, graphical user interface)를 사용함으로써, 사용자에게 입력과 출력 인터페이스를 제공한다.The user interface 3000 provides an input and output interface to a user by using a graphical user interface (GUI).

상기 데이터베이스 인터페이스(4000)는 데이터베이스와 하드웨어 구조 사이의 인터페이스를 제공한다.The database interface 4000 provides an interface between a database and a hardware structure.

상기 네트워크 인터페이스(5000)는 사용자가 보유한 장치간의 네트워크 연결을 제공한다.The network interface 5000 provides a network connection between devices owned by a user.

상기 웹 서버(6000)는 사용자가 네트워크를 통해 하드웨어 구조로 액세스하기 위한 수단을 제공한다. 대부분의 사용자들은 원격에서 웹 서버로 접속하여 상기 신체 사이즈 수치화 제공 장치(100)를 사용할 수 있다.The web server 6000 provides a means for a user to access the hardware structure via a network. Most users can remotely access the web server and use the body size quantification providing apparatus 100 .

상술한 구성 또는 방법의 각 단계는, 컴퓨터 판독 가능한 기록매체 상의 컴퓨터 판독 가능 코드로 구현되거나 전송 매체를 통해 전송될 수 있다. 컴퓨터 판독 가능한 기록매체는, 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터를 저장할 수 있는 데이터 저장 디바이스이다.Each step of the above-described configuration or method may be implemented as computer-readable code on a computer-readable recording medium or transmitted through a transmission medium. The computer-readable recording medium is a data storage device capable of storing data that can be read by a computer system.

컴퓨터 판독 가능한 기록매체의 예로는 데이터베이스, ROM, RAM, CD-ROM, DVD, 자기 테이프, 플로피 디스크 및 광학 데이터 저장 디바이스가 있으나 이에 한정되는 것은 아니다. 전송매체는 인터넷 또는 다양한 유형의 통신 채널을 통해 전송되는 반송파를 포함할 수 있다.Examples of computer-readable recording media include, but are not limited to, databases, ROMs, RAMs, CD-ROMs, DVDs, magnetic tapes, floppy disks, and optical data storage devices. The transmission medium may include a carrier wave transmitted through the Internet or various types of communication channels.

또한 컴퓨터 판독 가능한 기록매체는, 컴퓨터 판독 가능 코드가 분산 방식으로 저장되고, 실행되도록 네트워크 결합 컴퓨터 시스템을 통해 분배될 수 있다.In addition, the computer readable recording medium may be distributed through a network coupled computer system so that the computer readable code is stored and executed in a distributed manner.

또한 본 발명에 적용된 적어도 하나 이상의 구성요소는, 각각의 기능을 수행하는 중앙처리장치(CPU), 마이크로프로세서 등과 같은 프로세서를 포함하거나 이에 의해 구현될 수 있으며, 상기 구성요소 중 둘 이상은 하나의 단일 구성요소로 결합되어 결합된 둘 이상의 구성요소에 대한 모든 동작 또는 기능을 수행할 수 있다.In addition, at least one or more components applied to the present invention may include or be implemented by a processor such as a central processing unit (CPU), a microprocessor, etc. that perform each function, and two or more of the components are one single It may be combined as a component to perform any operation or function for two or more combined components.

또한 본 발명에 적용된 적어도 하나 이상의 구성요소의 일부는, 이들 구성요소 중 다른 구성요소에 의해 수행될 수 있다. 또한 상기 구성요소들간의 통신은 버스(미도시)를 통해 수행될 수 있다.In addition, a part of at least one or more components applied to the present invention may be performed by other components among these components. In addition, communication between the components may be performed through a bus (not shown).

이처럼, 특정 병변을 확인하거나 찾아내기 위하여 사용자가 제공한 의료영상에서 특징점을 추출하고 이를 표준의료영상에 순방향으로 매칭하는 방식과 다르게, 본 발명은 사용자가 제공하는 입력 의료영상과 가장 근접하게 매칭되는 표준의료영상에 미리 정해진 특징점을 상기 입력 의료영상에 역방향으로 할당하는 역방향 피팅을 통해서, 사용자의 의료영상으로부터 특징점을 빠르고 정확하게 확인할 수 있으며, 상기 특징점을 토대로 사용자의 의료영상으로부터 원하는 신체부위의 사이즈를 간편하게 측정할 수 있다.In this way, unlike the method of extracting feature points from the medical image provided by the user in order to identify or find a specific lesion and matching it in the forward direction with the standard medical image, the present invention provides a method that most closely matches the input medical image provided by the user. Through reverse fitting in which a predetermined feature point is assigned to the standard medical image in the reverse direction to the input medical image, the feature point can be quickly and accurately identified from the user's medical image, and the size of a desired body part from the user's medical image is determined based on the feature point It can be measured easily.

또한 본 발명은 각 사용자들에게 맞춤형 제품을 제작하여 제공할 수 있으므로, 사용자의 제품 만족도를 높일 수 있으며, 매출 향상 및 재고 관리를 용이하게 수행할 수 있다.In addition, since the present invention can produce and provide customized products to each user, the user's product satisfaction can be increased, and sales improvement and inventory management can be easily performed.

이상에서와 같이 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 판단되어야 할 것이다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those of ordinary skill in the art can make various modifications and equivalent other embodiments therefrom. You will understand that it is possible. Therefore, the technical protection scope of the present invention should be determined by the following claims.

100 : 신체 사이즈 측정 장치 110 : 매칭 테이블 생성부
120 : 학습모델 생성부 130 : 매칭 테이블 또는 학습모델 선택부
140 : 역방향 피팅부 141 : 표준의료영상 특징점 추출부
142 : 특징점 좌표 변환부 143 : 특징점 할당부
150 : 신체 사이즈 측정부 160 : 측정결과 출력부
200 : 데이터베이스 300 : 의료영상 제공 단말
400 : 사용자 단말
100: body size measuring device 110: matching table generating unit
120: learning model generation unit 130: matching table or learning model selection unit
140: reverse fitting unit 141: standard medical image feature point extraction unit
142: feature point coordinate conversion unit 143: feature point allocator
150: body size measurement unit 160: measurement result output unit
200: database 300: medical image providing terminal
400: user terminal

Claims (12)

특정 신체부위에 대한 입력 의료영상에 가장 근접한 표준의료영상의 미리 정해진 특정 지점을 나타내는 특징점을 추출하도록 구성되며, 상기 표준의료영상의 미리 정해진 특정 지점을 나타내는 특징점을 상기 입력 의료영상에 할당함으로써 역방향 피팅을 수행하도록 구성되는 역방향 피팅부; 및
상기 역방향 피팅에 의해 상기 입력 의료영상에 할당된 상기 특징점의 특정 지점에 대한 좌표를 이용하여, 상기 특정 신체부위의 사이즈를 측정하도록 구성되는 신체 사이즈 측정부;를 포함하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 장치.
configured to extract a feature point indicating a predetermined specific point of the standard medical image closest to the input medical image for a specific body part, and backward fitting by allocating the feature point indicating a predetermined specific point of the standard medical image to the input medical image a reverse fitting unit configured to perform; and
a body size measuring unit configured to measure the size of the specific body part by using the coordinates of the specific point of the feature point assigned to the input medical image by the backward fitting; body size measurement device.
청구항 1에 있어서,
상기 역방향 피팅부는,
상기 입력 의료영상과 가장 근접하게 매칭되는 하나의 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하도록 구성되는 표준의료영상 특징점 추출부;
상기 추출한 표준의료영상에 대한 적어도 하나 이상의 특징점에 대한 좌표를 상기 입력 의료영상의 해당 좌표로 변환하도록 구성되는 특징점 좌표 변환부; 및
상기 변환한 좌표로 상기 표준의료영상의 특징점을 상기 입력 의료영상에 할당하도록 구성되는 특징점 할당부;를 포함하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 장치.
The method according to claim 1,
The reverse fitting part,
a standard medical image feature point extraction unit configured to extract at least one feature point for one standard medical image that most closely matches the input medical image;
a feature point coordinate converter configured to convert coordinates of at least one feature point of the extracted standard medical image into corresponding coordinates of the input medical image; and
and a feature point allocator configured to allocate the feature point of the standard medical image to the input medical image using the converted coordinates.
청구항 1에 있어서,
상기 표준의료영상은,
상기 신체부위마다 적어도 하나 이상 구비되며,
상기 표준의료영상의 미리 정해진 특정 지점을 나타내는 특징점은,
상기 특정 지점의 레이블 및 상기 좌표의 데이터값을 더 포함하며, 복수의 해당 신체부위에 대한 의료영상의 대응하는 특징점과 미리 매칭되어 있는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 장치.
The method according to claim 1,
The standard medical image is
At least one is provided for each body part,
The feature point indicating a predetermined specific point of the standard medical image is,
The apparatus for measuring body size through backward fitting, characterized in that it further includes a label of the specific point and data values of the coordinates, and is matched in advance with corresponding feature points of a medical image for a plurality of corresponding body parts.
청구항 1에 있어서,
상기 신체 사이즈 측정 장치는,
신체부위마다 구비된 표준의료영상의 적어도 하나 이상의 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하고, 상기 생성한 학습모델을 데이터베이스에 저장하여 관리하도록 구성되는 학습모델 생성부;를 더 포함하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 장치.
The method according to claim 1,
The body size measuring device,
A learning model is generated by learning the matching relationship between at least one feature point of a standard medical image provided for each body part and a corresponding feature point of a general medical image for a plurality of corresponding body parts, and the generated learning model is stored in a database. Body size measuring device through reverse fitting, characterized in that it further comprises; learning model generation unit configured to manage.
청구항 4에 있어서,
상기 학습모델 생성부는,
상기 신체부위에 대한 일반 의료영상마다 각각 지정된 특정 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하거나, 또는
상기 신체부위에 대한 일반 의료영상에 지정된 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 일대일로 학습하여 학습모델을 생성하도록 구성되는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 장치.
5. The method according to claim 4,
The learning model generation unit,
A learning model is generated by learning a matching relationship between a specific feature point designated for each general medical image of the body part and a corresponding feature point of the standard medical image, or
The apparatus for measuring body size through reverse fitting, characterized in that it is configured to generate a learning model by one-to-one learning a matching relationship between a feature point specified in a general medical image for the body part and a corresponding feature point of the standard medical image.
청구항 1에 있어서,
상기 신체 사이즈 측정부는,
상기 입력 의료영상에 역방향 피팅에 의해 할당된 특징점의 특정 지점에 대한 좌표를 서로 연결하여 결합함으로써, 2차원 또는 3차원 모델링을 수행하고, 상기 모델링을 수행한 2차원 또는 3차원 모델을 통해 상기 특정 신체부위의 사이즈를 측정하도록 구성되는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 장치.
The method according to claim 1,
The body size measurement unit,
2D or 3D modeling is performed by connecting and combining the coordinates of specific points of the feature points assigned by backward fitting to the input medical image, and the specific through the 2D or 3D model on which the modeling is performed A device for measuring body size through backward fitting, characterized in that it is configured to measure the size of a body part.
신체 사이즈 측정 장치에서, 특정 신체부위에 대한 입력 의료영상에 가장 근접한 표준의료영상의 미리 정해진 특정 지점을 나타내는 특징점을 추출하며, 상기 표준의료영상의 미리 정해진 특정 지점을 나타내는 특징점을 상기 입력 의료영상에 할당함으로써 역방향 피팅을 수행하는 역방향 피팅 단계; 및
상기 역방향 피팅에 의해 상기 입력 의료영상에 할당된 상기 특징점의 특정 지점에 대한 좌표를 이용하여, 상기 특정 신체부위의 사이즈를 측정하는 신체 사이즈 측정 단계;를 포함하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 방법.
In the body size measuring apparatus, a feature point indicating a predetermined specific point of the standard medical image closest to the input medical image for a specific body part is extracted, and the feature point indicating a predetermined specific point of the standard medical image is added to the input medical image. a backward fitting step of performing backward fitting by assigning; and
body size measurement step of measuring the size of the specific body part by using the coordinates of the specific point of the feature point assigned to the input medical image by the backward fitting; How to measure your size.
청구항 7에 있어서,
상기 역방향 피팅 단계는,
상기 입력 의료영상과 가장 근접하게 매칭되는 하나의 표준의료영상에 대한 적어도 하나 이상의 특징점을 추출하는 표준의료영상 특징점 추출 단계;
상기 추출한 표준의료영상에 대한 적어도 하나 이상의 특징점에 대한 좌표를 상기 입력 의료영상의 해당 좌표로 변환하는 특징점 좌표 변환 단계; 및
상기 변환한 좌표로 상기 표준의료영상의 특징점을 상기 입력 의료영상에 할당하는 특징점 할당 단계;를 포함하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 방법.
8. The method of claim 7,
The reverse fitting step is
a standard medical image feature point extraction step of extracting at least one feature point for one standard medical image that most closely matches the input medical image;
a feature point coordinate transformation step of converting coordinates of at least one feature point of the extracted standard medical image into corresponding coordinates of the input medical image; and
and a feature point assignment step of allocating feature points of the standard medical image to the input medical image using the converted coordinates.
청구항 7에 있어서,
상기 표준의료영상은,
상기 신체부위마다 적어도 하나 이상 구비되며,
상기 표준의료영상의 미리 정해진 특정 지점을 나타내는 특징점은,
상기 특정 지점의 레이블 및 상기 좌표의 데이터값을 더 포함하며, 복수의 해당 신체부위에 대한 의료영상의 대응하는 특징점과 미리 매칭되어 있는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 방법.
8. The method of claim 7,
The standard medical image is
At least one is provided for each body part,
The feature point indicating a predetermined specific point of the standard medical image is,
The method for measuring body size through backward fitting, characterized in that it further includes a label of the specific point and a data value of the coordinates, and is matched in advance with corresponding feature points of a medical image for a plurality of corresponding body parts.
청구항 7에 있어서,
상기 신체 사이즈 측정 방법은,
신체부위마다 구비된 표준의료영상의 적어도 하나 이상의 특징점과 복수의 해당 신체부위에 대한 일반 의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하고, 상기 생성한 학습모델을 데이터베이스에 저장하여 관리하도록 하는 학습모델 생성 단계;를 더 포함하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 방법.
8. The method of claim 7,
The method of measuring the body size,
A learning model is generated by learning the matching relationship between at least one feature point of a standard medical image provided for each body part and a corresponding feature point of a general medical image for a plurality of corresponding body parts, and the generated learning model is stored in a database. A method of measuring body size through backward fitting, characterized in that it further comprises; generating a learning model to manage it.
청구항 10에 있어서,
상기 학습모델 생성 단계는,
상기 신체부위에 대한 일반 의료영상마다 각각 지정된 특정 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 학습하여 학습모델을 생성하거나, 또는
상기 신체부위에 대한 일반 의료영상에 지정된 특징점과 상기 표준의료영상의 대응하는 특징점간의 매칭관계를 일대일로 학습하여 학습모델을 생성하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 방법.
11. The method of claim 10,
The learning model creation step is,
A learning model is generated by learning a matching relationship between a specific feature point designated for each general medical image of the body part and a corresponding feature point of the standard medical image, or
A method for measuring body size through reverse fitting, characterized in that a learning model is generated by one-to-one learning of a matching relationship between a feature point specified in a general medical image for the body part and a corresponding feature point of the standard medical image.
청구항 7에 있어서,
상기 신체 사이즈 측정 단계는,
상기 입력 의료영상에 역방향 피팅에 의해 할당된 특징점의 특정 지점에 대한 좌표를 서로 연결하여 결합함으로써, 2차원 또는 3차원 모델링을 수행하고, 상기 모델링을 수행한 2차원 또는 3차원 모델을 통해 상기 특정 신체부위의 사이즈를 측정하는 것을 특징으로 하는 역방향 피팅을 통한 신체 사이즈 측정 방법.
8. The method of claim 7,
The body size measurement step is,
2D or 3D modeling is performed by connecting and combining the coordinates of specific points of the feature points assigned by backward fitting to the input medical image, and the specific through the 2D or 3D model on which the modeling is performed A method of measuring body size through reverse fitting, characterized in that the size of the body part is measured.
KR1020200013241A 2020-02-04 2020-02-04 Apparatus for measuring body size through reverse direction fitting and method thereof KR102351373B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200013241A KR102351373B1 (en) 2020-02-04 2020-02-04 Apparatus for measuring body size through reverse direction fitting and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200013241A KR102351373B1 (en) 2020-02-04 2020-02-04 Apparatus for measuring body size through reverse direction fitting and method thereof

Publications (2)

Publication Number Publication Date
KR20210099411A KR20210099411A (en) 2021-08-12
KR102351373B1 true KR102351373B1 (en) 2022-01-14

Family

ID=77314438

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200013241A KR102351373B1 (en) 2020-02-04 2020-02-04 Apparatus for measuring body size through reverse direction fitting and method thereof

Country Status (1)

Country Link
KR (1) KR102351373B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230017640A (en) 2021-07-28 2023-02-06 주식회사 애스톤사이언스 HER2 vaccine composition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740464B1 (en) 2016-10-20 2017-06-08 (주)제이엘케이인스펙션 Method and system for diagnosis and prognosis of stroke and systme therefor
KR101825719B1 (en) 2017-08-21 2018-02-06 (주)제이엘케이인스펙션 Brain image processing method and matching method and apparatus between clinical brain image and standard brain image using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040102603A (en) * 2003-05-28 2004-12-08 학교법인 한양학원 A Method For Evaluation of Skeletal Malformation Using Geographic Characteristic Value Definition of TW2 image
KR101995411B1 (en) * 2017-12-14 2019-07-02 주식회사 아이미마인 Device and method for making body model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740464B1 (en) 2016-10-20 2017-06-08 (주)제이엘케이인스펙션 Method and system for diagnosis and prognosis of stroke and systme therefor
KR101825719B1 (en) 2017-08-21 2018-02-06 (주)제이엘케이인스펙션 Brain image processing method and matching method and apparatus between clinical brain image and standard brain image using the same

Also Published As

Publication number Publication date
KR20210099411A (en) 2021-08-12

Similar Documents

Publication Publication Date Title
US10734107B2 (en) Image search device, image search method, and image search program
JP2017532092A (en) System and method for segmenting medical images based on anatomical landmark-based features
US20140037160A1 (en) Image Processing Apparatus
US11151785B2 (en) Finite element modeling of anatomical structure
KR20190103926A (en) Apparatus for spatial normalization of medical image using deep learning and method thereof
TW201426620A (en) Health check path evaluation indicator building system, method thereof, device therewith, and computer program product therein
CN110164545A (en) Data aid in treatment method, apparatus, computer equipment and storage medium
US20220262471A1 (en) Document creation support apparatus, method, and program
KR102351373B1 (en) Apparatus for measuring body size through reverse direction fitting and method thereof
CN109256205A (en) Method and system for the clinical decision support carried out using local and remote analytics
CN114387317A (en) CT image and MRI three-dimensional image registration method and device
CN114078593A (en) Clinical decision support
US20220076829A1 (en) Method and apparatus for analyzing medical image data in a latent space representation
JP7007469B2 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
CN114998816B (en) Case improvement method and device based on skeleton AI video and storage medium
KR102342990B1 (en) Apparatus and method for quantifying body size from medical image and providing thereof
JP2017189394A (en) Information processing apparatus and information processing system
EP3270308B9 (en) Method for providing a secondary parameter, decision support system, computer-readable medium and computer program product
CN114241198A (en) Method, device, equipment and storage medium for obtaining local imagery omics characteristics
JP2020190913A (en) Image-reading supporting device and method for supporting image-reading
KR102374275B1 (en) Method and apparatus for measuring body size by matching medical images with different modalities
KR102382680B1 (en) Apparatus and method for predicting body style and weight component ratio through medical image
EP4339961A1 (en) Methods and systems for providing a template data structure for a medical report
JP6949256B2 (en) Dose error determination device
US20240062857A1 (en) Systems and methods for visualization of medical records

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant