KR101938361B1 - Method and program for predicting skeleton state by the body ouline in x-ray image - Google Patents

Method and program for predicting skeleton state by the body ouline in x-ray image Download PDF

Info

Publication number
KR101938361B1
KR101938361B1 KR1020170126888A KR20170126888A KR101938361B1 KR 101938361 B1 KR101938361 B1 KR 101938361B1 KR 1020170126888 A KR1020170126888 A KR 1020170126888A KR 20170126888 A KR20170126888 A KR 20170126888A KR 101938361 B1 KR101938361 B1 KR 101938361B1
Authority
KR
South Korea
Prior art keywords
image
skeleton
ray image
evaluation index
data
Prior art date
Application number
KR1020170126888A
Other languages
Korean (ko)
Inventor
강승철
Original Assignee
재단법인 아산사회복지재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020170126888A priority Critical patent/KR101938361B1/en
Application granted granted Critical
Publication of KR101938361B1 publication Critical patent/KR101938361B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • G06K9/6204
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computational Linguistics (AREA)
  • Dentistry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Quality & Reliability (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

The present invention relates to a method and a program for predicting a skeleton state based on a body outline in an X-ray image which can predict a skeleton state without visiting a hospital. According to an embodiment of the present invention, the method for predicting a skeleton state based on a body outline in an X-ray image comprises: a skeleton evaluation index calculation step (S600) of learning, by a computer, big data based on a plurality of X-ray image data to calculate a skeleton evaluation index in accordance with a body image, wherein the big data is constructed by storing a skeleton image and a body image extracted from the X-ray image data, and the body image is a body outline included in the X-ray image; a step (S800) of receiving a body photographing image of a specific test subject from a user client; and a step (S1000) of applying the skeleton evaluation index to the body photographing image to calculate a skeleton state.

Description

X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법 및 프로그램{METHOD AND PROGRAM FOR PREDICTING SKELETON STATE BY THE BODY OULINE IN X-RAY IMAGE}METHOD AND PROGRAM FOR PREDICTING SKELETON STATE BY THE BODY OUTPUT IN X-RAY IMAGE < RTI ID = 0.0 >

본 발명은 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법 및 프로그램에 관한 것이다.The present invention relates to a method and a program for predicting a skeletal state based on a body contour in an X-ray image.

성장하면서 바르지 않은 자세에 의해 체형이 비정상적으로 변하는 경우가 많이 발생한다. 골격이 비정상적으로 변함에 따라 외부로 보이는 체형이 변하게 된다. 척추측만증이나 휜다리 환자가 성장기에 많이 발생하게 되고, 초기에 확인이 되지 않으면 교정에 어려움이 있다.The body shape changes abnormally due to the improper posture while growing. As the skeleton changes abnormally, the external appearance of the body changes. Patients with scoliosis or scarring tend to develop during the growing season, and difficulties in correcting if they are not confirmed early.

그러나 골격에 이상이 있는지 판단하기 위해서는 병원에 내원하여 X선 촬영을 하여야 하나, 자주 내원하여 X선 영상 촬영을 수행하는데에는 어려움이 있다. 따라서, X선 영상 촬영이 없이 골격 상태를 예측하여 사용자(즉, 소아의 부모)에게 안내하여 줄 수 있는 방법이 필요하다.However, in order to determine whether there is an abnormality in the skeleton, it is necessary to visit the hospital to perform X-ray imaging, but it is difficult to perform X-ray imaging frequently. Therefore, there is a need for a method that can predict the skeletal state without X-ray imaging and guide the user (i.e., the parent of the child).

기존에는 환자의 신체에서 특징점을 추출하고, 특징점을 연결한 선 사이의 각도를 기반으로 체형을 분석하는 방식을 사용하였다. 그러나, 특징점 추출이 정확하지 않으면 예측 결과가 부정확할 수 있으며, 제한적인 개수의 특징점으로 체형의 세부적인 차이를 파악하는데에는 어려움이 있다.In the past, the feature points were extracted from the patient 's body, and the body shape was analyzed based on the angle between the lines connecting the feature points. However, if the feature point extraction is not accurate, the prediction result may be inaccurate, and it is difficult to grasp the detailed difference of the body shape with a limited number of feature points.

본 발명은 X선 영상 내의 골격이미지와 신체 윤곽선을 기계학습알고리즘으로 학습하여 생성된 골격 상태평가지표를 검사대상자의 신체를 카메라로 촬영한 이미지에 적용하여, 병원에 내원하지 않고 골격 상태를 예측할 수 있는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법 및 프로그램을 제공하고자 한다.The present invention applies skeleton image and body contour lines in an X-ray image to machine-learning algorithms and applies the skeletal state evaluation index to an image of a body of a subject to be imaged by a camera to predict a skeletal state And a program for predicting a skeletal state based on a body contour line in an X-ray image.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명의 일실시예에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법은, 컴퓨터가 복수의 X선 영상데이터를 획득하는 단계; 컴퓨터가 X선 영상데이터에서 추출된 골격이미지와 체형이미지를 저장하여 빅데이터를 구축하는 단계; 상기 빅데이터를 학습하여, 체형이미지에 따른 골격 평가지표를 산출하는 단계; 사용자 클라이언트로부터 특정한 검사대상자에 대한 신체 촬영 영상을 수신하되, 상기 신체 촬영 영상은 상기 사용자 클라이언트에 구비된 카메라로 촬영되는 것인, 신체 촬영 영상수신단계; 및 상기 신체 촬영 영상에 상기 골격 평가지표를 적용하여 골격 상태를 산출하는 단계;를 포함하되, 상기 체형이미지는 상기 X선 영상 내에 포함된 신체 윤곽선이다.According to an embodiment of the present invention, there is provided a method of predicting a skeleton state based on a body contour in an X-ray image, the method comprising: acquiring a plurality of X- The computer storing the skeleton image and the body image extracted from the X-ray image data to construct big data; Learning the big data to calculate a skeleton evaluation index according to a body image; A body imaging image receiving step of receiving a body imaging image of a specific examining subject from a user client, wherein the body imaging image is imaged by a camera provided in the user client; And calculating a skeletal state by applying the skeletal evaluation index to the body image, wherein the body image is a body contour included in the X-ray image.

또한, 다른 일실시예로, 상기 골격 평가지표 산출단계는, 심층신경망을 이용한 딥러닝 알고리즘 기반으로 상기 빅데이터의 분석을 수행하는 것을 특징으로 한다.According to another embodiment of the present invention, the skeleton evaluation index calculation step is characterized in that the analysis of the big data is performed based on a deep learning algorithm using a depth neural network.

또한, 다른 일실시예로, 상기 신체 촬영 영상을 상기 골격 평가지표에 적용 가능한 상태로 보정하는 단계;를 더 포함한다.Further, in another embodiment, the method further includes correcting the body image to be applicable to the skeletal evaluation index.

또한, 다른 일실시예로, 상기 사용자 클라이언트는, 상기 골격 평가지표를 적용하기 위한 신체 촬영 기준을 화면상에 유저인터페이스로 표시하는 것을 특징으로 한다.According to another embodiment of the present invention, the user client displays a body photographing standard for applying the skeleton evaluation index on a screen using a user interface.

또한, 다른 일실시예로, 상기 X선 영상데이터수신단계는, 촬영대상자의 신체조건을 수신하여 상기 X선 영상데이터와 매칭하고, 상기 골격 평가지표 산출단계는, 상기 체형이미지 및 상기 골격이미지와 함께 상기 신체조건을 학습하여 골격 평가지표를 산출하고, 상기 신체 촬영 영상수신단계는, 상기 사용자 클라이언트로부터 사용자의 신체조건을 수신하고, 상기 골격 상태 산출단계는, 상기 신체조건 및 상기 X선 영상데이터에 상기 골격평가기준을 적용한다.According to another embodiment, the X-ray image data receiving step receives the body condition of the person to be photographed and matches the X-ray image data with the X-ray image data, and the skeleton evaluation index calculating step calculates the skeleton evaluation index using the body- And the skeletal state calculating step calculates the skeleton evaluation index by learning the body condition together, and the body image receiving step receives the user's body condition from the user client, and the skeleton state calculating step includes: The above skeletal evaluation standard is applied.

또한, 다른 일실시예로, 상기 검사대상자에 대한 X선 영상데이터가 신규로 획득되면, 상기 신체 촬영 영상과 상기 X선 영상데이터를 비교하는 단계; 및 비교결과를 학습모델에 반영하여 정교화하는 단계;를 더 포함한다.According to another embodiment of the present invention, the method may further include comparing the body image with the X-ray image data when the X-ray image data for the examinee is newly acquired; And refining the comparison result by reflecting it on the learning model.

또한, 다른 일실시예로, 상기 골격 평가지표 산출단계는, 상기 X선 영상데이터에 포함된 복수의 신체부위별로 골격이미지와 체형이미지를 학습하여, 신체부위별 골격 평가지표를 산출하는 것을 특징으로 한다.According to another embodiment, the skeleton evaluation index calculating step may include calculating a skeleton evaluation index for each body part by learning a skeleton image and a body shape image for each of a plurality of body parts included in the X-ray image data, do.

또한, 다른 일실시예로, 상기 골격 상태를 기반으로 교정자세 정보를 산출하여 상기 사용자 클라이언트로 제공하는 단계;를 더 포함한다.According to another embodiment of the present invention, the method further includes the step of calculating correction posture information based on the skeletal state and providing the corrected posture information to the user client.

본 발명의 다른 일실시예에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 언급된 딥러닝 기반의 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법을 실행하며, 매체에 저장된다.The skeleton state prediction program based on the body contour based on the X-ray image according to another embodiment of the present invention executes the skeleton state prediction method based on the body contour based on the deep learning based X-ray image combined with the hardware computer And stored in the medium.

상기와 같은 본 발명에 따르면, 병원에 내원하지 않은 상태에서 환자의 골격 상태를 예측하여 안내할 수 있다. 즉, 골격 상태에 영향을 받는 신체윤곽을 기반으로 골격 상태를 예측하므로, 사용자에게 검사대상자의 골격 상태가 비정상인지를 예측 결과를 알려주어서 병원 내원하여 X선 영상 촬영을 통해 정확한 진단이 필요한지 제시할 수 있다.According to the present invention as described above, it is possible to predict and guide the skeletal state of the patient in a state in which the hospital is not desired. In other words, since the skeletal state is predicted based on the body contour affected by the skeletal state, the user is informed of the abnormality of the skeletal state of the examinee, .

도 1은 본 발명의 일실시예에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법에 대한 순서도이다.
도 2는 본 발명의 일실시예에 따른 정상인과 척추측만증 환자의 X선 영상데이터와 체형이미지를 나타낸 예시도면이다.
도 3는 본 발명의 일실시예에 따른 정상인과 휜다리 환자의 X선 영상데이터 기반으로 골격이미지를 비교한 예시도면이다.
도 4는 본 발명의 일실시예에 따라 사용자 클라이언트에서 획득된 신체 촬영 영상 및 신체 촬영 영상에서 추출된 신체 윤곽선 이미지를 나타낸 도면이다.
도 5는 본 발명의 일실시예로서, 검사대상자에 대한 신규 X선 영상데이터를 기반으로 학습모델을 정교화하는 과정을 더 포함하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법에 대한 순서도이다.
도 6은 본 발명의 일실시예로서, 골격 상태를 기반으로 자세 교정 정보를 제공하는 과정을 더 포함하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법에 대한 순서도이다.
도 7은 본 발명의 일실시예에 따른 컴퓨터에 의한 학습대상데이터 구축과정을 더 포함하는 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법에 대한 순서도이다.
FIG. 1 is a flowchart of a skeletal state predicting method based on a body contour in an X-ray image according to an exemplary embodiment of the present invention.
2 is an exemplary view showing X-ray image data and a body image of a normal person and a scoliosis patient according to an embodiment of the present invention.
FIG. 3 is an exemplary diagram comparing skeleton images based on X-ray image data of a normal person and a swinging patient according to an embodiment of the present invention.
4 is a view showing a body image obtained from a user client and a body contour image extracted from a body image according to an embodiment of the present invention.
5 is a flowchart illustrating a skeletal state predicting method based on body contours in an X-ray image, which further includes a step of refining a learning model based on new X-ray image data of a subject to be examined .
FIG. 6 is a flowchart illustrating a skeleton state predicting method based on a body contour in an X-ray image, which further includes a process of providing posture correction information based on a skeletal state, according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a skeleton state predicting method based on a body contour in an X-ray image, which further includes a step of constructing learning object data by a computer according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 시각적으로 제시할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 다양한 클라이언트 컴퓨터와 연결되는 서버 컴퓨터가 해당될 수 있다. 또한, 컴퓨터는 복수의 컴퓨팅 장치가 결합된 것일 수도 있다.The term " computer " as used herein includes various devices capable of performing arithmetic processing to visually present results to a user. For example, the computer may be a smart phone, a tablet PC, a cellular phone, a personal communication service phone (PCS phone), a synchronous / asynchronous A mobile terminal of IMT-2000 (International Mobile Telecommunication-2000), a Palm Personal Computer (PC), a personal digital assistant (PDA), and the like. In addition, the computer may be a server computer connected to various client computers. Further, the computer may be a combination of a plurality of computing devices.

본 명세서에서 'X선 영상데이터'는 X선 촬영을 통해 획득된 영상데이터를 의미한다.In the present specification, 'X-ray image data' means image data obtained through X-ray imaging.

본 명세서에서 '골격이미지(10)'는 X선 영상 내에서 골격 부분을 추출한 이미지를 의미한다. '골격이미지(10)'는 골격 영역만을 추출하여 생성된 이미지일 수도 있고, 골격의 경계선이 식별된 X선 영상데이터일 수도 있다.In the present specification, 'skeleton image (10)' refers to an image obtained by extracting a skeleton part in an X-ray image. The 'skeleton image 10' may be an image generated by extracting only a skeleton area, or may be X-ray image data in which a skeleton boundary is identified.

본 명세서에서 '체형이미지(20)'는 X선 영상 내에 포함된 신체 윤곽선이다.In the present specification, the 'body image (20)' is a body contour included in the X-ray image.

본 명세서에서 '신체 촬영 영상(30)'은 사용자 클라이언트를 이용하여 검사대상자의 신체를 촬영한 이미지를 의미한다.In the present specification, the 'body image 30' refers to an image of a body of a person to be inspected using a user client.

본 명세서에서 '사용자 클라이언트'는 카메라를 통해 이미지를 촬영하고 컴퓨터로 촬영된 이미지를 전송할 수 있는 모든 장치를 의미한다.As used herein, the term " user client " refers to any device capable of capturing an image through a camera and transmitting an image captured by a computer.

본 명세서에서 '촬영대상자'는 X선 영상이 촬영된 환자를 의미한다.In this specification, the term "subject to be photographed" means a patient who has taken an X-ray image.

본 명세서에서 '검사대상자'는 신체 촬영 영상이 촬영되는 대상자를 의미한다.In the present specification, the term 'subject to be examined' refers to a subject to which a body image is photographed.

이하. 본 발명의 실시예들에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법에 대한 상세한 설명을 기술한다.Below. A detailed description of a skeletal state predicting method based on body contour lines in an X-ray image according to embodiments of the present invention will be described.

도 1은 본 발명의 일실시예에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법에 대한 순서도이다.FIG. 1 is a flowchart of a skeletal state predicting method based on a body contour in an X-ray image according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법은, 컴퓨터가 복수의 X선 영상데이터 기반의 빅데이터를 학습하여, 체형이미지에 따른 골격 평가지표를 산출하는골격 평가지표 단계(S600; 골격 평가지표 산출단계); 사용자 클라이언트로부터 특정한 검사대상자에 대한 신체 촬영 영상(30)을 수신하는 단계(S800); 및 상기 신체 촬영 영상(30)에 상기 골격 평가지표를 적용하여 골격 상태를 산출하는 단계(S1000);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기재한다.Referring to FIG. 1, a skeleton state predicting method based on a body contour line in an X-ray image according to an embodiment of the present invention is a method in which a computer learns big data based on a plurality of X- A skeleton evaluation index step (S600; skeleton evaluation index calculation step) for calculating an index; A step (S800) of receiving a body imaging image (30) for a specific examinee from a user client; And calculating a skeletal state by applying the skeleton evaluation index to the body image (S1000). Hereinafter, a detailed description of each step will be described.

컴퓨터가 복수의 X선 영상데이터 기반의 빅데이터를 학습하여, 체형이미지에 따른 골격 평가지표를 산출한다(S600; 골격 평가지표 산출단계). 상기 빅데이터는 복수의 X선 영상데이터에서 추출된 골격이미지와 체형이미지를 저장하여 구축된 것이다. 구체적으로, 도 2에서와 같이, 상기 X선 영상데이터는 촬영대상자의 골격이미지(10)와 X선이 신체를 투과함에 따라 X선 영상 내에 생성되는 체형 윤곽선인 체형이미지(20)를 포함하므로, 상기 빅데이터는 X선 영상데이터에서 추출되는 골격이미지(10)와 체형이미지(20)를 매칭하여 저장한 것이다. 빅데이터(즉, 학습대상데이터)는 컴퓨터가 직접 X선 영상데이터를 기반으로 구축할 수도 있고, 별도 서버에서 구축된 X선 영상데이터 기반의 빅데이터를 이용할 수도 있다.The computer learns big data based on a plurality of X-ray image data, and calculates a skeleton evaluation index according to the body image (S600; skeleton evaluation index calculation step). The big data is constructed by storing a skeleton image and a body image extracted from a plurality of X-ray image data. 2, the X-ray image data includes a skeleton image 10 of a subject to be photographed and a body image 20 which is a body contour line generated in the X-ray image as an X-ray is transmitted through the body, The big data is obtained by matching the skeleton image 10 and the body image 20 extracted from the X-ray image data. The big data (that is, the data to be learned) can be constructed by the computer directly based on the X-ray image data, or the big data based on the X-ray image data constructed in the separate server.

복수의 X선 영상데이터를 기반으로 빅데이터를 구축하는 과정의 일실시예로, 컴퓨터가 이미지 프로세싱을 통해 X선 영상데이터 내의 체형 윤곽선을 추출하고, X선 영상데이터 내에 포함된 골격이미지(10)를 추출하여 빅데이터(즉, 학습대상데이터)를 구축한다. 컴퓨터는 복수의 X선 영상데이터에 대해 골격이미지(10)와 체형이미지(20)를 매칭하여 학습을 위한 학습대상데이터로 형성하여 데이터셋(Dataset)을 구축한다.In one embodiment of the process of constructing the big data based on a plurality of X-ray image data, the computer extracts body contour lines in the X-ray image data through image processing, and the skeleton image 10 included in the X- (I.e., learning target data). The computer constructs a data set by matching the skeleton image 10 and the body image 20 with a plurality of X-ray image data to form learning target data for learning.

구체적으로, 척추 골격이 정상적인 환자(도 2(a) 참조)의 신체 윤곽선인 체형이미지(20)는 양쪽이 대칭적이지만, 척추측만증이 있는 환자(특히, 소아 환자)(도 2(b) 참조)는 휘어진 척추 방향과 같이 체형이미지(20)도 양쪽이 대칭되지 못하고 휘어져 있게 된다. 따라서, 체형이미지(20)가 골격 상태를 따라가게 되므로, 컴퓨터는 신체 윤곽선을 기반으로 골격 상태 예측을 위해 골격이미지(10)와 체형이미지(20)를 분석대상데이터로 확보한다. 또한, 도 3에서와 같이, 하지의 경우에도 골격 상태에서 따라 체형이 달라지게 되므로, 컴퓨터는 하지를 촬영한 X선 영상데이터에서 체형이미지(20)와 골격이미지(10)를 추출하여 학습대상데이터를 형성한다.Specifically, the body image 20, which is the body contour of a patient with a normal vertebral skeleton (see Fig. 2 (a)), is symmetric in both, but a patient with scoliosis (particularly a pediatric patient) Are curved without being symmetrical on both sides of the body image 20 as in the bent vertebra direction. Accordingly, since the body image 20 follows the skeletal state, the computer acquires the skeleton image 10 and the body image 20 as analysis target data for skeletal state prediction based on the body contour. In addition, as shown in FIG. 3, since the body shape varies depending on the skeletal state, the computer extracts the body image 20 and the skeleton image 10 from the X-ray image data obtained by photographing the body, .

학습대상데이터를 형성하는 방식의 일실시예로, 컴퓨터는 X선 영상데이터에서 체형윤곽을 기반으로 체형이미지(20)를 별도로 생성하고, X선 영상데이터에서 다른 부분을 제외하고 분석대상이 되는 골격만을 남긴 골격이미지(10)를 별도로 생성할 수 있다. 또한, 학습대상데이터를 형성하는 방식의 다른 일실시예로, 컴퓨터는 X선 영상데이터 내에 체형 윤곽선을 표시하고, X선 영상데이터 내의 골격(예를 들어, 척추뼈) 윤곽을 추출하여 표시한다. 이를 통해, 컴퓨터는 X선 영상데이터 내에 체형이미지(20) 정보와 골격이미지(10) 정보가 모두 포함된 분석대상데이터를 생성할 수 있다.In one embodiment of a method of forming data to be learned, the computer separately generates a body image 20 based on the body contour in the X-ray image data, extracts the other part from the X- A skeleton image 10 can be separately generated. In another embodiment of the method of forming learning data, the computer displays a body contour in the X-ray image data, and extracts and displays a skeleton (e.g., vertebrae) outline in the X-ray image data. Thus, the computer can generate analysis target data including both the body image 20 information and the skeleton image 10 information in the X-ray image data.

또한, 다른 일실시예로, 상기 빅데이터(즉, 학습대상데이터)는 촬영대상자의 신체조건을 상기 X선 영상데이터와 매칭하여 포함한다. 상기 신체조건은 촬영대상자의 신장, 체중, 체지방량 등이 해당될 수 있다. 동일한 골격 상태를 가지고 있는 환자여도 체지방량 등에 의해서 외부로 보이는 체형이 상이할 수 있으므로, 컴퓨터는 신체 조건 데이터를 X선 영상데이터와 함께 포함하는 학습대상데이터의 학습을 수행한다.Further, in another embodiment, the big data (i.e., the data to be learned) includes the body condition of the imaging subject matched with the X-ray image data. The physical condition may be a height, a body weight, a body fat mass, and the like of the subject to be photographed. Even if the patient has the same skeletal state, the body may differ in appearance due to the amount of body fat or the like. Therefore, the computer performs learning of the learning target data including the body condition data together with the X-ray image data.

상기 골격 평가지표는 체형이미지(20)와 골격이미지(10) 간의 상관관계를 산출하여, 체형이미지(20)를 통해 골격 상태를 평가하는 지표를 의미한다. 체형이미지(20)에 따른 골격 평가지표는, 후술되는 바와 같이, 신체 촬영 영상(30)의 평가에 이용된다.The skeletal evaluation index means an index for evaluating the skeletal state through the body image 20 by calculating the correlation between the body image 20 and the skeleton image 10. [ The skeleton evaluation index according to the body image 20 is used for evaluation of the body image 30 as described later.

일실시예로, 컴퓨터는 상기 X선 영상데이터에 포함된 복수의 신체부위별로 골격이미지(10)와 체형이미지(20)를 학습하여, 신체부위별 골격 평가지표를 산출한다. 신체부위별로 체형이미지(20)에 따른 골격 상태를 평가하는 기준이 상이할 수 있으므로, 컴퓨터는 각 신체부위별로 골격이미지(10)와 체형이미지(20)를 학습한다.In one embodiment, the computer learns a skeleton image 10 and a body image 20 for each of a plurality of body parts included in the X-ray image data, and calculates a skeleton evaluation index for each body part. Since the criterion for evaluating the skeletal state according to the body image 20 may differ depending on the body parts, the computer learns the skeleton image 10 and the body image 20 for each body part.

컴퓨터는 다양한 기계학습알고리즘을 이용하여 분석대상이미지를 학습한다. 일실시예로, 상기 골격 평가지표 산출단계(S600)는, 심층신경망을 이용한 딥러닝 알고리즘 기반으로 상기 빅데이터의 분석을 수행한다. 상기 심층신경망(Deep Neural Network; DNN)은, 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. The computer learns the image to be analyzed using various machine learning algorithms. In one embodiment, the skeleton evaluation index calculation step S600 performs analysis of the big data on the basis of a deep learning algorithm using a depth neural network. The Deep Neural Network (DNN) refers to a system or network in which one or more layers are built in a computer to perform a judgment based on a plurality of data.

예를 들어, 심층신경망은 컨볼루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locally-connected layer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 컨볼루션 풀링 층 또는 로컬 접속 층은 영상 내 특징들을 추출하도록 구성 될 수 있다. 완전 연결 층은 영상의 특징 간의 상관 관계를 결정할 수 있다. 일부 실시 예에서, 심층신경망의 전체적인 구조는 컨볼루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태로 이루어질 수 있다. 심층신경망은 다양한 판단기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준(즉, 파라미터)를 추가할 수 있다.For example, a neural network may be implemented with a set of layers including a Convolutional Pooling Layer, a locally-connected layer and a fully-connected layer. The convolutional pulling layer or the local connection layer may be configured to extract features in the image. The complete link layer can determine the correlation between image features. In some embodiments, the overall structure of the depth-of-field neural network may be of the form that the local connection layer is followed by the convolutional pulling layer and the full connection layer is in the local connection layer. The in-depth neural network may include various criteria (i.e., parameters) and may add new criteria (i.e., parameters) through input image analysis.

본 발명의 일실시예에서 심층신경망은, 학습 데이터 획득에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)이 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)과 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다. In one embodiment of the present invention, the depth neural network is a structure called convolutional neural network suitable for acquisition of learning data. The feature extraction layer (Self-Organizing Layer) that learns a feature having the greatest discriminative power from given image data, And a prediction layer (Prediction Layer) for learning a prediction model so as to have the highest prediction performance based on extracted features.

특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘볼루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다. The Feature Extraction layer consists of a Convolution Layer that creates a Feature Map by applying a plurality of filters to each region of the image, and features that are invariant to changes in position or rotation by spatially integrating feature maps. And can be formed in a structure in which an integral layer (a pooling layer) is alternately repeated several times. Through this, it is possible to extract various levels of features from low-level features such as points, lines, and surfaces to complex and meaningful high-level features.

콘볼루션 층은 입력 영상의 각 패치에 대하여 필터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성(Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상 시킨다. The convolution layer obtains a feature map by taking the nonlinear activation function of the inner product of the filter and the local receptive field for each patch of the input image, CNN is characterized by the use of filters with sparse connectivity and shared weights. This connection structure reduces the number of parameters to be learned and makes learning through the backpropagation algorithm efficient, resulting in improved prediction performance.

통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘볼루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영할 수 있다.The integration layer (Pooling Layer or Sub-sampling Layer) creates a new feature map by utilizing the local information of the feature map obtained from the previous convolution layer. Generally, the feature map newly generated by the integration layer is reduced to a size smaller than the original feature map. As representative integration methods, Max Pooling which selects the maximum value of the corresponding region in the feature map, And average pooling to obtain the average value of the area. The feature map of the integrated layer generally has less influence on the position of any structure or pattern existing in the input image than the feature map of the previous layer. That is, the integrated layer can extract more robust features in the local changes such as noise or distortion in the input image or the previous feature map, and this feature can play an important role in the classification performance. The role of the other integrated layer is to reflect the characteristics of a wider area as it goes from the deep structure to the upper learning layer. As the feature extraction layer accumulates, the lower layer reflects local characteristics and climbs up to the upper layer It is possible to reflect more abstract features of the whole image.

이와 같이, 콘볼루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.In this way, the feature finally extracted through repetition of the convolution layer and the integration layer is that the classification model such as Multi-layer Perception (MLP) or Support Vector Machine (SVM) -connected layer) to be used for classification model learning and prediction.

다만, 본 발명의 일실시예에 기재된 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.However, the structure of the depth-based neural network described in the embodiment of the present invention is not limited to this, and may be formed of various structures of neural networks.

또한, 다른 일실시예로, 상기 골격 평가지표 산출단계(S600)에서, 컴퓨터는 상기 체형이미지(20) 및 상기 골격이미지(10)와 함께 신체조건을 학습하여 골격 평가지표를 산출한다. 즉, 컴퓨터는 사용자별 골격이미지(10), 체형이미지(20) 및 신제초건이 매칭된 데이터셋(Dataset)을 학습하여, 촬영대상자의 신체조건이 반영된 골격 평가지표를 생성한다.In another embodiment, in the skeleton evaluation index calculation step (S600), the computer calculates a skeleton evaluation index by learning the body condition together with the body image (20) and the skeleton image (10). That is, the computer learns the skeleton image 10, the body image 20, and the data set matched with the new body image by the user to generate a skeleton evaluation index reflecting the physical condition of the person to be photographed.

컴퓨터가 사용자 클라이언트로부터 특정한 검사대상자에 대한 신체 촬영 영상(30)을 수신한다(S800; 신체 촬영 영상(30)수신단계). 상기 신체 촬영 영상(30)은 상기 사용자 클라이언트에 구비된 카메라로 촬영되는 것이다. 즉, 사용자 클라이언트(예를 들어, 스마트폰)을 구비한 사용자가 검사대상자(예를 들어, 소아)의 신체 촬영 영상(30)을 사용자 클라이언트의 카메라를 이용하여 촬영하고, 컴퓨터는 사용자 클라이언트로부터 신체 촬영 영상(30)을 수신한다. 체형 윤곽을 확인할 수 있어야 하므로, 상기 신체 촬영 영상(30)은 검사대상자의 신체부위가 노출된 상태(즉, 맨몸)가 촬영되는 것이 바람직하다.The computer receives the body image 30 of the specific examinee from the user client (S800: receiving the body image 30). The body image 30 is photographed by a camera provided in the user client. That is, a user having a user client (for example, a smart phone) photographs a body image 30 of a test subject (e.g., a child) using a camera of a user client, And receives the photographed image 30. It is preferable that the body image 30 is photographed in a state in which the body part of the examinee is exposed (i.e., the body).

상기 사용자 클라이언트는, 일실시예로, 상기 골격 평가지표를 적용하기 위한 신체 촬영 기준을 화면상에 유저인터페이스(User Interface)로 표시한다. 예를 들어, 사용자 클라이언트는 검사대상자의 신체 윤곽선이 대응되어야 하는 가이드라인을 화면 상에 표시하여, 골격 평가지표를 적용하기에 적합하게 신체가 촬영된 신체 촬영 영상(30)을 획득하도록 할 수 있다. 또한, 사용자 클라이언트를 이용하여 신체 촬영 시에 사용자 클라이언트의 배치상태에 따라 신체 촬영 영상(30)에 왜곡이 발생할 수 있으므로, 사용자 클라이언트는 내부에 포함된 모션센서 또는 카메라를 획득되는 영상 분석을 통해 사용자 클라이언트의 배치상태를 확인하여 왜곡되지 않은 신체 촬영 영상(30)을 획득하도록 안내할 수 있다. In one embodiment, the user client displays a body photographing standard for applying the skeleton evaluation index on a screen as a user interface. For example, the user client may display on the screen a guideline on which the body contour of the examinee should correspond, so as to acquire the body photographed image 30 in which the body is photographed suitable for applying the skeletal evaluation index . In addition, since the body image 30 may be distorted according to the placement state of the user client when the user captures the body of the user using the user client, the user client may use the motion sensor or camera included therein to analyze It is possible to confirm the arrangement state of the client and guide the user to acquire the undistorted body image 30.

그 후, 컴퓨터가 상기 신체 촬영 영상(30)에 상기 골격 평가지표를 적용하여 골격 상태를 산출한다(S1000). 컴퓨터는, 도 4에서와 같이, 신체 촬영 영상(30)에서 윤곽선을 추출하면, X선 영상에서 추출된 신체 윤곽선과 동일하게 생성할 수 있다. 따라서, X선 영상에서 신체 윤곽선을 추출하여 생성된 체형이미지(20)에 대응하는 신체 촬영 영상(30)에 골격 평가지표를 적용하여, 컴퓨터는 X선촬영을 수행하지 않은 검사대상자에 대한 골격 상태 결과를 예측할 수 있다.Thereafter, the computer calculates the skeletal state by applying the skeletal evaluation index to the body image 30 (S1000). As shown in FIG. 4, if the contour is extracted from the body image 30, the computer can generate the same body contour extracted from the X-ray image. Accordingly, the skeletal evaluation index is applied to the body image 30 corresponding to the body image 20 generated by extracting the body contour line from the X-ray image, and the computer calculates the skeletal state The result can be predicted.

또한, 촬영대상자의 신체조건을 반영하여 골격 평가지표를 생성한 경우, 컴퓨터는 검사대상자의 신체조건 및 X선 영상데이터에 상기 골격평가기준을 적용하여 골격 상태를 산출한다.In addition, when the skeletal evaluation index is generated by reflecting the physical condition of the person to be photographed, the computer calculates the skeletal state by applying the skeletal evaluation standard to the physical condition of the person to be examined and the X-ray image data.

또한, 다른 일실시예로, 상기 신체 촬영 영상(30)을 상기 골격 평가지표에 적용 가능한 상태로 보정하는 단계;를 더 포함한다. 예를 들어, 신체 촬영 영상(30)이 기울어진 상태로 촬영된 경우(예를 들어, 검사대상자 상반신을 촬영할 때 상반신이 특정한 각도로 기울어져 있는 경우), 컴퓨터는 이미지의 회전 등의 보정을 수행하여 X선 영상데이터와 근사한 상태로 조절한다.Further, in another embodiment, the step of correcting the body photographed image 30 so as to be applicable to the skeletal evaluation index. For example, when the body imaging image 30 is photographed in a tilted state (for example, when the upper body is inclined at a specific angle when the upper body of the examinee is photographed), the computer performs correction such as image rotation So as to approximate to the X-ray image data.

또한, 다른 일실시예로, 도 5에서와 같이, 상기 검사대상자에 대한 X선 영상데이터가 신규로 획득되면, 상기 신체 촬영 영상(30)과 상기 X선 영상데이터를 비교하는 단계(S1200); 및 비교결과를 학습모델에 반영하여 정교화하는 단계(S1300);를 더 포함한다. 검사대상자가 골격 상태를 제공받은 후에 병원에 내원하여 X선 영상을 촬영할 수 있다. 컴퓨터는 신규로 획득된 X선 영상데이터와 사용자 클라이언트로 촬영된 신체 촬영 영상(30)을 비교하여 신체 촬영 영상(30) 기반으로 산출된 골격 상태의 정확도를 판단할 수 있다. 그 후, 컴퓨터는 신체 촬영 영상(30) 기반의 골격 상태와 X선 영상데이터를 통해 파악된 골격이미지(10)를 비교한 결과를 기계학습알고리즘이 적용된 골격 상태학습모델에 반영하여 알고리즘을 정교화하여 골격 상태 산출 정확도를 높이는 과정을 수행한다.5, when the X-ray image data for the examinee is newly acquired, comparing the body image 30 with the X-ray image data (S1200); And refining the comparison result to the learning model (S1300). After receiving the skeletal status, the subject can visit the hospital to take X-ray images. The computer can compare the newly acquired X-ray image data with the body image (30) photographed by the user client to determine the accuracy of the skeleton state calculated based on the body image (30). Thereafter, the computer refines the algorithm by reflecting the result of comparing the skeletal image 10 obtained through the body image 30 with the skeletal image 10 obtained through the X-ray image data to the skeletal state learning model to which the machine learning algorithm is applied And performs a process of increasing the skeletal state calculation accuracy.

또한, 다른 일실시예로, 도 6에서와 같이, 상기 골격 상태를 기반으로 교정자세 정보를 산출하여 상기 사용자 클라이언트로 제공하는 단계(S1400);를 더 포함한다. 컴퓨터는 골격 상태 별로 정상적인 골격으로 되기 위한 자세정보를 저장하고, 신체 촬영 영상(30)을 기반으로 산출된 골격 상태를 기반으로 적절한 교정자세를 산출하여 사용자 클라이언트에 제공할 수 있다.In another embodiment, the method further includes calculating (S1400) the correction posture information based on the skeletal state and providing the corrected posture information to the user client as shown in FIG. 6 (S1400). The computer stores attitude information for becoming a normal skeleton according to the skeletal state, and can provide an appropriate correction attitude to the user client based on the skeletal state calculated based on the body image 30.

또한, 다른 일실시예로, 도 7에서와 같이, 컴퓨터가 복수의 X선 영상데이터를 획득하는 단계(S200); 컴퓨터가 X선 영상데이터에서 추출된 골격이미지(10)와 체형이미지(20)를 저장하여 빅데이터를 구축하는 단계(S400);를 더 포함한다. 즉, 컴퓨터가 복수의 X선 영상데이터를 기반으로 빅데이터(즉, 학습대상데이터)를 구축하는 과정을 수행할 수 있다.In another embodiment, as shown in FIG. 7, the computer acquires a plurality of X-ray image data (S200); And a step (S400) in which the computer stores the skeleton image 10 and the body image 20 extracted from the X-ray image data to construct big data (S400). That is, the computer can perform a process of building big data (i.e., learning target data) based on a plurality of X-ray image data.

컴퓨터가 복수의 X선 영상데이터를 획득한다(S200). 컴퓨터는 병원 내에 의료영상데이터가 저장된 의료영상서버로부터 복수의 X선 영상데이터를 수신할 수 있다. 의료영상서버 내에 저장된 X선 영상데이터는 촬영된 신체부위, 촬영된 방향 등에 대한 분류가 되어 있으므로, 컴퓨터는 의료영상서버로부터 원하는 촬영방향의 X선 영상데이터를 획득할 수 있다. The computer acquires a plurality of X-ray image data (S200). The computer can receive a plurality of X-ray image data from the medical image server in which the medical image data is stored in the hospital. Since the X-ray image data stored in the medical image server is classified with respect to the photographed body part, the taken direction, and the like, the computer can acquire the X-ray image data in the desired photographing direction from the medical image server.

컴퓨터는 X선 영상데이터 수신 시에 촬영대상자에 대한 데이터를 함께 수신하여, X선 영상데이터와 매칭할 수 있다. 예를 들어, 컴퓨터는 병원서버로부터 촬영대상자의 연령, 신체조건 등을 수신할 수 있다. 동일한 골격 상태를 가지고 있는 환자여도 체지방량 등에 의해서 외부로 보이는 체형이 상이할 수 있으므로, 컴퓨터는 X선 영상데이터를 학습하는 과정에서 함께 이용될 신체 조건 데이터를 병원서버로부터 수신할 수 있다.The computer may receive data on a person to be photographed at the time of receiving the X-ray image data, and may match with the X-ray image data. For example, the computer can receive the age, physical condition, etc. of the subject to be photographed from the hospital server. Even if the patient has the same skeletal state, the external appearance of the body may be different depending on the body fat amount, etc. Therefore, the computer can receive the body condition data to be used together with the X-ray image data from the hospital server.

컴퓨터가 X선 영상데이터에서 추출된 골격이미지(10)와 체형이미지(20)를 저장하여 빅데이터를 구축한다(S400). 도 2에서와 같이, X선 영상데이터는 촬영대상자의 골격이미지(10)와 X선이 신체를 투과함에 따라 생성되는 체형 윤곽선인 체형이미지(20)를 포함한다. 따라서, 컴퓨터는 이미지 프로세싱을 통해 X선 영상데이터 내의 체형 윤곽선을 추출하고, X선 영상데이터 내에 포함된 골격이미지(10)를 추출한다. 컴퓨터는 골격이미지(10)와 체형이미지(20)를 매칭하여 학습을 위한 학습대상데이터로 형성한다. 컴퓨터가 복수의 X선 영상데이터에 대해 학습대상데이터를 형성하는 과정을 형성하여 데이터셋(Dataset)을 구축한다.The computer stores the skeleton image 10 and the body image 20 extracted from the X-ray image data to construct big data (S400). As shown in FIG. 2, the X-ray image data includes a skeleton image 10 of a subject to be photographed and a body image 20 which is a body contour line generated as an X-ray passes through the body. Accordingly, the computer extracts the body contour lines in the X-ray image data through the image processing and extracts the skeleton image 10 contained in the X-ray image data. The computer forms the learning object data for learning by matching the skeleton image 10 and the body image 20. A computer forms a data set (Dataset) by forming a process of forming learning target data with respect to a plurality of X-ray image data.

이상에서 전술한 본 발명의 일 실시예에 따른 X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The above-described method of predicting skeletal state based on body contour in an X-ray image according to an embodiment of the present invention may be implemented as a program (or application) to be executed in combination with a hardware computer and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program may be stored in a computer-readable medium such as C, C ++, JAVA, machine language, or the like that can be read by the processor (CPU) of the computer through the device interface of the computer, And may include a code encoded in a computer language of the computer. Such code may include a functional code related to a function or the like that defines necessary functions for executing the above methods, and includes a control code related to an execution procedure necessary for the processor of the computer to execute the functions in a predetermined procedure can do. Further, such code may further include memory reference related code as to whether the additional information or media needed to cause the processor of the computer to execute the functions should be referred to at any location (address) of the internal or external memory of the computer have. Also, when the processor of the computer needs to communicate with any other computer or server that is remote to execute the functions, the code may be communicated to any other computer or server remotely using the communication module of the computer A communication-related code for determining whether to communicate, what information or media should be transmitted or received during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The medium to be stored is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and is capable of being read by a device. Specifically, examples of the medium to be stored include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, but are not limited thereto. That is, the program may be stored in various recording media on various servers to which the computer can access, or on various recording media on the user's computer. In addition, the medium may be distributed to a network-connected computer system so that computer-readable codes may be stored in a distributed manner.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10 : 골격이미지 20 : 체형이미지
30 : 신체 촬영 영상
10: Skeleton image 20: Body image
30: Body imaging video

Claims (9)

컴퓨터의 프로세서가 복수의 X선 영상데이터를 획득하는, X선 영상데이터 획득단계;
상기 프로세서가 X선 영상데이터에서 추출된 골격이미지와 체형이미지를 매칭하고 저장하여 빅데이터를 구축하는, 빅데이터 구축 단계;
상기 프로세서가 복수의 X선 영상데이터 기반의 빅데이터를 학습하여, 체형이미지에 따른 골격 평가지표를 산출하되, 상기 체형이미지는 상기 X선 영상 내에 포함된 신체 윤곽선인, 골격 평가지표 산출단계;
컴퓨터의 통신 모듈이 사용자 클라이언트의 통신 모듈로부터 특정한 검사대상자에 대한 신체 촬영 영상을 수신하되, 상기 신체 촬영 영상은 상기 사용자 클라이언트에 구비된 카메라로 촬영되는 것인, 신체 촬영 영상수신단계;
상기 프로세서가 상기 신체 촬영 영상에 상기 골격 평가지표를 적용하여 골격 상태를 산출하는 단계를 포함하고,
상기 빅데이터 구축 단계는,
상기 프로세서가 이미지 프로세싱을 통해 상기 X선 영상데이터 내의 체형 윤곽선을 추출하고, 상기 X선 영상데이터 내에 포함된 골격이미지를 추출하여 빅데이터를 구축하는 것으로서, 복수의 X선 영상데이터에 대한 골격이미지와 체형이미지를 매칭하여 학습대상데이터로 데이터 셋을 구축하는 것이고,
상기 골격 상태를 산출하는 단계는,
상기 사용자 클라이언트에 구비된 카메라로 촬영된 신체 촬영 영상의 체형이미지에 해당하는 골격 상태를 상기 골격 평가지표를 이용하여 산출하는 것을 특징으로 하는,
X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
A processor of a computer acquiring a plurality of X-ray image data;
A big data construction step in which the processor constructs big data by matching and storing a skeleton image and a body image extracted from X-ray image data;
A skeleton evaluation index calculation step of the processor calculating a skeleton evaluation index according to a body image by learning large data based on a plurality of X-ray image data, wherein the body image is a body contour included in the X-ray image;
A body imaging image receiving step of receiving a body imaging image of a specific examinee from a communication module of a user client, the body imaging image being photographed by a camera provided in the user client;
Wherein the processor calculates the skeletal state by applying the skeletal evaluation index to the body image,
Wherein the big data construction step comprises:
The processor extracts a body contour line in the X-ray image data through image processing, and extracts a skeleton image included in the X-ray image data to construct big data. The skeleton image and the skeleton image of a plurality of X- A data set is constructed from data to be learned by matching the body image,
The step of calculating the skeletal state includes:
Wherein a skeleton state corresponding to a body image of a body photographing image photographed by a camera provided in the user client is calculated using the skeleton evaluation index,
A method for predicting skeletal state based on body contour in X - ray image.
제1항에 있어서,
상기 골격 평가지표 산출단계는,
심층신경망을 이용한 딥러닝 알고리즘 기반으로 상기 빅데이터의 분석을 수행하는 것을 특징으로 하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
The skeleton evaluation index calculating step may include:
A method for predicting a skeletal state based on body contours in an X-ray image, characterized in that the analysis of the big data is performed based on a deep learning algorithm using a depth neural network.
제1항에 있어서,
상기 프로세서가 상기 신체 촬영 영상을 상기 골격 평가지표에 적용 가능한 상태로 보정하는 단계;를 더 포함하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
And correcting the body imaging image so that the processor can apply the skeleton evaluation index to the skeleton evaluation index.
제1항에 있어서,
상기 사용자 클라이언트는,
상기 골격 평가지표를 적용하기 위한 신체 촬영 기준을 화면상에 유저인터페이스로 표시하는 것을 특징으로 하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
The user client,
Wherein the body imaging standard for applying the skeletal evaluation index is displayed on a screen on a user interface.
제1항에 있어서,
상기 빅데이터는,
촬영대상자의 신체조건을 상기 X선 영상데이터와 매칭하여 포함하는 것을 특징으로 하고,
상기 골격 평가지표 산출단계는,
상기 체형이미지 및 상기 골격이미지와 함께 상기 신체조건을 학습하여 골격 평가지표를 산출하고,
상기 신체 촬영 영상수신단계는,
상기 컴퓨터의 통신 모듈이 상기 사용자 클라이언트의 통신 모듈로부터 사용자의 신체조건을 수신하고,
상기 골격 상태 산출단계는,
상기 신체조건 및 상기 X선 영상데이터에 상기 골격평가지표를 적용하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
The big data includes:
Ray image data by matching the physical condition of the subject to be photographed with the X-ray image data,
The skeleton evaluation index calculating step may include:
Calculating a skeleton evaluation index by learning the body condition together with the body image and the skeleton image,
The body imaging image receiving step may include:
Wherein the communication module of the computer receives the physical condition of the user from the communication module of the user client,
The skeleton state calculating step may include:
Wherein the skeletal evaluation index is applied to the physical condition and the X-ray image data.
제1항에 있어서,
상기 프로세서가 상기 검사대상자에 대한 X선 영상데이터가 신규로 획득되면, 상기 신체 촬영 영상과 상기 X선 영상데이터를 비교하는 단계; 및
상기 프로세서가 비교결과를 학습모델에 반영하여 정교화하는 단계;를 더 포함하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
Comparing the body image with the X-ray image data when the processor acquires X-ray image data for the examinee; And
Further comprising the step of the processor refining the comparison result to the learning model to refine the skeleton state based on the body contour in the X-ray image.
제1항에 있어서,
상기 골격 평가지표 산출단계는,
상기 X선 영상데이터에 포함된 복수의 신체부위별로 골격이미지와 체형이미지를 학습하여, 신체부위별 골격 평가지표를 산출하는 것을 특징으로 하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
The skeleton evaluation index calculating step may include:
Wherein the skeleton image is generated by learning a skeleton image and a body image for each of a plurality of body parts included in the X-ray image data, and calculating a skeleton evaluation index for each body part.
제1항에 있어서,
상기 프로세서가 상기 골격 상태를 기반으로 교정자세 정보를 산출하고, 상기 컴퓨터의 통신 모듈이 산출한 상기 교정자세 정보를 상기 사용자 클라이언트로 제공하는 단계;를 더 포함하는, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측방법.
The method according to claim 1,
Wherein the processor is further configured to calculate calibration attitude information based on the skeletal state and to provide the calibration attitude information calculated by the communication module of the computer to the user client, Method of predicting skeletal status.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, X선 영상 내 체형 윤곽선 기반의 골격 상태 예측프로그램.9. A skeleton state prediction program based on body contour lines in an X-ray image, which is stored in a medium in combination with a computer which is hardware, in order to execute the method of any one of claims 1 to 8.
KR1020170126888A 2017-09-29 2017-09-29 Method and program for predicting skeleton state by the body ouline in x-ray image KR101938361B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170126888A KR101938361B1 (en) 2017-09-29 2017-09-29 Method and program for predicting skeleton state by the body ouline in x-ray image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170126888A KR101938361B1 (en) 2017-09-29 2017-09-29 Method and program for predicting skeleton state by the body ouline in x-ray image

Publications (1)

Publication Number Publication Date
KR101938361B1 true KR101938361B1 (en) 2019-01-14

Family

ID=65027532

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170126888A KR101938361B1 (en) 2017-09-29 2017-09-29 Method and program for predicting skeleton state by the body ouline in x-ray image

Country Status (1)

Country Link
KR (1) KR101938361B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200121608A (en) * 2019-04-16 2020-10-26 고려대학교 산학협력단 Method and apparatus for estimating bone age
WO2021100906A1 (en) * 2019-11-20 2021-05-27 오주영 Method for displaying virtual x-ray image by using deep neural network
KR20210090498A (en) 2020-01-10 2021-07-20 주식회사 리모 The method for analyzing 3D body type based on 2D image, the system and the program thereof
KR102663960B1 (en) 2022-12-29 2024-05-10 주식회사 써지컬에이아이 Method and system for acquiring leg alignment information using partial x-ray image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014514652A (en) * 2011-03-29 2014-06-19 クアルコム,インコーポレイテッド Selective hand occlusion on a virtual projection onto a physical surface using skeletal tracking

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014514652A (en) * 2011-03-29 2014-06-19 クアルコム,インコーポレイテッド Selective hand occlusion on a virtual projection onto a physical surface using skeletal tracking

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200121608A (en) * 2019-04-16 2020-10-26 고려대학교 산학협력단 Method and apparatus for estimating bone age
KR102233404B1 (en) 2019-04-16 2021-03-30 고려대학교 산학협력단 Method and apparatus for estimating bone age
WO2021100906A1 (en) * 2019-11-20 2021-05-27 오주영 Method for displaying virtual x-ray image by using deep neural network
KR20210090498A (en) 2020-01-10 2021-07-20 주식회사 리모 The method for analyzing 3D body type based on 2D image, the system and the program thereof
KR102663960B1 (en) 2022-12-29 2024-05-10 주식회사 써지컬에이아이 Method and system for acquiring leg alignment information using partial x-ray image

Similar Documents

Publication Publication Date Title
KR101846370B1 (en) Method and program for computing bone age by deep neural network
JP7075085B2 (en) Systems and methods for whole body measurement extraction
KR101938361B1 (en) Method and program for predicting skeleton state by the body ouline in x-ray image
EP3755204B1 (en) Eye tracking method and system
JP2023171650A (en) Systems and methods for identifying persons and/or identifying and quantifying pain, fatigue, mood and intent with protection of privacy
US20210174505A1 (en) Method and system for imaging and analysis of anatomical features
US11058209B2 (en) Beauty counseling information providing device and beauty counseling information providing method
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
US20200234444A1 (en) Systems and methods for the analysis of skin conditions
KR101955919B1 (en) Method and program for providing tht region-of-interest in image by deep-learing algorithm
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
KR102328198B1 (en) Method and apparatus for measuring volume of organ using artificial neural network
US20220237817A1 (en) Systems and methods for artificial intelligence based image analysis for placement of surgical appliance
CN117115220B (en) Image processing method, service providing method, device, equipment and storage medium
US20230284968A1 (en) System and method for automatic personalized assessment of human body surface conditions
Lu et al. A new algorithm for 3D registration and its application in self-monitoring and early detection of lymphedema
KR102472190B1 (en) System and method for recommending user-customized footwear
KR102518493B1 (en) Electronic apparatus and method for detecting at least one cervical vertebrae point included in cervical vertebrae using artificial intelligence model in x-ray image including cervical vertebrae
KR102672531B1 (en) Method and apparatus for automatically estimating spine position in medical images using deep learning-based pose estimation
CN113743379B (en) Light-weight living body identification method, system, device and medium for multi-modal characteristics
KR102473744B1 (en) A method of diagnosing strabismus through the analysis of eyeball image from cover and uncovered test
US20240177326A1 (en) Systems and methods for human model recovery
WO2023048153A1 (en) Information processing method, computer program, and information processing device
JP7103443B2 (en) Information processing equipment, information processing methods, and programs
CN113409312B (en) Image processing method and device for biomedical images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant