KR102330216B1 - Method for bone age and health status measurement using AI learning analysis - Google Patents

Method for bone age and health status measurement using AI learning analysis Download PDF

Info

Publication number
KR102330216B1
KR102330216B1 KR1020210070277A KR20210070277A KR102330216B1 KR 102330216 B1 KR102330216 B1 KR 102330216B1 KR 1020210070277 A KR1020210070277 A KR 1020210070277A KR 20210070277 A KR20210070277 A KR 20210070277A KR 102330216 B1 KR102330216 B1 KR 102330216B1
Authority
KR
South Korea
Prior art keywords
learning
age
blood
bone age
bone
Prior art date
Application number
KR1020210070277A
Other languages
Korean (ko)
Inventor
모성희
백동재
Original Assignee
(주)웨버인스트루먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)웨버인스트루먼트 filed Critical (주)웨버인스트루먼트
Priority to KR1020210070277A priority Critical patent/KR102330216B1/en
Application granted granted Critical
Publication of KR102330216B1 publication Critical patent/KR102330216B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14546Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring analytes not otherwise provided for, e.g. ions, cytochromes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5294Devices using data or image processing specially adapted for radiation diagnosis involving using additional data, e.g. patient information, image labeling, acquisition parameters
    • G06K9/00362
    • G06T5/001
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides a method for measuring a bone age and a health status using AI learning analysis to calculate the bone age through a TW3 method and accurately measure the health status of a corresponding age through a blood test. To this end, the implementation method of software performed in each step on a computer including a normal input unit and a control unit according to the present invention includes: inputting blood test results; determining a health state including a nutritional state, a growth hormone, and a disease state through the blood test result; inputting an x-ray image; an image part determination and learning step of referring to the blood discrimination learning model and the image region learning model through AI learning analysis, so as to find, discriminate and learn 13 parts corresponding to the hand part in the health state according to the blood test result and the input X-ray image; a type determination and learning step of classifying the identified 13 parts into 9 grades according to the degree of maturity, assigning a score to each grade and learning; calculating the bone age by summing the scores given to each grade and comparing it with the calculation table of TW3; and displaying the TW3-converted age according to the health status and bone age by summing up and comparing the health status according to the blood test result and the bone age score.

Description

AI학습 분석을 이용한 골연령 및 건강상태 판독방법{Method for bone age and health status measurement using AI learning analysis}Method for bone age and health status measurement using AI learning analysis

본 발명은 AI학습 분석 골연령 판독방법에 관한 것으로, 더욱 상세하게는 TW3(태너-화이트하우스) 방식을 이용하여 손뼈 액스레이 사진에서 13부위의 뼈부위를 성숙 정도에 따라 9등급으로 구분하여 각각에 등급에 점수를 부여하고, 각각의 등급에 부여된 점수를 합산하여 이를 바탕으로 뼈나이를 산출함과 아울러, 혈액 검사를 통하여 해당 나이의 건강상태를 정밀하게 측정하는 AI학습 분석을 이용한 골연령 및 건강상태 판독방법에 관한 것이다. The present invention relates to an AI learning analysis bone age reading method, and more specifically, by using the TW3 (Tanner-Whitehouse) method, the 13 bone parts in the hand bone x-ray image are classified into 9 grades according to the degree of maturity, and each Bone age using AI learning analysis that assigns scores to grades, adds up scores for each grade, calculates bone age based on this, and accurately measures health status at that age through blood tests and a method for reading a health condition.

골연령(뼈나이) 판독방법은 의료분야에서 환자들의 엑스레이(X-RAY) 영상을 분석하여 성장판 검사 등에 사용되고 있다. 이러한 감사 방법을 통하여 환자의 저성장이나 성조숙증 등을 진단할 수 있다.Bone age (bone age) reading method is used in the medical field, such as growth plate examination by analyzing X-ray images of patients. Through this audit method, it is possible to diagnose a patient's low growth or precocious puberty.

그러나, 이러한 종래의 골연령 판독방법으로 뼈나이를 산출하기 위해서는 반드시 숙련된 의사가 필요하며, 이를 시행하는데에도 많은 시간이 소요되고, 그 결과값도 의사에 따라 다르며, 동일 의사의 경우도 때에 따라 달라지는 단점을 가지고 있다. However, in order to calculate the bone age by such a conventional bone age reading method, a skilled doctor is necessarily required, and it takes a lot of time to perform this, and the result value also varies depending on the doctor, and even in the case of the same doctor, it is necessary. It has different disadvantages.

최근 의료분야에서 인공지능(이하 AI(Artificial Intelligence)라 약칭한다.) 기반의 의료기기의 개발이 증가하고 있는 실정이며 특히, 환자들의 엑스레이 영상을 AI로 분석하여 골연령을 판독하는 검사방법이 개발되고 있다.Recently, in the medical field, the development of medical devices based on artificial intelligence (hereinafter abbreviated as AI (Artificial Intelligence)) is increasing. is becoming

이러한 AI 분석 골연령 판독방법을 통하여 환자의 저성장이나 성조숙증 등을 보다 정확히 진단할 수 있는 것으로, 이는 주관적인 의사들의 판단 차이를 일관되게 만들어주고 좀더 빠르고 정확하게 의사들이 진단하게 도와줄 수 있다.Through this AI analysis bone age reading method, it is possible to more accurately diagnose a patient's low growth or precocious puberty.

그러나, 종래의 AI 분석 골연령 판독방법은 사진의 중앙부분만을 이용하기 때문에 정확도가 떨어지며 신뢰성이 저하되는 문제점이 있었다.However, since the conventional AI analysis bone age reading method uses only the central part of the photo, there is a problem in that the accuracy is lowered and the reliability is lowered.

대한민국 등록특허공보 제10-1917043호(2018.11.02)Republic of Korea Patent Publication No. 10-1917043 (2018.11.02)

본 발명은 이러한 종래 문제점을 해결하기 위한 것으로, TW3 방식을 이용하여 손뼈 액스레이 사진에서 13부위의 뼈부위를 성숙 정도에 따라 9등급으로 구분하여 각각에 등급에 점수를 부여하고, 각각의 등급에 부여된 점수를 합산하여 이를 바탕으로 뼈나이를 산출함과 아울러, 혈액 검사를 통하여 해당 나이의 건강상태를 정밀하게 측정하는 AI학습 분석을 이용한 골연령 및 건강상태 판독방법을 제공하는데 목적이 있다.The present invention is to solve this conventional problem, and by using the TW3 method, the 13 bone parts in the hand bone x-ray picture are divided into 9 grades according to the degree of maturity, and a score is given to each grade, and each grade is given a score. The purpose is to provide a method of reading bone age and health status using AI learning analysis that calculates bone age based on the summation of the given scores and precisely measures the health status of the corresponding age through blood tests.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적을 달성하기 위해 본 발명에 따른 AI학습 분석을 이용한 골연령 및 건강상태 판독방법은, 통상의 입력부와 제어부를 구성한 컴퓨터상에서 각각의 단계별로 수행되는 소프트웨어의 구현방법에 있어서, 혈액 검사 결과를 입력하는 단계; 상기 혈액 검사 결과를 통하여 영양 상태, 성장 호르몬, 질병 상태를 포함하는 건강 상태를 판단하는 단계; 액스레이 이미지를 입력하는 단계; AI학습 분석을 통한 혈액 판별 학습 모델과 이미지 부위 학습 모델을 참조하여, 상기 혈액 검사 결과에 따른 건강 상태 및 입력된 액스레이 이미지에서 손 부위에 해당하는 13개의 부위을 찾아 판별 및 학습시키는 이미지 부위 판별 및 학습 단계; 상기 판별된 13개 부위를 성숙 정도에 따라 9등급으로 구분하여 각각에 등급에 점수를 부여하고 학습하는 타입 판별 및 학습 단계; 상기 각각의 등급에 부여된 점수를 합산하고 TW3의 연산표와 대조하여 골연령을 산출하는 단계; 상기 혈액 검사 결과에 따른 건강 상태와 상기 골연령 점수를 합산, 비교 판단하여 건강 상태 및 골연령에 따른 TW3 환산 나이를 표시하는 단계;를 포함한다.In order to achieve the above object, the bone age and health status reading method using AI learning analysis according to the present invention is a software implementation method performed in each step on a computer comprising a normal input unit and a control unit, the blood test result input; determining a health state including a nutritional state, a growth hormone, and a disease state through the blood test result; inputting an x-ray image; By referring to the blood discrimination learning model and the image part learning model through AI learning analysis, the image part discrimination and learning stage; a type determination and learning step of classifying the identified 13 parts into 9 grades according to the degree of maturity, assigning a score to each grade, and learning; calculating the bone age by summing the scores given to each grade and comparing it with the calculation table of TW3; and displaying the TW3-converted age according to the health state and bone age by summing up and comparing the health state and the bone age score according to the blood test result.

상기 건강 상태를 판단하는 단계는, 혈액의 CBC(Complete Blood cell Count) 검사, 화학검사, 미생물 검사 및 면역 혈청 검사중 어느 하나의 검사를 포함할 수 있다.The determining of the health state may include any one of a complete blood cell count (CBC) test, a chemical test, a microbiological test, and an immune serological test.

상기 액스레이 이미지를 입력하는 단계는, 상기 손 주변의 잡음을 제거하고 사진을 일률적으로 정형화하는 과정을 포함할 수 있다.The step of inputting the x-ray image may include removing noise around the hand and uniformly standardizing the picture.

상기 타입 판별 및 학습 단계는, 통상의 TW3 방식을 이용하여 손뼈 액스레이 사진에서 뼈부위를 판별하되, 윤곽선 함수를 활용하여 윤곽선을 찾고, 윤곽선의 기울기가 특정값 이상 변경될 때, 이를 변곡점으로 정의하고, 특정값을 변경해가면서 변곡점이 13개가 될때까지 반복 실행하여 특정 변곡점을 얻는다.The type determination and learning step is performed by using a conventional TW3 method to determine a bone part in an X-ray image of the hand bone, finds a contour using a contour function, and defines this as an inflection point when the slope of the contour is changed by more than a specific value Then, while changing a specific value, it repeats until 13 inflection points are reached to obtain a specific inflection point.

상기 TW3 환산 나이를 표시하는 단계는, 상기 혈액 검사 결과에 따른 건강 상태와 해당 건강 상태에 따른 나이를 판단하고, 상기 혈액 검사에 따라 판단된 혈액 나이와 상기 골연령에 따른 TW3 환산된 뼈나이를 AI학습을 통하여 비교 판단하여 판단의 신뢰성과 일관성을 향상시키는 것이 바람직하다.The step of displaying the TW3-converted age includes determining the health state according to the blood test result and the age according to the health state, and determining the blood age determined according to the blood test and the TW3-converted bone age according to the bone age. It is desirable to improve the reliability and consistency of judgment by making comparative judgments through AI learning.

본 발명의 기타 특징 및 더욱 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other features and more specific details of the invention are incorporated into the detailed description and drawings.

상기와 같이 구성된 본 발명에 따른 AI학습 분석을 이용한 골연령 및 건강상태 판독방법에 의하면, 혈액 검사 결과에 따른 건강 상태와 해당 건강 상태에 따른 나이를 판단하고, 상기 혈액 검사에 따라 판단된 혈액 나이와 상기 골연령에 따른 TW3 환산된 뼈나이를 AI학습을 통하여 비교 판단하여 판단의 신뢰성과 일관성을 향상시키며 따라서, 보다 빠르고 정확하게 의사들이 진단하게 도와줄 수 있고, 더욱 정확도를 향상시켜 진단의 신뢰성을 확보할 수 있는 효과가 있다.According to the bone age and health state reading method using AI learning analysis according to the present invention configured as described above, the health state according to the blood test result and the age according to the health state are determined, and the blood age determined according to the blood test and TW3-converted bone age according to the bone age are compared and determined through AI learning to improve the reliability and consistency of judgment, and thus can help doctors diagnose more quickly and accurately, and further improve the accuracy to increase the reliability of diagnosis There is an achievable effect.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1 및 도 2는 본 발명의 일실시예에 따른 AI학습 분석을 이용한 골연령 및 건강상태 판독방법을 나타낸 순서도,
도 3은 손 주변의 X-ray 원본 사진,
도 4는 변곡점을 나타낸 사진,
도 5는 보정을 통하여 각각의 손가락에 해당하는 부위를 지정한 사진,
도 6은 해당 부위만 추출하여 별도로 저장한 사진,
도 7은 해당 부위의 좌표값을 찾아내서 저장한 사진,
도 8은 각각의 타입을 따로 저장한 사진,
도 9는 타입별 저장의 실제 적용 예를 나탄내 사진,
도 10 및 도 11은 본 발명에 의해 각각의 점수를 환산한 환산표 및 채점표,
도 12은 각 채점표에 의해 환산 된 점수로 성장 키를 알 수 있도록 한 그래프이다.
1 and 2 are flowcharts showing a bone age and health status reading method using AI learning analysis according to an embodiment of the present invention;
3 is an original X-ray photo of the hand,
4 is a photograph showing an inflection point;
5 is a photograph in which a part corresponding to each finger is designated through correction;
Figure 6 is a separately stored photo by extracting only the corresponding part;
Figure 7 is a photo saved by finding the coordinate values of the corresponding part;
8 is a photo separately stored for each type;
9 is a photo showing an actual application example of storage by type;
10 and 11 are a conversion table and a scoring table in which each score is converted according to the present invention;
12 is a graph that allows you to know the growth key as a score converted by each scorecard.

본 발명은 다양한 변형 및 여러 가지 실시예를 가질 수 있는 바, 그중 특정 실시예를 상세한 설명과 도면의 예시를 통하여 보다 상세하게 설명하고자 한다. 아울러, 본 발명을 설명함에 있어서 관련된 주지 관용 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 설명을 생략한다.Since the present invention can have various modifications and various embodiments, a specific embodiment among them will be described in more detail through the detailed description and illustrations of the drawings. In addition, in the description of the present invention, if it is determined that a detailed description of a related commonly used technique may obscure the gist of the present invention, the description thereof will be omitted.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 및 도 2는 본 발명의 일실시예에 따른 AI학습 분석을 이용한 골연령 및 건강상태 판독방법을 나타낸 순서도이다.1 and 2 are flowcharts showing a bone age and health status reading method using AI learning analysis according to an embodiment of the present invention.

도시된 바와 같이, 본 발명의 일실시예에 따른 AI학습 분석을 이용한 골연령 및 건강상태 판독방법은, 통상의 입력부와 제어부를 구성한 컴퓨터상에서 각각의 단계별로 수행되는 소프트웨어의 구현방법에 있어서, 혈액 검사 결과를 입력하는 단계(S100); 상기 혈액 검사 결과를 통하여 영양 상태, 성장 호르몬, 질병 상태를 포함하는 건강 상태를 판단하는 단계(S100~S113); 액스레이 이미지를 입력하는 단계(S120); AI학습 분석을 통한 혈액 판별 학습 모델과 이미지 부위 학습 모델을 참조하여, 상기 혈액 검사 결과에 따른 건강 상태 및 입력된 액스레이 이미지에서 손 부위에 해당하는 13개의 부위을 찾아 판별 및 학습시키는 이미지 부위 판별 및 학습 단계(S130~S132, S1301~S1313); 상기 판별된 13개 부위를 성숙 정도에 따라 9등급으로 구분하여 각각에 등급에 점수를 부여하고 학습하는 타입 판별 및 학습 단계(S140~S141, S1401~S1409); 상기 각각의 등급에 부여된 점수를 합산하고 TW3의 연산표와 대조하여 골연령을 산출하는 단계(S150); 상기 혈액 검사 결과에 따른 건강 상태와 상기 골연령 점수를 합산, 비교 판단하여 건강 상태 및 골연령에 따른 TW3 환산 나이를 표시하는 단계(S160);를 포함한다.As shown, the bone age and health state reading method using AI learning analysis according to an embodiment of the present invention is a method of implementing software that is performed in each step on a computer comprising a typical input unit and a control unit, inputting the test result (S100); determining a health state including a nutritional state, a growth hormone, and a disease state through the blood test result (S100 to S113); inputting an X-ray image (S120); By referring to the blood discrimination learning model and the image part learning model through AI learning analysis, the image part discrimination and Learning step (S130 ~ S132, S1301 ~ S1313); Type determination and learning steps (S140-S141, S1401-S1409) of classifying the identified 13 parts into 9 grades according to the degree of maturity, assigning a score to each grade, and learning; calculating the bone age by summing the scores given to each grade and comparing it with the calculation table of TW3 (S150); and displaying the TW3-converted age according to the health state and bone age by summing and comparing the health state and the bone age score according to the blood test result (S160).

더욱 구체적으로는, 상기 혈액 검사 결과를 입력하고, 건강 상태를 판단하는 단계(S100~S113)는, 혈액의 CBC(Complete Blood cell Count) 검사, 화학검사, 미생물 검사 및 면역 혈청 검사중 어느 하나의 검사를 포함한다.More specifically, the step of inputting the blood test result and determining the health status (S100 to S113) may include any one of a complete blood cell count (CBC) test of blood, a chemical test, a microorganism test, and an immune serological test. include inspection.

첫 번째로 혈구 검사, 즉 CBC(Complete Blood cell Count) 검사는 혈색소, 헤마토크릿(혈구용적), 적혈구, 백혈구, 혈소판수, 백혈구의 세포백분율 등을 측정하는 것이다. 혈색소가 감소된 경우 빈혈의 진단을 내릴 수 있으며, 멍이 잘 들고 혈액 응고에 문제가 발생하는 혈소판 감소증을 알 수 있고 백혈구 수의 증감, 백혈구 백분율의 변화를 보면 백혈병 등 백혈구 질환의 잠정적인 진단을 얻을 수 있다.First, a blood cell test, that is, a CBC (Complete Blood Cell Count) test, measures hemoglobin, hematocrit (blood cell volume), red blood cells, white blood cells, platelets, and cell percentage of white blood cells. When hemoglobin is decreased, anemia can be diagnosed, thrombocytopenia, which bruises easily and blood clotting problems occur, and changes in white blood cell count and white blood cell percentage can be seen as a provisional diagnosis of white blood cell diseases such as leukemia. can be obtained

일단 CBC에서 이상 소견이 나타나면 혈액도말 검사(혈액을 슬라이드에 얇게 발라 염색하여 혈구의 모양, 수 등을 직접 현미경으로 관찰), 골수 검사 등을 시행하여 CBC에서 나타난 혈액 질환에 대해 더 자세한 진단을 내리게 된다. 또다른 혈액학적 검사로 혈액 응고검사를 수행할 수도 있다.Once abnormal findings are found in CBC, a blood smear test (a thin layer of blood is stained on a slide to directly observe the shape and number of blood cells under a microscope), bone marrow examination, etc. are performed to make a more detailed diagnosis of the blood disease shown in CBC. will come down Another hematological test may be a blood coagulation test.

두 번째로, 화학 검사는 혈액 내의 각종 물질의 농도를 측정하는 것으로, 혈당이 기준치 이상으로 높아지는 당뇨병을 진단할 수 있으며, 간과 관련된 각종 효소 즉, AST, ALT, Gamma-GT, 알칼라인 포스파타제 등을 측정하여 간염, 지방성 간 질환, 간경화, 간암 등의 진단과 치료 효과를 보는 데 이용한다. 또한 여러 원인에 의해 발생되는 황달의 경우 그 정도를 수치로 표현해 주는 빌리루빈 등도 측정한다. 또한 화학 검사에는 노폐물을 걸러 주는 신장 기능에 이상이 왔을 때 증가되는 BUN, 크레아티닌 등이 포함된다. 이러한 일반적인 화학 검사 외에도 각종 특수 화학 검사가 시행될 수 있다.Second, the chemical test measures the concentration of various substances in the blood, and can diagnose diabetes in which blood sugar rises above the reference value, and measures various enzymes related to the liver, such as AST, ALT, Gamma-GT, alkaline phosphatase, etc. It is used to diagnose and treat hepatitis, fatty liver disease, cirrhosis, and liver cancer. In addition, in the case of jaundice caused by various causes, bilirubin, which expresses the degree of jaundice as a number, is also measured. In addition, chemical tests include BUN and creatinine, which are increased when there is an abnormality in kidney function that filters waste. In addition to these general chemical tests, various special chemical tests may be performed.

세 번째로, 미생물학적 검사는 쉽게 말해 세균 검사를 말한다. 박테리아, 결핵균, 바이러스, 곰팡이균 등에 대한 배양 검사가 모두 시행될 수 있어 감염의 원인을 밝혀 적절한 항생제를 사용할 수 있게 하는 검사이다.Third, microbiological testing simply refers to bacterial testing. Culture tests for bacteria, tuberculosis, viruses, and fungi can all be performed, so it is a test that reveals the cause of infection so that appropriate antibiotics can be used.

네 번째, 면역 혈청 검사는 각종 세균 및 바이러스에 대한 항원, 항체 검사가 포함된다. 즉, B, C형 간염, 에이즈, 매독 등에 대한 항원·항체 검사로 이들 감염증을 진단한다. 또한 류머티즘 질환 진단과 함께 각종 면역 세포의 기능도 혈액에서 이들 면역 세포를 분리해내어 실시할 수 있다. 기타 알레르기의 각종 원인이 되는 물질에 대한 혈액 내의 특정 면역 글로불린을 측정하므로써 알레르기의 원인을 밝힐 수 있다.Fourth, immune serology tests include antigen and antibody tests against various bacteria and viruses. That is, these infections are diagnosed by antigen/antibody tests against hepatitis B and C, AIDS, and syphilis. In addition to diagnosing rheumatic diseases, various immune cell functions can be performed by isolating these immune cells from the blood. By measuring specific immunoglobulins in the blood for substances that cause various other allergies, the cause of the allergy can be revealed.

본 발명은 상기 혈액 검사를 통하여 영양 상태, 성장 호르몬, 질병을 판별할 수 있다.In the present invention, nutritional status, growth hormone, and disease can be determined through the blood test.

다음으로, 상기 액스레이 이미지를 입력하는 단계(S120)에서는, 손 주변의 잡음을 제거하고 사진을 일률적으로 정형화 하는 과정을 포함할 수 있다.Next, in the step (S120) of inputting the X-ray image, it may include a process of removing noise around the hand and uniformly standardizing the picture.

또한, 이미지 부위 판별 및 학습 단계(S130~S132, S1301~S1313)는 AI학습 분석을 통한 혈액 판별 학습 모델과 이미지 부위 학습 모델을 참조하여, 상기 혈액 검사 결과에 따른 건강 상태 및 입력된 액스레이 이미지에서 손 부위에 해당하는 13개의 부위을 찾아 판별 및 학습시킨다.In addition, the image part identification and learning steps (S130 to S132, S1301 to S1313) refer to the blood discrimination learning model and the image part learning model through AI learning analysis, and the health status and input X-ray image according to the blood test result Find and discriminate and learn 13 parts that correspond to hand parts.

도 3에 도시된 바와 같이, X-ray 원본 사진은 모두 선명하고 정형화되어 있지 않다. 이를 위해 손 주변의 잡음을 제거하고 사진을 일률적으로 정형화 하는 과정이 필요하다.As shown in FIG. 3 , the original X-ray photos are all clear and not standardized. For this, it is necessary to remove the noise around the hand and to standardize the picture uniformly.

본 발명에서 1차로 잡음 제거는 X-ray사진의 각 픽셀값은 0~255의 값을 갖는다. 0은 흰색을 255은 검정색을 의미하며, 도 3의 사진의 경우 손에 해당하는 부위는 주변 값에 비하여 흰색에 가깝다. In the present invention, in the first noise removal, each pixel value of the X-ray image has a value of 0 to 255. 0 means white and 255 means black, and in the photo of FIG. 3 , the part corresponding to the hand is closer to white than the surrounding values.

프로그램을 통하여 값을 변경해 가면서 그 값 이상(검정쪽에 가까운 값)을 모두 검정색(255값)으로 변경하다보면 최적의 값을 구할 수 있게 되면 이를 통해서 해당 이미지의 잡음을 제거하여 원하는 손 모양을 찾아 낼 수 있습니다.If you change the value through the program and change all the values (closer to the black side) to black (255 values) while changing the value, you can find the desired hand shape by removing the noise from the image through this when you can get the optimal value. can.

도 3의 사진은 보기 편하게 하기 위하여 손 주변에 회색의 두께(20 pixel) 표시하였다.In the photo of FIG. 3, gray thickness (20 pixels) was displayed around the hand for easy viewing.

위와 같은 방법으로 5,000~10,000장 X-ray사진을 정리한 후, 이를 손 모양으로 정의하여 학습(Mask R-CNN 방식으로 학습)한다.After arranging 5,000 to 10,000 X-ray photos in the same way as above, define them in the shape of a hand and learn (learn by Mask R-CNN method).

다음으로 이미지 부위 판별 및 학습 단계(S130)는, TW3 방식을 이용하여 손뼈 액스레이 사진에서 13부위의 뼈부위를 판별할 수 있다(S1301~S1313).Next, in the image portion determination and learning step (S130), the bone portion of the 13 portion in the hand bone X-ray image may be determined using the TW3 method (S1301 to S1313).

이때, 우선 각 이미지에서 변곡점을 활용하여 각각의 손가락 및 특정 부위를 구별한다. In this case, first, each finger and a specific part are distinguished by using an inflection point in each image.

위에서 학습한 방법을 이용하여 모든 X-ray사진을 대입하면 위의 잡음 및 정형화과정을 통하여 산출된 이미지와 같은 손모양만 추출한 상태를 구할 수 있다.By substituting all X-ray pictures using the method learned above, it is possible to obtain a state in which only the hand shape like the image calculated through the above noise and shaping process is extracted.

그 상태에서 검정색(255 값)이 아닌 값을 가진 부위가 손 모양이므로, 이를 활용한 윤곽선 함수를 활용하여 윤곽선을 찾고, 윤곽선의 기울기가 특정값 이상 변경될 때, 이를 변곡점으로 정의하고, 프로그램의 활용하여 특정값을 변경해가면서 변곡점이 13개가 될때까지 루프(Loop)명령을 실행하면 도 4에 도시된 바와 같은 변곡점을 얻을 수 있다.In that state, the part with a value other than black (255 value) is the shape of a hand, so the contour function is used to find the contour line. If the loop command is executed until there are 13 inflection points while changing a specific value by utilizing them, an inflection point as shown in FIG. 4 can be obtained.

다음으로, 손가락을 찾기 위하여, 상기 도 4의 각 꼭지점중 1,3,5,7,9에 해당하는 부위가 각각의 손가락에 해당하며, 손 가락의 아래 부위는 엄지의 경우 13, 2, 검지의 경우 2, 4, 중지는 4, 6, 약지는 6, 8, 새끼손가락은 8, 10번에 해당한다.Next, in order to find a finger, the parts corresponding to 1, 3, 5, 7, and 9 among the vertices of Fig. 4 correspond to each finger, and the lower part of the finger is 13, 2, and index finger in the case of the thumb. In the case of 2, 4, the middle finger is 4, 6, the ring finger is 6, 8, and the little finger is 8 and 10.

이를 적절한 값을 보정하여 각각의 손가락에 해당하는 부위를 지정할 수 있으며, 마찬가지로 10, 11, 12, 13 부위를 통해서 하단 부위를 지정할 수 있다. 그 예는 도 5에 도시된 바와 같다.By correcting an appropriate value, the part corresponding to each finger can be designated, and the lower part can be designated through parts 10, 11, 12, and 13 in the same way. An example thereof is shown in FIG. 5 .

이후, 도 6에 도시된 바와 같이 해당 부위만 추출하여 별도로 저장할 수 있다.Thereafter, as shown in FIG. 6 , only the corresponding part may be extracted and stored separately.

위의 잘라낸 이미지 중 13개 부위에 해당하는 부위를 image annotation tool을 이용하여 해당 부위의 좌표값을 찾아내서 저장한다. 도 7의 노란선의 각각의 꼭지점이 좌표값으로 저장되게 되며, 이를 13개 부위전체를 각각의 Radius, Ulna,…등의 이름으로 구분하여 저장한다. Among the cut-out images above, the area corresponding to 13 areas is saved by finding the coordinates of the area using the image annotation tool. Each vertex of the yellow line in FIG. 7 is stored as a coordinate value, and the entire 13 regions are each Radius, Ulna, ... Separate and save by name, etc.

그 좌표값은 아래와 같은 예로 저장될 수 있다.The coordinate value may be stored as an example as follows.

"shape_attributes":{"name":"polygon","all_points_x":[116,94,176,343,383,385,369,406,398,364,310,297,304,244,158],"all_points_y":[157,195,264,273,261,234,222,216,155,124,135,170,188,170,175]},…"filename":"00316_F_6.0.jpg","size":94473, …”Radius”"shape_attributes":{"name":"polygon","all_points_x":[116,94,176,343,383,385,369,406,398,364,310,297,304,244,158],"all_points_y":[157,195,264,... "filename":"00316_F_6.0.jpg","size":94473, … “Radius”

이후, 13개 부위에 대한 각각의 위치 정보를 2,000~10,000개씩 학습하게 되면 13개 부위를 찾을 수 있게 된다.Thereafter, when 2,000 to 10,000 pieces of location information for each of the 13 parts are learned, 13 parts can be found.

각각의 부위를 찾은 이후에 각 부위별로 타입에 대한 학습을 진행하게 된다. 각각의 타입에 해당하는 이미지를 확보하여 이를 딥러닝을 통해 학습한다. After finding each part, learning about the type is carried out for each part. It acquires images corresponding to each type and learns them through deep learning.

각각의 타입은 도 8과 같은 형태로 따로 저장한 후에 이를 학습한다. 즉, 각 타입별로 100~500개 정도씩 학습한 후에 이를 적용하면 된다.Each type is separately stored in the form shown in FIG. 8 and then learned. That is, after learning about 100 to 500 of each type, apply them.

도 9는 타입별 저장의 실제 적용 예를 나탄내 사진이다.9 is a photograph showing an actual application example of storage by type.

본 발명은 상기와 같이 수만명의 데이터를 자가 학습하여 스스로 학습하여 정확성을 높임과 동시에 빠른 시간안에 판별하수 있는 특징이 있다.As described above, the present invention has the characteristics of self-learning and self-learning data of tens of thousands of people, thereby increasing accuracy and discriminating within a short time.

본 발명에 의해 각각의 점수를 환산한 환산표에 작성이 이루어지고(도 10 참조), 상기 채점된 감은 각각의 데이터 표시에 확인 및 표시되며(도 11 참조), 상기 각 채점표에 의해 환산 된 점수로 성장 키를 알 수 있도록 한 특징이 있다(도 12참조).According to the present invention, each score is converted into a conversion table (see Fig. 10), and the scored sense is confirmed and displayed on each data display (see Fig. 11), and the score converted by each score table is There is a feature that makes it possible to know the growth height (see FIG. 12).

이후, 타입 판별 및 학습 단계(S140~S141, S1401~S1409)는 상기 판별된 13개 부위를 성숙 정도에 따라 9등급으로 구분하여 각각에 등급에 점수를 부여하고 학습한다.Thereafter, the type identification and learning steps (S140-S141, S1401-S1409) classify the 13 identified parts into 9 grades according to the degree of maturity, assigning a score to each grade, and learning.

골연령을 산출하는 단계(S150)는 상기 각각의 등급에 부여된 점수를 합산하고 TW3의 연산표와 대조한다.In the step of calculating the bone age (S150), the scores given to the respective grades are summed and compared with the calculation table of TW3.

이후, TW3 환산 나이를 표시하는 단계(S160)는 상기 혈액 검사 결과에 따른 건강 상태와 상기 골연령 점수를 합산, 비교 판단하여 건강 상태 및 골연령에 따른 TW3 환산 나이를 표시한다. Thereafter, in the step of displaying the TW3-converted age (S160), the health state according to the blood test result and the bone age score are summed and compared to display the TW3-converted age according to the health state and bone age.

더욱 구체적으로는, 상기 혈액 검사 결과에 따른 건강 상태와 해당 건강 상태에 따른 나이를 판단하고, 상기 혈액 검사에 따라 판단된 혈액 나이와 상기 골연령에 따른 TW3 환산된 뼈나이를 AI학습을 통하여 비교 판단하여 판단의 신뢰성과 일관성을 향상시킨다.More specifically, the health state according to the blood test result and the age according to the health state are determined, and the blood age determined according to the blood test and the TW3 converted bone age according to the bone age are compared through AI learning. to improve the reliability and consistency of judgment.

이상 설명드린 바와 같이 구성된 본 발명에 따른 AI학습 분석을 이용한 골연령 및 건강상태 판독방법에 의하면, 상기 혈액 검사 결과에 따른 건강 상태와 해당 건강 상태에 따른 나이를 판단하고, 상기 혈액 검사에 따라 판단된 혈액 나이와 상기 골연령에 따른 TW3 환산된 뼈나이를 AI학습을 통하여 비교 판단하여 판단의 신뢰성과 일관성을 향상시키며 따라서, 보다 빠르고 정확하게 의사들이 진단하게 도와줄 수 있고, 더욱 정확도를 향상시켜 진단의 신뢰성을 확보할 수 있다.According to the bone age and health state reading method using AI learning analysis according to the present invention configured as described above, the health state according to the blood test result and the age according to the health state are determined, and determined according to the blood test By comparing and judging the blood age and the TW3-converted bone age according to the bone age through AI learning, the reliability and consistency of judgment can be improved. reliability can be ensured.

본 명세서에 기재된 본 발명의 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 관한 것으로, 발명의 기술적 사상을 모두 포괄하는 것은 아니므로, 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 따라서, 본 발명은 상술한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그와 같은 변경은 본 발명의 청구범위 기재의 권리범위 내에 있게 된다.The embodiments of the present invention described in this specification and the configurations shown in the drawings relate to preferred embodiments of the present invention, and do not encompass all the technical ideas of the present invention, so various equivalents that can be substituted for them at the time of filing It should be understood that there may be variations and variations. Accordingly, the present invention is not limited to the above-described embodiments, and various modifications can be made by anyone with ordinary skill in the art to which the invention pertains without departing from the gist of the invention as claimed in the claims. and such changes are within the scope of the claims of the present invention.

Claims (5)

통상의 입력부와 제어부를 구성한 컴퓨터상에서 각각의 단계별로 수행되는 소프트웨어의 구현방법에 있어서,
혈액 검사 결과를 입력하는 단계;
상기 혈액 검사 결과를 통하여 영양 상태, 성장 호르몬, 질병 상태를 포함하는 건강 상태를 판단하는 단계;
액스레이 이미지를 입력하는 단계;
AI학습 분석을 통한 혈액 판별 학습 모델과 이미지 부위 학습 모델을 참조하여, 상기 혈액 검사 결과에 따른 건강 상태 및 입력된 액스레이 이미지에서 손 부위에 해당하는 13개의 부위을 찾아 판별 및 학습시키는 이미지 부위 판별 및 학습 단계;
상기 판별된 13개 부위를 성숙 정도에 따라 9등급으로 구분하여 각각에 등급에 점수를 부여하고 학습하는 타입 판별 및 학습 단계; 및
상기 각각의 등급에 부여된 점수를 합산하고 TW3의 연산표와 대조하여 골연령을 산출하는 단계;
상기 혈액 검사 결과에 따른 건강 상태와 상기 골연령 점수를 합산, 비교 판단하여 건강 상태 및 골연령에 따른 TW3 환산 나이를 표시하는 단계;를 포함하며,
상기 액스레이 이미지를 입력하는 단계는,
상기 손 주변의 잡음을 제거하고 사진을 일률적으로 정형화하는 과정을 포함하고,
상기 타입 판별 및 학습 단계는,
통상의 TW3 방식을 이용하여 손뼈 액스레이 사진에서 뼈부위를 판별하되, 윤곽선 함수를 활용하여 윤곽선을 찾고, 윤곽선의 기울기가 특정값 이상 변경될 때, 이를 변곡점으로 정의하고, 특정값을 변경해가면서 변곡점이 13개가 될때까지 반복 실행하여 특정 변곡점을 얻으며,
상기 TW3 환산 나이를 표시하는 단계는,
상기 혈액 검사 결과에 따른 건강 상태와 해당 건강 상태에 따른 나이를 판단하고, 상기 혈액 검사에 따라 판단된 혈액 나이와 상기 골연령에 따른 TW3 환산된 뼈나이를 AI학습을 통하여 비교 판단하여 판단의 신뢰성과 일관성을 향상시키는 것을 특징으로 하는 AI학습 분석을 이용한 골연령 및 건강상태 판독방법.
In the implementation method of software performed in each step on a computer comprising a normal input unit and a control unit,
inputting blood test results;
determining a health state including a nutritional state, a growth hormone, and a disease state through the blood test result;
inputting an x-ray image;
By referring to the blood discrimination learning model and the image part learning model through AI learning analysis, the image part discrimination and learning stage;
a type determination and learning step of classifying the identified 13 parts into 9 grades according to the degree of maturity, assigning a score to each grade, and learning; and
calculating the bone age by summing the scores given to each grade and comparing it with the calculation table of TW3;
Displaying the TW3-converted age according to the health state and bone age by summing up and comparing the health state and the bone age score according to the blood test result;
The step of inputting the x-ray image is,
Including the process of removing noise around the hand and uniformly standardizing the picture,
The type determination and learning step,
The normal TW3 method is used to determine the bone part in the hand bone x-ray picture, but the contour is found using the contour function. Repeat until these 13 are reached to obtain a specific inflection point,
The step of displaying the TW3 converted age is,
The health state according to the blood test result and the age according to the health state are determined, and the blood age determined according to the blood test and the TW3-converted bone age according to the bone age are compared through AI learning to determine reliability of judgment Bone age and health status reading method using AI learning analysis, characterized in that it improves and consistency.
청구항 1에 있어서,
상기 건강 상태를 판단하는 단계는,
혈액의 CBC(Complete Blood cell Count) 검사, 화학검사, 미생물 검사 및 면역 혈청 검사중 어느 하나의 검사를 포함하는 것을 특징으로 하는 AI학습 분석을 이용한 골연령 및 건강상태 판독방법.
The method according to claim 1,
The step of determining the health state,
Bone age and health status reading method using AI learning analysis, characterized in that it includes any one of a CBC (Complete Blood Cell Count) test of blood, a chemical test, a microbial test, and an immune serological test.
삭제delete 삭제delete 삭제delete
KR1020210070277A 2021-05-31 2021-05-31 Method for bone age and health status measurement using AI learning analysis KR102330216B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210070277A KR102330216B1 (en) 2021-05-31 2021-05-31 Method for bone age and health status measurement using AI learning analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210070277A KR102330216B1 (en) 2021-05-31 2021-05-31 Method for bone age and health status measurement using AI learning analysis

Publications (1)

Publication Number Publication Date
KR102330216B1 true KR102330216B1 (en) 2021-11-25

Family

ID=78745781

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210070277A KR102330216B1 (en) 2021-05-31 2021-05-31 Method for bone age and health status measurement using AI learning analysis

Country Status (1)

Country Link
KR (1) KR102330216B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240026705A (en) 2022-08-22 2024-02-29 전남대학교산학협력단 Bone age prediction system and method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080099671A (en) * 2007-05-10 2008-11-13 한양대학교 산학협력단 Method of extracting epiphyseal region using pattern recognition technique and statistical properties of epiphyseal location
KR20160036954A (en) * 2014-09-26 2016-04-05 재단법인 아산사회복지재단 System and method for measuring biological ages
KR20160099442A (en) * 2015-02-11 2016-08-22 경기대학교 산학협력단 Apparatus and method for measuring bone age based on image analysis
KR101779800B1 (en) * 2016-09-27 2017-09-19 이재준 System and method for evaluating multifaceted growth based on machine learning
KR101917043B1 (en) 2017-11-13 2019-01-30 인하대학교 산학협력단 Method and system for supporting u-Health based on IoT using artificial intelligence
KR20190099660A (en) * 2018-02-19 2019-08-28 주식회사 셀바스에이아이 Method for predicting health age
KR102154335B1 (en) * 2019-10-18 2020-09-09 연세대학교 산학협력단 Method and Apparatus for Diagnosing Disease by Pre-Processing Bio Extracted Data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080099671A (en) * 2007-05-10 2008-11-13 한양대학교 산학협력단 Method of extracting epiphyseal region using pattern recognition technique and statistical properties of epiphyseal location
KR20160036954A (en) * 2014-09-26 2016-04-05 재단법인 아산사회복지재단 System and method for measuring biological ages
KR20160099442A (en) * 2015-02-11 2016-08-22 경기대학교 산학협력단 Apparatus and method for measuring bone age based on image analysis
KR101779800B1 (en) * 2016-09-27 2017-09-19 이재준 System and method for evaluating multifaceted growth based on machine learning
KR101917043B1 (en) 2017-11-13 2019-01-30 인하대학교 산학협력단 Method and system for supporting u-Health based on IoT using artificial intelligence
KR20190099660A (en) * 2018-02-19 2019-08-28 주식회사 셀바스에이아이 Method for predicting health age
KR102154335B1 (en) * 2019-10-18 2020-09-09 연세대학교 산학협력단 Method and Apparatus for Diagnosing Disease by Pre-Processing Bio Extracted Data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240026705A (en) 2022-08-22 2024-02-29 전남대학교산학협력단 Bone age prediction system and method

Similar Documents

Publication Publication Date Title
US11842556B2 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
EP2973397B1 (en) Tissue object-based machine learning system for automated scoring of digital whole slides
US8391575B2 (en) Automatic image analysis and quantification for fluorescence in situ hybridization
JP2000513465A (en) Automatic microscope-assisted inspection method for living tissue samples and body fluid samples
JP5469070B2 (en) Method and system using multiple wavelengths for processing biological specimens
CN110796661B (en) Fungal microscopic image segmentation detection method and system based on convolutional neural network
US8542899B2 (en) Automatic image analysis and quantification for fluorescence in situ hybridization
Tania et al. Intelligent image-based colourimetric tests using machine learning framework for lateral flow assays
Hamouda et al. Automated red blood cell counting
Suwannaphong et al. Parasitic egg detection and classification in low-cost microscopic images using transfer learning
US20230066976A1 (en) Systematic characterization of objects in a biological sample
Lovell et al. International contest on pattern recognition techniques for indirect immunofluorescence images analysis
KR102330216B1 (en) Method for bone age and health status measurement using AI learning analysis
Adorno III et al. Advancing eosinophilic esophagitis diagnosis and phenotype assessment with deep learning computer vision
Tao et al. A preliminary study on the application of deep learning methods based on convolutional network to the pathological diagnosis of PJI
JP2021174201A (en) Program, information processor, information processing method, and learning model generation method
Navea et al. Red blood cells and white blood cells detection differentiation and counting using image processing
CN113723441B (en) Intelligent analysis system and method for lip gland pathology
Rajesh et al. Blood Phenotyping and Grouping based on Plate Test using Image Processing Strategies
Morisi The use of digital pathology and machine learning for the detection and characterisation of canine soft tissue sarcomas
Abdeta et al. Pulmonary Tuberculosis Bacilli Detection from Sputum Smear Microscopy Images Using K-Nearest Neighbor Classifier
Badgujar et al. Tsallis Entropy Segmentation and Weighted KNN Classifier-Based Automatic DR Detection from Retinal Fundus Images
Venkatesh et al. BLOOD TYPE DETECTION USING IMAGE PROCESSING
Sarno et al. Examination results of leukocytes and nitrites in the early detection of urinary tract infection
JP2019070571A (en) Indication of reactivity of antigen expression and c-myc determination method of gene translocation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant