WO2020196939A1 - 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체 - Google Patents

치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체 Download PDF

Info

Publication number
WO2020196939A1
WO2020196939A1 PCT/KR2019/003422 KR2019003422W WO2020196939A1 WO 2020196939 A1 WO2020196939 A1 WO 2020196939A1 KR 2019003422 W KR2019003422 W KR 2019003422W WO 2020196939 A1 WO2020196939 A1 WO 2020196939A1
Authority
WO
WIPO (PCT)
Prior art keywords
tooth
images
filter
gender
filters
Prior art date
Application number
PCT/KR2019/003422
Other languages
English (en)
French (fr)
Inventor
진동규
Original Assignee
본와이즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 본와이즈 주식회사 filed Critical 본와이즈 주식회사
Priority to US17/421,560 priority Critical patent/US11961235B2/en
Priority to JP2021541242A priority patent/JP7202739B2/ja
Priority to CN201980094162.7A priority patent/CN113573642A/zh
Priority to EP19921148.3A priority patent/EP3967235A4/en
Priority to PCT/KR2019/003422 priority patent/WO2020196939A1/ko
Publication of WO2020196939A1 publication Critical patent/WO2020196939A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/66Trinkets, e.g. shirt buttons or jewellery items
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Definitions

  • the present disclosure relates to techniques for determining the bone age of a tooth.
  • the bone age of the tooth may be evaluated from an image of a human tooth (eg, an X-ray image). By comparing the evaluated bone age of the tooth and the actual age of the human body, it can be determined whether the tooth is growing normally compared to the actual age of the human body. Also, if your teeth are not growing normally, you can determine how fast or delayed their development is.
  • an image of a human tooth eg, an X-ray image
  • an image of the tooth may be analyzed by a human user.
  • the user compares the tooth image actually photographed of the tooth with a reference image representing the age of each bone of the tooth, and determines a reference image that is the most similar to the tooth image and bone maturity of the tooth, and corresponds to the determined reference image.
  • the tooth bone age may be determined as the bone age of the tooth represented by the corresponding tooth image.
  • this method has a problem in that the results of bone age analysis on a tooth image may vary depending on the user's ability and expertise.
  • the shape of the tooth represented by the tooth image is not quantified data, the tooth bone age analysis result may show a large variation among users. Accordingly, the accuracy and reliability of the analysis result according to the above-described method may be greatly degraded.
  • the present disclosure provides a technique for determining the bone age of a tooth.
  • An apparatus for determining the bone age of a tooth may be proposed.
  • An apparatus according to an aspect of the present disclosure includes: one or more processors; And one or more memories in which instructions for causing the one or more processors to perform an operation when executed by the one or more processors and a neural network model for determining a bone age of a tooth are stored.
  • the at least one processor acquires a plurality of first tooth images photographing each of a plurality of teeth corresponding to a first gender and having a first bone age, and performs preprocessing on each of the plurality of first tooth images, Each of a plurality of pre-processed images is generated, and the neural network model is trained using the plurality of pre-processed images to derive a judgment filter for determining a tooth shape of the first bone age of the human body according to the first gender, Acquiring a second tooth image photographing a tooth of a human body according to a second gender and gender information indicating the second gender, and the second tooth image from the second tooth image and the gender information based on the determination filter The second bone age of the tooth corresponding to can be derived.
  • the one or more processors determine whether the second gender matches the first gender, and according to the determination that the second gender matches the first gender, among the second tooth images It is determined whether or not an area matching the determination filter exists, and according to a determination that an area matching the determination filter exists, the first bone age may be derived as the second bone age.
  • the one or more processors generate a plurality of initial filters including two or more pixels each having a randomly set pixel value, and among the plurality of initial filters, a matching region exists in the plurality of preprocessed images. At least two initial filters are selected, and the learning operation is repeatedly performed N times by using the at least two initial filters as a first filter.- The learning operation is at least two k-th (k-th) filters. A combined filter is generated by connecting to, and among the combined filters, at least two filters having matching regions in the plurality of pre-processed images are selected and used as a k+1th ((k+1)-th) filter. It is an operation to determine-, one of at least two N+1 th filters determined according to repeated execution of the learning operation is determined as the determination filter, and N may be a preset constant.
  • the at least one processor may generate the combined filter by connecting each of the at least two k-th filters left and right or up and down.
  • the at least one processor in the learning operation, based on a calculation result between pixel values of a partial region of each of the plurality of preprocessed images and pixel values of the combined filter, the combined filter It may be determined whether a matching region exists in the plurality of preprocessed images.
  • the one or more processors generate each of the plurality of pre-processed images by removing regions other than the region representing a tooth from each of the plurality of first tooth images, and the region representing the tooth is the plurality of
  • the first tooth image may be an area having a preset width and height based on a center point at a lower end of each of the first tooth images.
  • the at least one processor rotates each of the plurality of first tooth images at a predetermined angle of at least two or more, so that each of the plurality of pre-processed images is greater than the number of the plurality of first tooth images. Can be generated.
  • the at least one processor expands and contracts each of the plurality of first tooth images within a range of a preset ratio, so that each of the plurality of preprocessed images is greater than the number of the plurality of first tooth images. Can be created.
  • At least one memory may include information indicating a reference pixel value for identifying a preset feature in the plurality of first tooth images.
  • the at least one processor generates a reference filter including at least one pixel having the reference pixel value, identifies a region matching the reference filter in each of the plurality of first tooth images, and the plurality of first teeth
  • Each of the plurality of pre-processed images may be generated by removing the identified region from each image.
  • the at least one memory includes information indicating a reference slope and a reference size of a tooth shape represented by each of the plurality of preprocessed images, and information indicating a reference pixel value for identifying a preset feature.
  • the at least one processor rotates each of the plurality of first tooth images so that a tooth shape represented by each of the plurality of first tooth images has the reference tilt, and the tooth shape represented by each of the plurality of rotated images is the Enlarging or reducing each of the plurality of rotated images to have a reference size, and removing an area other than the area representing a tooth from each of the plurality of enlarged or reduced images-the area representing the tooth is enlarged or reduced An area having a preset width and height based on the center point of the lower part of each of the plurality of images.-In each of the plurality of images from which areas other than the area representing the teeth are removed, one or more pixels having the reference pixel value Each of the plurality of pre-processed images may be generated by
  • a method for determining the bone age of a tooth may be proposed.
  • a method according to an aspect of the present disclosure may be a method performed in a computer including at least one processor and at least one memory in which instructions for execution by the at least one processor are stored.
  • a method includes, by the at least one processor, acquiring, by the at least one processor, a plurality of first tooth images photographing each of a plurality of teeth corresponding to a first gender and having a first bone age; Generating each of a plurality of pre-processed images by performing pre-processing on each of the plurality of first tooth images; Learning a neural network model for determining a bone age of a tooth using the plurality of preprocessed images, and deriving a determination filter for determining a tooth shape of the first bone age of the human body according to the first gender; Acquiring a second tooth image of a human body according to the second gender and gender information indicating the second gender; And deriving a second bone age of a tooth corresponding to the second tooth image from the second tooth image and the gender information based on the determination filter.
  • the step of deriving a second bone age comprises: determining whether the second gender matches the first gender; Determining whether or not a region of the second tooth image matching the determination filter exists in accordance with a determination that the second gender matches the first gender; And deriving the first bone age as the second bone age according to the determination that the region matching the determination filter exists.
  • the deriving of the determination filter may include: generating a plurality of initial filters including two or more pixels each having a randomly set pixel value; Selecting at least two initial filters from among the plurality of initial filters in which a matching region exists in the plurality of preprocessed images; Performing a learning operation N times by using the at least two initial filters as a first filter-The learning operation generates a combined filter by connecting at least two k-th filters, , An operation of selecting at least two filters in which a matching region exists in the plurality of pre-processed images from among the combined filters and determining as the k+1th ((k+1)-th) filter -; And determining one of at least two N+1 th filters determined according to repetition of the learning operation as the determination filter, wherein N may be a preset constant.
  • the step of generating each of the plurality of pre-processed images includes generating each of the plurality of pre-processed images by removing an area other than a region representing a tooth from each of the plurality of first tooth images, ,
  • the region representing the tooth may be a region having a preset width and height based on a center point of a lower end of each of the plurality of first tooth images.
  • the generating of each of the plurality of preprocessed images includes: generating a reference filter including one or more pixels having a reference pixel value; Identifying a region matching the reference filter in each of the plurality of first tooth images; And generating each of the plurality of pre-processed images by removing the identified region from each of the plurality of first tooth images, wherein the reference pixel value includes a feature set in advance from the plurality of first tooth images. It may be a pixel value for identification.
  • a non-transitory computer-readable recording medium recording instructions for determining bone age of a tooth may be proposed.
  • Instructions recorded in a recording medium according to an aspect of the present disclosure are instructions to be executed on a computer, and when executed by one or more processors, one or more processors correspond to a first gender and have a first bone age.
  • a determination filter for determining the tooth shape of the first bone age of the human body according to the first gender is derived, and a second photographing the teeth of the human body according to the second gender
  • a tooth image and gender information indicating the second gender is derived, and to derive a second bone age of the tooth corresponding to the second tooth image from the second tooth image and the gender information based on the determination filter I can.
  • the instructions determine whether the second gender matches the first gender, and according to a determination that the second gender matches the first gender, the It is determined whether or not an area matching the judgment filter exists in the second tooth image, and according to a determination that an area matching the judgment filter exists, the first bone age can be derived as the second bone age. have.
  • the instructions include, by the one or more processors, generating a plurality of initial filters including two or more pixels each having a randomly set pixel value, and among the plurality of initial filters, in the plurality of preprocessed images At least two initial filters with matching regions are selected, the learning operation is repeatedly performed N times by using the at least two initial filters as the first filter-The learning operation is at least two k-th ( k-th) filters are connected to generate a combined filter, and among the combined filters, at least two filters with matching regions in the plurality of pre-processed images are selected and the k+1th ((k+1) -th) It is an operation that is determined by a filter.-, One of at least two N+1 th filters determined according to repeated execution of the learning operation is determined as the determination filter, and N may be a preset constant.
  • the instructions may cause the one or more processors to generate each of the plurality of preprocessed images by removing an area other than a region representing a tooth from each of the plurality of first tooth images, and
  • the indicated area may be an area having a preset width and height based on a center point of a lower end of each of the plurality of first tooth images.
  • the instructions include, by the one or more processors, generating a reference filter including one or more pixels having a reference pixel value, and determining a region matching the reference filter in each of the plurality of first tooth images. And, by removing the identified region from each of the plurality of first tooth images, to generate each of the plurality of pre-processed images, and the reference pixel value identifies a preset feature in the plurality of first tooth images It may be a pixel value to be used.
  • a bone age of a corresponding tooth may be determined from a tooth image photographed by using a neural network model learned according to a deep learning algorithm.
  • a neural network model may be efficiently trained by pre-processing training data including information such as a tooth image, sex, and bone age.
  • an analysis result of a patient's tooth bone age may be used for diagnosis of pediatric endocrine diseases (eg, growth hormone deficiency, precocious puberty, etc.) for the patient.
  • pediatric endocrine diseases eg, growth hormone deficiency, precocious puberty, etc.
  • bone age of a tooth may be evaluated based on a panoramic view of a tooth photographed during orthodontic treatment or dental treatment, and there is an abnormality in the bone age.
  • diagnosis of pediatric endocrine diseases can be performed for the patient.
  • FIG. 1 is a diagram illustrating a process of training a neural network model by an apparatus according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram illustrating a process of deriving a bone age of a corresponding tooth from an input tooth image by an apparatus according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram of a device according to various embodiments of the present disclosure.
  • FIG. 4 is a diagram illustrating a process of deriving a judgment filter according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a process of determining whether a filter has a matching area in an image according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating a process of performing pretreatment by removing an area other than an area representing a tooth according to an exemplary embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating a process of performing pretreatment by removing a portion corresponding to a treatment trace of a tooth according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram illustrating an example of a process of generating a preprocessed image from a first tooth image according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating an embodiment of a method for determining bone age of a tooth, which may be performed by the apparatus according to the present disclosure.
  • A, B, and C As used in the present disclosure, "A, B, and C,” “A, B, or C,” “A, B, and/or C” or “at least one of A, B, and C,” “A, B , Or at least one of C,” “at least one of A, B, and/or C,” “at least one selected from A, B, and C,” “at least one selected from A, B, or C,” "A An expression such as “at least one selected from B, and/or C” may mean each listed item or all possible combinations of the listed items.
  • At least one selected from A and B is (1) at least one of A, (2) A, (3) B, (4) at least one of B, (5) at least one of A and B At least one of, (6) at least one of A and B, at least one of (7) B, and A, and (8) A and B may all be referred to.
  • the expression "based on” as used in this disclosure is used to describe one or more factors that influence the act or action of a decision or judgment, which is described in a phrase or sentence in which the expression is included, and the expression is It does not exclude additional factors that influence the action or action of a decision or judgment.
  • a certain component eg, a first component
  • another component eg, a second component
  • the expression that the certain component is “connected” or “connected” to another component means that the certain component is In addition to being directly connected or connected to another component, it may mean that the device is connected or connected via a new other component (eg, a third component).
  • FIG. 1 is a diagram illustrating a process of training a neural network model 140 by an apparatus 100 according to an embodiment of the present disclosure.
  • the apparatus 100 may learn a neural network model for determining the bone age of a tooth, and may determine the bone age of a target tooth using the neural network model.
  • the device 100 may store the neural network model 140 for determining the bone age of the tooth.
  • the device 100 may train the neural network model 140 using the training data 110 according to a deep learning algorithm.
  • deep learning may mean that computer software improves data processing capability through learning using data and experiences of processing data.
  • the neural network model is constructed by modeling the correlation between data, and the correlation of the neural network model can be expressed by a plurality of parameters.
  • the neural network model extracts and analyzes features from given data to derive correlations between data, and it can be said that deep learning or machine learning is repeated this process to optimize parameters.
  • the device 100 may receive training data 110.
  • the learning data 110 may include a plurality of tooth images photographing each of the plurality of human teeth.
  • Each of the plurality of tooth images may be linked with information on the sex (eg, male, female) of the human body of the corresponding tooth and information on the actual bone age (eg, 5.24 years) of the corresponding tooth.
  • the device 100 as the learning data 110, corresponding to a human body of one gender (hereinafter, referred to as the first gender), and photographed teeth having one bone age (hereinafter, referred to as the first bone age).
  • a plurality of tooth images (hereinafter, first tooth image 120) may be input.
  • the device 100 may acquire a plurality of first tooth images 120 corresponding to the first gender and photographing each of the plurality of teeth having the first bone age.
  • a plurality of teeth images according to different sexes and different bone ages may also be input to the device 100 and used to train the neural network model 140, but a plurality of teeth corresponding to the first sex and the first bone age Since it can be processed by the device 100 in a manner similar to one tooth image 120, the technique of the present disclosure will be described below based on a plurality of first tooth images 120.
  • the apparatus 100 may perform pre-processing on each of the plurality of first tooth images 120 to generate a plurality of pre-processed images (hereinafter, pre-processed images 130 ).
  • pre-processed images 130 may rotate, enlarge/reduce each of the plurality of first tooth images 120, or perform an operation such as removing an unnecessary region.
  • the specific pretreatment process will be described later. Since a plurality of preprocessed images 130 preprocessed according to various methods are input to the neural network model 140, the learning efficiency of the neural network model 140 for determining the tooth bone age may be increased.
  • the apparatus 100 may train the neural network model 140 using the plurality of preprocessed images 130 to derive the determination filter 150 corresponding to the first gender and the first bone age.
  • the determination filter 150 may indicate a reference shape of the corresponding tooth.
  • the apparatus 100 may determine whether a tooth image represents a tooth shape according to a first sex and a first bone age using the determination filter 150. A detailed process of deriving the judgment filter 150 will be described later. As described above, by learning tooth images according to various sexes and bone ages, judgment filters according to different sexes and bone ages may also be derived.
  • FIG. 2 is a diagram illustrating a process of deriving a bone age of a corresponding tooth from an inputted tooth image by the apparatus 100 according to an exemplary embodiment of the present disclosure.
  • the device 100 uses the determination filter 150 derived in the learning process of the neural network model 140, and the target tooth image (hereinafter, referred to as the second tooth image 210) is input to the device 100. ), the bone age (hereinafter, the second bone age) of the target tooth indicated by the second tooth image 210 may be derived (determined).
  • the device 100 may receive the second tooth image 210 and gender information.
  • the second tooth image 210 may be a tooth image obtained by photographing teeth of a human body according to one gender (hereinafter, referred to as a second gender).
  • the second tooth image 210 may be an image of a target tooth for which tooth bone age is to be evaluated.
  • the sex information may be information indicating the sex of the human body (ie, the second sex) corresponding to the second tooth image 210.
  • the device 100 may derive the second bone age of the tooth corresponding to the second tooth image 210 from the second tooth image 210 and gender information based on the determination filter 150. Specifically, the device 100 may determine whether the second gender matches the first gender. When the second gender matches the first gender, the above-described determination filter 150 according to the first gender may be used to derive the bone age, but otherwise, another determination filter may be used to derive the bone age. According to a determination that the second gender matches the first gender, the device 100 may compare the second tooth image 210 with the determination filter 150. The device 100 may determine whether an area matching the determination filter 150 exists in the second tooth image 210.
  • the determination of whether to match may be performed by determining whether a region having pixel values that match the pixel values of the region indicated by the determination filter 150 is in the second tooth image 210. In an embodiment, the determination of whether to match may be performed by determining whether a region having pixel values within a preset range based on the pixel values of the determination filter 150 is in the second tooth image 210.
  • the device 100 may derive the first bone age as the second bone age of the second tooth image 210. If there is no region matching the determination filter 150, the device 100 determines that the second tooth image 210 does not have the first bone age, and the determination filter according to the different bone age and the second tooth The image 210 can be contrasted.
  • the device 100 may include one or more processors 310 and/or one or more memories. In one embodiment, at least one of these components of the device 100 may be omitted, or another component may be added to the device 100. In one embodiment, additionally or alternatively, some components may be integrated and implemented, or may be implemented as a singular or plural entity.
  • one or more processors 310 may be referred to as a processor 310.
  • the expression processor 310 may mean a set of one or more processors, unless clearly expressed otherwise in context.
  • one or more memories 320 may be referred to as memory 320.
  • the expression memory 320 may mean a set of one or more memories, unless clearly expressed otherwise in context.
  • at least some of the components inside and outside the device 100 are bus, general purpose input/output (GPIO), serial peripheral interface (SPI), mobile industry processor interface (MIPI), and the like. It is connected to each other through the data and/or signals can be exchanged.
  • GPIO general purpose input/output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the processor 310 may control at least one component of the device 100 connected to the processor 310 by driving software (eg, instructions, programs, etc.). In addition, the processor 310 may perform various operations related to the present disclosure, processing, data generation, and processing. Also, the processor 310 may load data or the like from the memory 320 or may store the data in the memory 320. The processor 310 may obtain a plurality of first tooth images 120 and perform preprocessing on each of the plurality of first tooth images 120 to generate each of the plurality of preprocessed images 130. The processor 310 may train the neural network model 140 using a plurality of preprocessed images 130 to derive the above-described decision filter 150. The processor 310 acquires gender information corresponding to the second tooth image 210 and the second tooth image 210, and based on the determination filter 150, the target tooth corresponding to the second tooth image 210 The second bone age can be derived.
  • driving software eg, instructions, programs, etc.
  • the processor 310 may perform various operations related to the present disclosure, processing
  • the memory 320 may store various types of data. Data stored in the memory 320 is data acquired, processed, or used by at least one component of the device 100, and may include software (eg, instructions, programs, etc.). The memory 320 may include volatile and/or nonvolatile memory. In the present disclosure, the command or program is software stored in the memory 320 and provides various functions to an application so that an operating system, an application, and/or an application for controlling the resources of the device 100 can utilize the resources of the device. It may include middleware and the like. The memory 320 may store a neural network model 140 for determining the bone age of the tooth. Also, the memory 320 may store instructions for causing the processor 310 to perform an operation (calculation) when executed by the processor 310.
  • the memory 320 includes a plurality of first tooth images 120, a plurality of preprocessed images 130, one or more deep learning algorithms, a second tooth image 210 and/or a second tooth image 210. ), such as gender information can be stored.
  • the device 100 may further include a transceiver 330.
  • the transceiver 330 may perform wireless or wired communication between the device 100 and a server, or between the device 100 and another device.
  • the transceiver 330 is eMBB (enhanced mobile broadband), URLLC (Ultra Reliable Low-Latency Communications), MMTC (Massive Machine Type Communications), LTE (long-term evolution), LTE-A (LTE Advance), UMTS (Universal Mobile Telecommunications System), GSM (Global System for Mobile communications), CDMA (code division multiple access), WCDMA (wideband CDMA), WiBro (Wireless Broadband), WiFi (wireless fidelity), Bluetooth (Bluetooth), NFC ( Near field communication), a global positioning system (GPS), or a global navigation satellite system (GNSS) may perform wireless communication.
  • the transceiver 330 may perform wired communication according to a method such as universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard 232 (RS-232), or
  • the processor 310 may obtain information from the server by controlling the transceiver 330.
  • Information obtained from the server may be stored in the memory 320.
  • the information obtained from the server includes a neural network model 140 for determining bone age of a tooth, a plurality of first tooth images 120, one or more deep learning algorithms, a second tooth image 210, and / Or may include gender information corresponding to the second tooth image 210.
  • the device 100 may further include an input device (not shown).
  • the input device includes data to be transmitted from the outside to at least one component of the device 100 (e.g., the training data 110, the second tooth image 210 and/or the gender corresponding to the second tooth image 210). Information, etc.) may be inputted.
  • the input device may include a mouse, a keyboard, and a touch pad.
  • the device 100 may further include an output device (not shown).
  • the output device may be a device that provides various data (eg, second bone age, etc.) according to an operation of the device 100 to a user in a visual form.
  • the output device may include a display, a projector, and the like.
  • the device 100 may be a device of various types.
  • the device 100 may be a portable communication device, a computer device, a portable multimedia device, a wearable device, or a device according to a combination of one or more of the aforementioned devices.
  • the device 100 of the present disclosure is not limited to the devices described above.
  • Various embodiments of the device 100 according to the present disclosure may be combined with each other. Each of the embodiments may be combined according to the number of cases, and an embodiment of the device 100 made by combining also falls within the scope of the present disclosure.
  • internal/external components of the apparatus 100 according to the present disclosure described above may be added, changed, replaced, or deleted according to embodiments.
  • internal/external components of the apparatus 100 described above may be implemented as hardware components.
  • the device 100 generates a plurality of filters having random pixel values, selects filters matching the plurality of pre-processed images 130, and creates new filters by combining the selected filters. And, among the combined filters, a process of selecting filters matching the plurality of preprocessed images 130 may be repeated. A filter derived after the device 100 repeats the process a predetermined number of times may be determined as the determination filter 150.
  • the processor 310 may generate a plurality of initial filters 410.
  • the initial filter 410 may include two or more pixels. Each pixel of the initial filter 410 may have a pixel value set at random (randomly).
  • the illustrated initial filter 410 is illustrated as having 9 pixels each. Each pixel is shown to have a contrast according to an arbitrarily set pixel value.
  • a pixel value may have a value between 0 and 255, 0 is black, 255 is white, and a value between 0 and 255 may mean gray having brightness according to the corresponding value.
  • the processor 310 may select at least two initial filters 420 from among the plurality of initial filters 410 in which a matching region exists in the plurality of preprocessed images 130.
  • the determination of whether to match or not may be performed as described above. That is, if the pixel values of the region represented by one initial filter and one region of the plurality of preprocessed images 130 are compared, and if the pixel values match or exist within a certain range, the corresponding initial filter is matched to the preprocessed image. It can be determined that the area exists.
  • the illustrated initial filters 421, 422, 423, 424, 425, 426, and the like may be selected.
  • the processor 310 may perform a learning operation using at least two of the selected initial filters 410 as first filters. Specifically, the processor 310 may generate the combined filter 430 by combining at least two initial filters used as the first filter. In one embodiment, the processor 310 may generate the combined filter 430 by connecting each of the at least two initial filters left and right or up and down. For example, the processor 310 may generate a combined filter 432 by connecting the initial filter 424 and the initial filter 426 up and down. In addition, the processor 310 may generate a combined filter 434 by connecting the initial filter 421, the initial filter 422, and the initial filter 423 vertically or horizontally. Also, the processor 310 may generate a combined filter 436 by connecting the initial filter 421 and the initial filter 423 up and down.
  • the processor 310 compares the combined filters 430 with a plurality of preprocessed images 130, and among the combined filters 430, at least two filters in which a matching region exists in the plurality of preprocessed images 130 (440) can be selected. The determination of whether to match is as described above. For example, among the combined filters 432, 434, and 436, the filters 432 and 434 may be selected to match the plurality of preprocessed images 130.
  • the processor 310 may generate the combined filters again by combining the filters 440 selected in the matching process again. For example, filter 432 and filter 434 may be combined to create a new combined filter.
  • the processor 310 may perform a learning operation again using the newly generated combined filters. That is, the processor 310 may reselect at least two filters in which a matching region exists in the plurality of preprocessed images 130 among the newly combined filters.
  • the selected filters may be combined again, and may undergo a matching process with the plurality of pre-processed images 130.
  • the processor 310 may repeat the learning operation a preset number of times (N) according to the above-described method.
  • the processor 310 in the learning operation, the processor 310 generates a combined filter by connecting at least two k-th filters, and among the combined filters, a region matching in a plurality of preprocessed images 130 exists. It may be an operation that selects at least two filters and determines the selected filter as the k+1th ((k+1)-th) filter.
  • the k+1th ((k+1)-th) filter can be used as a filter to be combined with each other in a learning operation to be performed next.
  • the processor 310 may determine one of the generated at least two N+1 th filters as the determination filter 150.
  • the corresponding determination filter 150 may indicate a reference shape of the corresponding tooth.
  • the processor 310 may determine whether one filter (eg, the initial filter 410, the combined filter 430, the decision filter 150, etc.) has a matching region in one image.
  • one filter eg, the initial filter 410, the combined filter 430, the decision filter 150, etc.
  • the determination of whether to match may be performed in the same manner.
  • a process of determining whether to match is described.
  • the processor 310 may sequentially or in parallel compare one 432 of the above-described combined filters with each of the plurality of preprocessed images 130.
  • the processor 310 may compare the respective partial regions of one preprocessed image 510 among the plurality of preprocessed images 130 with the corresponding filter 432. Some regions of the preprocessed image 510 compared to the filter 432 may have the same number of pixels as the number of pixels of the filter 432.
  • the processor 310 may perform calculation between pixel values of each partial region of the preprocessed image 510 and pixel values of the combined filter 432. For example, pixel values of pixels of a partial area of the preprocessed image 510 may be displayed as shown in the illustrated table 530. Also, pixel values of pixels of the combined filter 432 may be displayed as shown in the illustrated table 540. In an embodiment, the processor 310 may determine whether pixel values of corresponding pixels of two regions coincide with each other. If the pixel values match, the processor 310 may determine that the two regions match. In an embodiment, the processor 310 may determine whether pixel values of corresponding pixels in two regions are within a preset pixel value range.
  • the processor 310 may determine that the two regions are matched. For example, if the preset pixel value range is 30, each of the pixel values of pixels in a partial area of the preprocessed image 510 and the pixel values of the pixels of the combined filter 432 corresponding thereto are 30 or less. If there is a difference value, the processor 310 may determine that the two regions are matched.
  • the processor 310 calculates an average value of a deviation of pixel values between one partial region of the preprocessed image 510 and the combined filter 432, and when the calculated average value is less than a preset reference, the two regions Can be determined to match.
  • FIG. 6 is a diagram illustrating a process of performing pretreatment by removing an area other than an area representing a tooth according to an exemplary embodiment of the present disclosure.
  • the processor 310 may pre-process each of the plurality of first tooth images 120 to generate each of the plurality of pre-processed images 130.
  • the pretreatment process can be performed in a variety of ways.
  • the processor 310 may generate each of the plurality of preprocessed images 130 by removing regions other than the region 610 representing a tooth from each of the plurality of first tooth images 120.
  • the region 610 representing a tooth may be a region 610 defined with a preset width 630 and a preset height 640 based on the center point 620 at the lower end of the first tooth image.
  • the shape of the tooth may appear at the lower center of the tooth.
  • the processor 310 may generate each of the plurality of preprocessed images 130 by rotating each of the plurality of first tooth images 120.
  • the processor 310 may generate a plurality of preprocessed images 130 by rotating one first tooth image at least two preset angles. For example, the processor 310 rotates one first tooth image in a clockwise direction, 1, 3, and 5 degrees, respectively, and rotates 1, 3, and 5 degrees in a counterclockwise direction, respectively, so that a total of 7 preprocessed images are obtained. Can be created (including if not rotated). Information on at least two preset angles may be stored in the memory 320.
  • the processor 310 may generate each of the plurality of preprocessed images 130 by expanding or reducing each of the plurality of first tooth images 120. In one embodiment, the processor 310 may generate each of the plurality of preprocessed images 130 by expanding or reducing one first tooth image within a range of a preset ratio. For example, the processor 310 may enlarge or reduce one first tooth image by 3% or 5% to generate a total of 5 preprocessed images (including when not enlarged or reduced). Information on the preset ratio may be stored in the memory 320.
  • the processor 310 may generate each of the preprocessed images 130 in a larger number than the number of the plurality of first tooth images 120 from the plurality of first tooth images 120.
  • the processor 310 can further increase the accuracy of the decision filter 150 derived in the learning process.
  • FIG. 7 is a diagram illustrating a process of performing pretreatment by removing a portion corresponding to a treatment trace of a tooth according to an embodiment of the present disclosure.
  • a portion corresponding to the trace of the tooth treatment may also appear.
  • the portion corresponding to the treatment trace may be features that appear regardless of bone age or bone maturity of the corresponding tooth. That is, the traces are difficult to see as characteristics that appear only at a specific bone age of the tooth, and may be characteristics that can appear across all bone ages.
  • accuracy in determining the bone age may be inferior. Accordingly, prior to performing the learning operation, a portion corresponding to the treatment trace may be removed from the training data.
  • the memory 320 is information indicating a reference pixel value 710 for identifying a preset characteristic (ie, treatment trace) from a plurality of first tooth images 120 or one image representing a tooth. Can be saved.
  • a reference pixel value 710 for identifying corresponding features represented by a uniform white color or the like may be predefined.
  • the reference pixel value 710 may be 255, which means white.
  • the reference pixel value 710 may be defined in the form of a range such as "220 or more".
  • the processor 310 may generate the reference filter 720 based on the reference pixel value 710.
  • the reference filter 720 may include one or more pixels, and each pixel may have a reference pixel value 710 (eg, a).
  • the processor 310 may identify a region matching the reference filter 720 in each of the plurality of first tooth images 120. The determination of whether to match or not may be performed as described above.
  • the processor 310 may generate each of the plurality of preprocessed images 130 by removing the identified region from each of the plurality of first tooth images 120.
  • FIG 8 is a diagram illustrating an example of a process of generating a preprocessed image 130 from the first tooth image 120 according to an embodiment of the present disclosure.
  • the first tooth image 120 may have been photographed in an inclined state.
  • the first tooth image 120 may have been photographed to represent the target tooth larger or smaller.
  • the processor 310 may adjust the first tooth image 120 according to a preset reference.
  • some of the above-described pre-processing processes may be included in the pre-processing process according to the present example and performed.
  • the memory 320 may store information indicating a reference slope and a reference size of a tooth shape to be displayed by each of the plurality of preprocessed images 130. That is, in order to perform an efficient learning operation, information indicating a reference slope and a reference size that each of the plurality of preprocessed images 130 should have may be stored in the memory 320.
  • the memory 320 may further include information indicating a reference pixel value 710 for identifying a predetermined characteristic (the treatment trace of the tooth described above).
  • the processor 310 may rotate each of the plurality of first tooth images 120 so that the tooth shape represented by each of the plurality of first tooth images 120 has a reference slope stored in the memory 320 (810). ). Through this, the processor 310 may rotate the shape of the tooth photographed while inclined to fit the reference inclination (eg, vertical).
  • the reference inclination eg, vertical
  • the processor 310 may enlarge or reduce each of the plurality of rotated images so that the tooth shape represented by each of the plurality of rotated images has a reference size stored in the memory 320 (820 ).
  • the rotated multiple images may be enlarged to fit the reference size.
  • the processor 310 may remove a region other than the region 610 representing the tooth from each of the plurality of enlarged or reduced images (830).
  • the region 610 representing the teeth may be a region having a preset width and height based on a center point of a lower end of each of the plurality of enlarged or reduced images.
  • the processor 310 may remove a region matching the reference filter 720 from each of the plurality of images from which regions other than the region 610 representing the tooth are removed (840 ). As described above, the reference filter 720 may be generated based on the reference pixel value 710. The processor 310 may remove regions identified by the reference filter 720 from each of the plurality of images from which regions other than the region 610 representing teeth have been removed.
  • FIG. 9 is a diagram showing an embodiment of a method for determining bone age of a tooth, which can be performed by the device 100 according to the present disclosure.
  • a method for determining bone age of a tooth according to the present disclosure may be a computer-implemented method.
  • each step of the method or algorithm according to the present disclosure is described in a sequential order in the illustrated flowchart, each step may be performed in an order that may be arbitrarily combined by the present disclosure in addition to being performed sequentially.
  • the description in accordance with this flowchart does not exclude making changes or modifications to the method or algorithm, and does not imply that any step is essential or desirable.
  • at least some of the steps may be performed in parallel and repeatedly.
  • at least some of the steps may be omitted or other steps may be added.
  • the apparatus 100 may perform a method for determining a bone age of a tooth according to various embodiments of the present disclosure.
  • a method for determining bone age of a tooth according to an embodiment of the present disclosure includes: obtaining a plurality of first tooth images (S910), generating each of a plurality of preprocessed images (S920), and deriving a judgment filter A step (S930), acquiring the second tooth image and sex information (S940), and/or deriving a second bone age (S950).
  • step S910 the processor 310 of the device 100 may acquire a plurality of first tooth images 120, each of which corresponds to a first gender and has a first bone age, photographed.
  • step S920 the processor 310 may perform pre-processing on each of the plurality of first tooth images 120 to generate each of the plurality of pre-processed images 130.
  • step S930 the processor 310 trains the neural network model 140 for determining the bone age of the teeth by using the plurality of pre-processed images 130, so that the first bone age of the human body according to the first gender It is possible to derive a judgment filter 150 that determines the shape of the teeth of the patient.
  • step S940 the processor 310 may obtain a second tooth image 210 photographed of a human body according to the second gender and gender information indicating the second gender.
  • step S950 the processor 310 may derive the second bone age of the tooth corresponding to the second tooth image 210 from the second tooth image 210 and gender information based on the determination filter 150. have.
  • step S950 includes: determining, by the processor 310, whether the second gender matches the first gender; Determining whether a region of the second tooth image 210 that matches the determination filter 150 exists according to a determination that the second gender matches the first gender; And/or according to the determination that the region matching the determination filter 150 exists, deriving the first bone age as the second bone age.
  • step S930 includes: generating, by the processor 310, a plurality of initial filters 410 including two or more pixels each having a randomly set pixel value; Selecting at least two initial filters in which regions matched in the plurality of preprocessed images 130 exist among the plurality of initial filters 410; Repeating the learning operation N times by using at least two initial filters as a first filter; And/or determining one of the at least two N+1 th filters determined according to repetitive execution of the learning operation as the determination filter 150.
  • a combined filter is generated by connecting at least two k-th (k-th) filters, and among the combined filters, at least two filters having matching regions in the plurality of preprocessed images 130 are selected.
  • N may be a preset constant.
  • the processor 310 may generate a combined filter by connecting each of at least two k-th filters left and right or up and down.
  • the processor 310 in the learning operation, based on a calculation result between pixel values of a partial region of each of the plurality of preprocessed images 130 and pixel values of the combined filter, the combined filter is It may be determined whether a matching region exists in the plurality of preprocessed images 130.
  • step S920 the processor 310 removes a region other than the region 610 representing a tooth from each of the plurality of first tooth images 120 to generate each of the plurality of preprocessed images 130 It may include steps.
  • step S920 the processor 310 rotates each of the plurality of first tooth images 120 at a predetermined angle of at least two or more, so that the number of the first tooth images 120 is greater than the number of the plurality of first tooth images 120. Generating each of the plurality of pre-processed images 130 may be included.
  • step S920 the processor 310 enlarges and reduces each of the plurality of first tooth images 120 within a range of a preset ratio, so that the number is greater than the number of the plurality of first tooth images 120. It may include generating each of the plurality of pre-processed images 130.
  • step S920 may include: generating, by the processor 310, a reference filter 720 including one or more pixels having a reference pixel value 710; Identifying a region matching the reference filter 720 in each of the plurality of first tooth images 120; And/or removing the identified region from each of the plurality of first tooth images 120 to generate each of the plurality of pre-processed images 130.
  • step S920 may include rotating, by the processor 310, each of the plurality of first tooth images 120 so that the tooth shape represented by each of the plurality of first tooth images 120 has a reference slope; Expanding or reducing each of the plurality of rotated images so that the tooth shape represented by each of the plurality of rotated images has a reference size; Removing a region other than the region 610 representing a tooth from each of the plurality of enlarged or reduced images; And/or by removing a region matching the reference filter 720 including one or more pixels having a reference pixel value 710 from each of the plurality of images from which regions other than the region representing the tooth 610 are removed, a plurality of It may include generating each of the pre-processed images 130.
  • the region 610 representing a tooth may be a region having a preset width and height based on a center point of a lower end of each of the plurality of enlarged or reduced images.
  • the software may be software for implementing the various embodiments of the present disclosure described above.
  • the software may be inferred from various embodiments of the present disclosure by programmers in the art to which this disclosure belongs.
  • software may be an instruction (eg, code or code segment) or a program that the device can read.
  • the device is a device capable of operating according to a command called from a recording medium, and may be, for example, a computer.
  • the device may be the device 100 according to embodiments of the present disclosure.
  • the processor of the device may execute a called command, so that components of the device perform a function corresponding to the command.
  • the processor may be one or more processors 310 according to embodiments of the present disclosure.
  • the recording medium may mean any type of recording medium in which data is stored, which can be read by a device.
  • the recording medium may include, for example, ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, or the like.
  • the recording medium may be one or more memories 320.
  • the recording medium may be implemented in a distributed form, such as a computer system connected by a network.
  • the software can be distributed, stored, and executed in a computer system or the like.
  • the recording medium may be a non-transitory recording medium.
  • the non-transitory recording medium refers to a tangible medium irrespective of whether data is semi-permanently or temporarily stored, and does not include a signal propagating in a transient manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Neurology (AREA)
  • Orthopedic Medicine & Surgery (AREA)

Abstract

본 개시는 치아의 골 연령을 결정하기 위한 장치를 제안한다. 본 개시에 따른 장치는, 제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하고, 상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하고, 상기 복수의 전처리 이미지를 이용하여 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하고, 제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하고, 상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출할 수 있다.

Description

치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체
본 개시는 치아의 골 연령을 결정하기 위한 기술에 관한 것이다.
인체의 치아를 촬영한 이미지(예: X-ray 이미지 등)로부터 해당 치아의 골 연령이 평가될 수 있다. 평가된 치아의 골 연령과 해당 인체의 실제 나이를 비교함으로써, 인체의 실제 나이에 비해 치아가 정상적으로 성장 중인지 여부가 판단할 수 있다. 또한 치아가 정상적으로 성장 중이지 않다면, 그 발육이 얼마나 빠른지 또는 늦춰져 있는지 판단할 수 있다.
치아의 골 연령을 결정하기 위하여, 치아를 촬영한 이미지가 인간인 사용자에 의해 분석될 수 있다. 사용자는 치아를 실제 촬영한 치아 이미지와 치아의 각 골 연령을 대표하는 기준 이미지를 비교하여, 기준 이미지 중에서 해당 치아 이미지와 치아의 골 성숙도가 가장 유사한 기준 이미지를 결정하고, 결정된 기준 이미지에 해당하는 치아 골 연령을 해당 치아 이미지가 나타내는 치아의 골 연령으로 결정할 수 있다. 그러나, 이러한 방법은 사용자의 능력, 전문성에 따라 치아 이미지에 대한 골 연령 분석 결과가 달라질 수 있다는 문제가 있다. 특히 치아 이미지가 나타내는 치아의 형태는 정량화되지 않은 데이터이므로, 치아 골 연령 분석 결과는 사용자 간 큰 편차를 보일 수 있다. 이에 따라, 상술한 방법에 따른 분석 결과는 정확성 및 신뢰성이 크게 떨어질 수 있다.
본 개시는 치아의 골 연령을 결정하기 위한 기술을 제공한다.
본 개시의 한 측면으로서, 치아의 골 연령을 결정하기 위한 장치가 제안될 수 있다. 본 개시의 한 측면에 따른 장치는, 하나 이상의 프로세서; 및 상기 하나 이상의 프로세서에 의한 실행 시 상기 하나 이상의 프로세서가 동작을 수행하도록 하는 명령들 및 치아의 골 연령을 결정하기 위한 신경망 모델이 저장된 하나 이상의 메모리를 포함할 수 있다. 상기 하나 이상의 프로세서는, 제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하고, 상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하고, 상기 복수의 전처리 이미지를 이용하여 상기 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하고, 제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하고, 상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출할 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 상기 제2 성별이 상기 제1 성별과 일치하는지 여부를 결정하고, 상기 제2 성별이 상기 제1 성별과 일치한다는 결정에 따라, 상기 제2 치아 이미지 중 상기 판단 필터에 매칭되는 영역이 존재하는지 여부를 결정하고, 상기 판단 필터에 매칭되는 영역이 존재한다는 결정에 따라, 상기 제1 골 연령을 상기 제2 골 연령으로 도출할 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터를 생성하고, 상기 복수의 초기 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하고, 상기 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하고 - 상기 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 상기 조합된 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산임 - , 상기 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 상기 판단 필터로 결정하고, 상기 N은 미리 설정된 상수일 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 상기 학습 연산에서, 상기 적어도 두 개의 k번째 필터 각각을 좌우 또는 상하로 연결하여 상기 조합된 필터를 생성할 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 상기 학습 연산에서, 상기 복수의 전처리 이미지 각각의 일부 영역의 픽셀값들 및 상기 조합된 필터의 픽셀값들 사이의 계산 결과에 기초하여, 상기 조합된 필터가 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는지 여부를 결정할 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 상기 복수의 제1 치아 이미지 각각에서 치아를 나타내는 영역 이외의 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하고, 상기 치아를 나타내는 영역은 상기 복수의 제1 치아 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역일 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 상기 복수의 제1 치아 이미지 각각을 미리 설정된 적어도 둘 이상의 각도로 회전하여, 상기 복수의 제1 치아 이미지의 개수보다 많은 개수의 상기 복수의 전처리 이미지 각각을 생성할 수 있다.
일 실시예에 있어서, 하나 이상의 프로세서는, 상기 복수의 제1 치아 이미지 각각을 미리 설정된 비율의 범위에서 확대 및 축소하여, 상기 복수의 제1 치아 이미지의 개수보다 많은 개수의 상기 복수의 전처리 이미지 각각을 생성할 수 있다.
일 실시예에 있어서, 하나 이상의 메모리는, 상기 복수의 제1 치아 이미지에서 미리 설정된 특징을 식별하기 위한 기준 픽셀값을 지시하는 정보를 포함할 수 있다. 상기 하나 이상의 프로세서는, 상기 기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터를 생성하고, 상기 복수의 제1 치아 이미지 각각에서 상기 기준 필터에 매칭되는 영역을 식별하고, 상기 복수의 제1 치아 이미지 각각에서 상기 식별된 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성할 수 있다.
일 실시예에 있어서, 하나 이상의 메모리는, 상기 복수의 전처리 이미지 각각이 나타내는 치아 형상의 기준 기울기 및 기준 크기를 지시하는 정보, 및 미리 설정된 특징을 식별하기 위한 기준 픽셀값을 지시하는 정보를 포함할 수 있다. 상기 하나 이상의 프로세서는, 상기 복수의 제1 치아 이미지 각각이 나타내는 치아 형상이 상기 기준 기울기를 가지도록 상기 복수의 제1 치아 이미지 각각을 회전하고, 상기 회전된 복수의 이미지 각각이 나타내는 치아 형상이 상기 기준 크기를 가지도록 상기 회전된 복수의 이미지 각각을 확대하거나 축소하고, 상기 확대되거나 축소된 복수의 이미지 각각에서, 치아를 나타내는 영역 이외의 영역을 제거하고 - 상기 치아를 나타내는 영역은 상기 확대되거나 축소된 복수의 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역임 - , 상기 치아를 나타내는 영역 이외의 영역이 제거된 복수의 이미지 각각에서, 상기 기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터에 매칭되는 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성할 수 있다.
본 개시의 한 측면으로서, 치아의 골 연령을 결정하기 위한 방법이 제안될 수 있다. 본 개시의 한 측면에 따른 방법은, 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되기 위한 명령들이 저장된 하나 이상의 메모리를 포함하는 컴퓨터에서 수행되는 방법일 수 있다. 본 개시의 한 측면에 따른 방법은, 상기 하나 이상의 프로세서가, 제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하는 단계; 상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하는 단계; 상기 복수의 전처리 이미지를 이용하여, 치아의 골 연령을 결정하기 위한 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하는 단계; 제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하는 단계; 및 상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출하는 단계를 포함할 수 있다.
일 실시예에 있어서, 제2 골 연령을 도출하는 단계는, 상기 제2 성별이 상기 제1 성별과 일치하는지 여부를 결정하는 단계; 상기 제2 성별이 상기 제1 성별과 일치한다는 결정에 따라, 상기 제2 치아 이미지 중 상기 판단 필터에 매칭되는 영역이 존재하는지 여부를 결정하는 단계; 및 상기 판단 필터에 매칭되는 영역이 존재한다는 결정에 따라, 상기 제1 골 연령을 상기 제2 골 연령으로 도출하는 단계를 포함할 수 있다.
일 실시예에 있어서, 판단 필터를 도출하는 단계는, 각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터를 생성하는 단계; 상기 복수의 초기 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하는 단계; 상기 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하는 단계 - 상기 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 상기 조합된 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산임 - ; 및 상기 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 상기 판단 필터로 결정하는 단계를 포함하고, 상기 N은 미리 설정된 상수일 수 있다.
일 실시예에 있어서, 복수의 전처리 이미지 각각을 생성하는 단계는, 상기 복수의 제1 치아 이미지 각각에서 치아를 나타내는 영역 이외의 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하는 단계를 포함하고, 상기 치아를 나타내는 영역은 상기 복수의 제1 치아 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역일 수 있다.
일 실시예에 있어서, 복수의 전처리 이미지 각각을 생성하는 단계는, 기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터를 생성하는 단계; 상기 복수의 제1 치아 이미지 각각에서 상기 기준 필터에 매칭되는 영역을 식별하는 단계; 및 상기 복수의 제1 치아 이미지 각각에서 상기 식별된 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하는 단계를 포함하고, 상기 기준 픽셀값은, 상기 복수의 제1 치아 이미지에서 미리 설정된 특징을 식별하기 위한 픽셀값일 수 있다.
본 개시의 한 측면으로서, 치아의 골 연령을 결정하기 위한 명령들을 기록한 비일시적 컴퓨터 판독 가능 기록 매체가 제안될 수 있다. 본 개시의 한 측면에 따른 기록 매체에 기록된 명령들은, 컴퓨터 상에서 수행되기 위한 명령들로서, 하나 이상의 프로세서에 의한 실행시, 하나 이상의 프로세서가, 제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하고, 상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하고, 상기 복수의 전처리 이미지를 이용하여 치아의 골 연령을 결정하기 위한 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하고, 제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하고, 상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출하도록 할 수 있다.
일 실시예에 있어서, 상기 명령들은, 상기 하나 이상의 프로세서가, 상기 제2 성별이 상기 제1 성별과 일치하는지 여부를 결정하고, 상기 제2 성별이 상기 제1 성별과 일치한다는 결정에 따라, 상기 제2 치아 이미지 중 상기 판단 필터에 매칭되는 영역이 존재하는지 여부를 결정하고, 상기 판단 필터에 매칭되는 영역이 존재한다는 결정에 따라, 상기 제1 골 연령을 상기 제2 골 연령으로 도출하도록 할 수 있다.
일 실시예에 있어서, 상기 명령들은, 상기 하나 이상의 프로세서가, 각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터를 생성하고, 상기 복수의 초기 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하고, 상기 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하고 - 상기 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 상기 조합된 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산임 - , 상기 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 상기 판단 필터로 결정하도록 하고, 상기 N은 미리 설정된 상수일 수 있다.
일 실시예에 있어서, 상기 명령들은, 상기 하나 이상의 프로세서가, 상기 복수의 제1 치아 이미지 각각에서 치아를 나타내는 영역 이외의 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하도록 하고, 상기 치아를 나타내는 영역은 상기 복수의 제1 치아 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역일 수 있다.
일 실시예에 있어서, 상기 명령들은, 상기 하나 이상의 프로세서가, 기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터를 생성하고, 상기 복수의 제1 치아 이미지 각각에서 상기 기준 필터에 매칭되는 영역을 식별하고, 상기 복수의 제1 치아 이미지 각각에서 상기 식별된 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하도록 하고, 상기 기준 픽셀값은, 상기 복수의 제1 치아 이미지에서 미리 설정된 특징을 식별하기 위한 픽셀값일 수 있다.
본 개시의 다양한 실시예들에 의하면, 딥 러닝(Deep Learning) 알고리즘에 따라 학습된 신경망(Neural Network) 모델을 이용하여, 치아를 촬영한 치아 이미지로부터 해당 치아의 골 연령이 결정될 수 있다.
본 개시의 다양한 실시예들에 의하면, 치아 이미지, 성별, 골 연령 등의 정보를 포함하는 학습 데이터를 전처리함으로써, 신경망 모델을 효율적으로 학습시킬 수 있다.
본 개시의 다양한 실시예들에 의하면, 신경망 모델을 이용하여 치아의 골 연령을 결정함으로써, 치아 골 연령에 대한 분석 결과의 정확성 및 신뢰성이 담보될 수 있다.
본 개시의 다양한 실시예들에 의하면, 환자의 치아 골 연령에 대한 분석 결과가 해당 환자에 대한 소아내분비 질환(예: 성장 호르몬 결핍증, 성조숙증 등)의 진단에 사용될 수 있다.
본 개시의 다양한 실시예들에 의하면, 치과에서의 교정 내지 치과 치료 중 촬영된 치아의 파노라믹 뷰(panoramic view)를 기초로 치아의 골 연령이 평가될 수 있고, 골 연령에 이상이 있는 경우, 소아내분비과와 연계하여 해당 환자에 대한 소아내분비 질환의 진단이 수행될 수 있다.
도 1은 본 개시의 일 실시예에 따른 장치가 신경망 모델을 학습시키는 과정을 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따른 장치가, 입력된 한 치아 이미지로부터 해당 치아의 골 연령을 도출하는 과정을 나타낸 도면이다.
도 3은 본 개시의 다양한 실시예들에 따른 장치의 블록도를 나타낸 도면이다.
도 4는 본 개시의 일 실시예에 따른, 판단 필터를 도출하는 과정을 나타낸 도면이다.
도 5는 본 개시의 일 실시예에 따른, 필터가 한 이미지에서 매칭되는 영역을 가지는지 여부를 판단하는 과정을 나타낸 도면이다.
도 6은 본 개시의 일 실시예에 따른, 치아를 나타내는 영역 이외의 영역을 제거함으로써 전처리를 수행하는 과정을 나타낸 도면이다.
도 7은 본 개시의 일 실시예에 따른, 치아의 치료 흔적에 해당하는 부분을 제거함으로써 전처리를 수행하는 과정을 나타낸 도면이다.
도 8은 본 개시의 일 실시예에 따른, 제1 치아 이미지로부터 전처리 이미지를 생성하는 과정의 예시를 나타낸 도면이다.
도 9는 본 개시에 따른 장치에 의해 수행될 수 있는, 치아의 골 연령을 결정하기 위한 방법의 일 실시예를 나타낸 도면이다.
본 개시에 기재된 다양한 실시예들은, 본 개시의 기술적 사상을 명확히 설명하기 위한 목적으로 예시된 것이며, 이를 특정한 실시 형태로 한정하려는 것이 아니다. 본 개시의 기술적 사상은, 본 개시에 기재된 각 실시예의 다양한 변경(modifications), 균등물(equivalents), 대체물(alternatives) 및 각 실시예의 전부 또는 일부로부터 선택적으로 조합된 실시예를 포함한다. 또한 본 개시의 기술적 사상의 권리 범위는 이하에 제시되는 다양한 실시예들이나 이에 대한 구체적 설명으로 한정되지 않는다.
기술적이거나 과학적인 용어를 포함해서, 본 개시에서 사용되는 용어들은, 달리 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 가질 수 있다.
본 개시에서 사용되는 "포함한다", "포함할 수 있다", "구비한다", "구비할 수 있다", "가진다", "가질 수 있다" 등과 같은 표현들은, 대상이 되는 특징(예: 기능, 동작 또는 구성요소 등)이 존재함을 의미하며, 다른 추가적인 특징의 존재를 배제하지 않는다. 즉, 이와 같은 표현들은 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.
본 개시에서 사용되는 단수형의 표현은, 문맥상 다르게 뜻하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구항에 기재된 단수형의 표현에도 마찬가지로 적용된다.
본 개시에서 사용되는 "제1", "제2", 또는 "첫째", "둘째" 등의 표현은, 문맥상 다르게 뜻하지 않는 한, 복수의 동종 대상들을 지칭함에 있어 한 대상을 다른 대상과 구분하기 위해 사용되며, 해당 대상들간의 순서 또는 중요도를 한정하는 것은 아니다.
본 개시에서 사용되는 "A, B, 및 C," "A, B, 또는 C," "A, B, 및/또는 C" 또는 "A, B, 및 C 중 적어도 하나," "A, B, 또는 C 중 적어도 하나," "A, B, 및/또는 C 중 적어도 하나," "A, B, 및 C 중에서 선택된 적어도 하나," "A, B, 또는 C 중에서 선택된 적어도 하나," "A, B, 및/또는 C 중에서 선택된 적어도 하나" 등의 표현은, 각각의 나열된 항목 또는 나열된 항목들의 가능한 모든 조합들을 의미할 수 있다. 예를 들어, "A 및 B 중에서 선택된 적어도 하나"는, (1) A, (2) A 중 적어도 하나, (3) B, (4) B 중 적어도 하나, (5) A 중 적어도 하나 및 B 중 적어도 하나, (6) A 중 적어도 하나 및 B, (7) B 중 적어도 하나 및 A, (8) A 및 B를 모두 지칭할 수 있다.
본 개시에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정, 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되고, 이 표현은 해당 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.
본 개시에서 사용되는, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "연결되어" 있다거나 "접속되어" 있다는 표현은, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결 또는 접속되는 것뿐 아니라, 새로운 다른 구성요소(예: 제3 구성요소)를 매개로 하여 연결 또는 접속되는 것을 의미할 수 있다.
본 개시에서 사용된 표현 "~하도록 구성된(configured to)"은 문맥에 따라, "~하도록 설정된", "~하는 능력을 가지는", "~하도록 변경된", "~하도록 만들어진", "~를 할 수 있는" 등의 의미를 가질 수 있다. 해당 표현은, "하드웨어적으로 특별히 설계된"의 의미로 제한되지 않으며, 예를 들어 특정 동작을 수행하도록 구성된 프로세서란, 소프트웨어를 실행함으로써 그 특정 동작을 수행할 수 있는 범용 프로세서(generic-purpose processor)를 의미할 수 있다.
이하, 첨부된 도면들을 참조하여, 본 개시의 다양한 실시예들을 설명한다. 첨부된 도면 및 도면에 대한 설명에서, 동일하거나 실질적으로 동등한(substantially equivalent) 구성요소에는 동일한 참조부호가 부여될 수 있다. 또한, 이하 다양한 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있으나, 이는 해당 구성요소가 그 실시예에 포함되지 않는 것을 의미하지는 않는다.
도 1은 본 개시의 일 실시예에 따른 장치(100)가 신경망(Neural Network) 모델(140)을 학습시키는 과정을 나타낸 도면이다. 본 개시의 일 실시예에 따른 장치(100)는 치아의 골 연령을 결정하기 위한 신경망 모델을 학습시키고, 신경망 모델을 이용하여 대상 치아의 골 연령을 결정할 수 있다.
구체적으로, 장치(100)는 치아의 골 연령을 결정하기 위한 신경망 모델(140)을 저장할 수 있다. 장치(100)는 딥 러닝(Deep Learning) 알고리즘에 따라, 학습 데이터(110)를 이용해 신경망 모델(140)을 학습시킬 수 있다. 본 개시에서 딥 러닝은, 데이터 및 데이터를 처리한 경험을 이용한 학습을 통해, 컴퓨터 소프트웨어가 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 신경망 모델의 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여, 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 파라미터를 최적화 해나가는 것이 딥 러닝 내지 기계 학습이라고 할 수 있다.
장치(100)는 학습 데이터(110)를 입력 받을 수 있다. 학습 데이터(110)는 복수의 인체의 치아 각각을 촬영한 복수의 치아 이미지를 포함할 수 있다. 복수의 치아 이미지 각각은, 해당 치아의 인체가 가지는 성별(예: 남, 여)에 대한 정보 및 해당 치아의 실제 골 연령(예: 5.24세)에 대한 정보와 연계될 수 있다. 일 실시예에서, 장치(100)는, 학습 데이터(110)로서, 한 성별(이하, 제1 성별)의 인체에 해당하고, 한 골 연령(이하, 제1 골 연령)을 가지는 치아를 촬영한 복수의 치아 이미지(이하, 제1 치아 이미지(120))를 입력 받을 수 있다. 즉, 장치(100)는 제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지(120)를 획득할 수 있다. 본 개시에서, 다른 성별 및 다른 골 연령에 따른 복수의 치아 이미지 역시 장치(100)에 입력되고 신경망 모델(140)을 학습시키는데 사용될 수 있으나, 제1 성별 및 제1 골 연령에 해당하는 복수의 제1 치아 이미지(120)와 유사한 방식으로 장치(100)에 의해 처리될 수 있으므로, 이하 본 개시의 기술은 복수의 제1 치아 이미지(120)를 기준으로 설명한다.
장치(100)는 복수의 제1 치아 이미지(120) 각각에 전처리(pre-processing)를 수행하여, 복수의 전처리된 이미지(이하, 전처리 이미지(130)) 각각을 생성할 수 있다. 전처리 과정에서 장치(100)는, 복수의 제1 치아 이미지(120) 각각을 회전하거나, 확대/축소하거나, 불필요한 영역을 제거하는 등의 동작을 수행할 수 있다. 구체적인 전처리 과정에 대해서는 후술한다. 다양한 방식에 따라 전처리된 복수의 전처리 이미지(130)가 신경망 모델(140)에 입력됨으로써, 치아 골 연령을 결정하기 위한 신경망 모델(140)의 학습 효율이 높아질 수 있다.
장치(100)는 복수의 전처리 이미지(130)를 이용하여 신경망 모델(140)을 학습시켜, 제1 성별 및 제1 골 연령에 해당하는 판단 필터(150)를 도출할 수 있다. 해당 판단 필터(150)는 제1 성별을 가지는 인체가, 제1 골 연령에 해당하는 치아를 가졌을 때, 해당 치아가 가지는 기준 형태를 나타낼 수 있다. 장치(100)는 판단 필터(150)를 이용하여, 한 치아 이미지가 제1 성별 및 제1 골 연령에 따른 치아 형태를 나타내는지 여부를 결정할 수 있다. 구체적인 판단 필터(150)의 도출 과정에 대해서는 후술한다. 전술한 바와 같이, 다양한 성별 및 골 연령에 따른 치아 이미지가 학습됨으로써, 다른 성별 및 골 연령에 따른 판단 필터들도 도출될 수 있다.
도 2는 본 개시의 일 실시예에 따른 장치(100)가, 입력된 한 치아 이미지로부터 해당 치아의 골 연령을 도출하는 과정을 나타낸 도면이다. 본 개시에 따른 장치(100)는, 신경망 모델(140)의 학습 과정에서 도출된 판단 필터(150)를 이용하여, 장치(100)에 입력되는 대상 치아 이미지(이하, 제2 치아 이미지(210))로부터, 제2 치아 이미지(210)가 나타내는 대상 치아의 골 연령(이하, 제2 골 연령)을 도출(결정)할 수 있다.
구체적으로, 장치(100)는 제2 치아 이미지(210) 및 성별 정보를 입력 받을 수 있다. 제2 치아 이미지(210)는, 한 성별(이하, 제2 성별)에 따른 인체의 치아를 촬영한 치아 이미지일 수 있다. 제2 치아 이미지(210)는, 치아 골 연령을 평가하고자 하는 대상 치아를 촬영한 이미지일 수 있다. 성별 정보는 제2 치아 이미지(210)에 해당하는 인체의 성별(즉, 제2 성별)을 나타내는 정보일 수 있다.
장치(100)는 판단 필터(150)에 기초하여 제2 치아 이미지(210) 및 성별 정보로부터, 제2 치아 이미지(210)에 해당하는 치아의 제2 골 연령을 도출할 수 있다. 구체적으로, 장치(100)는 제2 성별이 제1 성별과 일치하는지 여부를 결정할 수 있다. 제2 성별이 제1 성별과 일치하는 경우, 전술한 제1 성별에 따른 판단 필터(150)가 골 연령 도출에 사용될 수 있으나, 그렇지 않은 경우 다른 판단 필터가 골 연령 도출에 사용되어야 할 수 있다. 제2 성별이 제1 성별과 일치한다는 결정에 따라, 장치(100)는 제2 치아 이미지(210)와 판단 필터(150)를 비교할 수 있다. 장치(100)는 제2 치아 이미지(210) 중, 판단 필터(150)와 매칭되는 영역이 존재하는지 여부를 결정할 수 있다. 매칭 여부의 판단은, 판단 필터(150)가 나타내는 영역의 픽셀값들과 일치하는 픽셀값들을 가지는 영역이 제2 치아 이미지(210) 중에 있는지 여부를 판단함으로써 수행될 수 있다. 일 실시예에서, 매칭 여부의 판단은, 판단 필터(150)의 픽셀값들을 기준으로 미리 설정된 범위 내의 픽셀값들을 가지는 영역이, 제2 치아 이미지(210) 중에 있는지 판단함으로써 수행될 수도 있다.
판단 필터(150)가 나타내는 특정 치아 형태와 일치하는 영역이 제2 치아 이미지(210) 중에서 발견된다면, 즉, 판단 필터(150)에 매칭되는 영역이 제2 치아 이미지(210) 중에 존재한다고 결정되면, 장치(100)는 제1 골 연령을 제2 치아 이미지(210)의 제2 골 연령으로 도출할 수 있다. 판단 필터(150)에 매칭되는 영역이 존재하지 않는 경우, 장치(100)는 제2 치아 이미지(210)가 제1 골 연령을 가지지 않는 것으로 판단하고, 다른 골 연령에 따른 판단 필터와 제2 치아 이미지(210)를 대비할 수 있다.
도 3은 본 개시의 다양한 실시예들에 따른 장치(100)의 블록도를 나타낸 도면이다. 일 실시예에서, 장치(100)는 하나 이상의 프로세서(310) 및/또는 하나 이상의 메모리를 포함할 수 있다. 일 실시예에서, 장치(100)의 이러한 구성요소들 중 적어도 하나가 생략되거나, 다른 구성요소가 장치(100)에 추가될 수 있다. 일 실시예에서, 추가적으로(additionally) 또는 대체적으로(alternatively), 일부의 구성요소들이 통합되어 구현되거나, 단수 또는 복수의 개체로 구현될 수 있다. 본 개시에서, 하나 이상의 프로세서(310)는 프로세서(310)라고 표현될 수 있다. 프로세서(310)라는 표현은, 문맥상 명백히 다르게 표현하지 않는 이상, 하나 또는 그 이상의 프로세서의 집합을 의미할 수 있다. 본 개시에서, 하나 이상의 메모리(320)는 메모리(320)라고 표현될 수 있다. 메모리(320)라는 표현은, 문맥상 명백히 다르게 표현하지 않는 이상, 하나 또는 그 이상의 메모리의 집합을 의미할 수 있다. 일 실시예에서, 장치(100) 내, 외부의 구성요소들 중 적어도 일부의 구성요소들은 버스, GPIO(general purpose input/output), SPI(serial peripheral interface) 또는 MIPI(mobile industry processor interface) 등을 통해 서로 연결되어, 데이터 및/또는 시그널을 주고 받을 수 있다.
프로세서(310)는 소프트웨어(예: 명령, 프로그램 등)를 구동하여 프로세서(310)에 연결된 장치(100)의 적어도 하나의 구성요소를 제어할 수 있다. 또한 프로세서(310)는 본 개시와 관련된 다양한 연산, 처리, 데이터 생성, 가공 등의 동작을 수행할 수 있다. 또한 프로세서(310)는 데이터 등을 메모리(320)로부터 로드하거나, 메모리(320)에 저장할 수 있다. 프로세서(310)는, 복수의 제1 치아 이미지(120)를 획득하고, 복수의 제1 치아 이미지(120) 각각에 전처리를 수행하여 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 프로세서(310)는, 복수의 전처리 이미지(130)를 이용하여 신경망 모델(140)을 학습시켜, 상술한 판단 필터(150)를 도출할 수 있다. 프로세서(310)는 제2 치아 이미지(210) 및 제2 치아 이미지(210)에 해당하는 성별 정보를 획득하고, 판단 필터(150)에 기초하여 제2 치아 이미지(210)에 해당하는 대상 치아의 제2 골 연령을 도출할 수 있다.
메모리(320)는 다양한 데이터를 저장할 수 있다. 메모리(320)에 저장되는 데이터는, 장치(100)의 적어도 하나의 구성요소에 의해 획득되거나, 처리되거나, 사용되는 데이터로서, 소프트웨어(예: 명령, 프로그램 등)를 포함할 수 있다. 메모리(320)는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 본 개시에서, 명령 내지 프로그램은 메모리(320)에 저장되는 소프트웨어로서, 장치(100)의 리소스를 제어하기 위한 운영체제, 어플리케이션 및/또는 어플리케이션이 장치의 리소스들을 활용할 수 있도록 다양한 기능을 어플리케이션에 제공하는 미들 웨어 등을 포함할 수 있다. 메모리(320)는 치아의 골 연령을 결정하기 위한 신경망 모델(140)을 저장할 수 있다. 또한 메모리(320)는, 프로세서(310)에 의한 실행 시, 프로세서(310)가 동작(연산)을 수행하도록 하는 명령들을 저장할 수 있다. 일 실시예에서, 메모리(320)는 복수의 제1 치아 이미지(120), 복수의 전처리 이미지(130), 하나 이상의 딥 러닝 알고리즘, 제2 치아 이미지(210) 및/또는 제2 치아 이미지(210)에 해당하는 성별 정보 등을 저장할 수 있다.
일 실시예에서, 장치(100)는 송수신기(330)를 더 포함할 수 있다. 송수신기(330)는, 장치(100)와 서버 또는 장치(100)와 다른 장치 간의 무선 또는 유선 통신을 수행할 수 있다. 예를 들어, 송수신기(330)는 eMBB(enhanced Mobile Broadband), URLLC(Ultra Reliable Low-Latency Communications), MMTC(Massive Machine Type Communications), LTE(long-term evolution), LTE-A(LTE Advance), UMTS(Universal Mobile Telecommunications System), GSM(Global System for Mobile communications), CDMA(code division multiple access), WCDMA(wideband CDMA), WiBro(Wireless Broadband), WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), GPS(Global Positioning System) 또는 GNSS(global navigation satellite system) 등의 방식에 따른 무선 통신을 수행할 수 있다. 예를 들어, 송수신기(330)는 USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232) 또는 POTS(plain old telephone service) 등의 방식에 따른 유선 통신을 수행할 수 있다.
일 실시예에서, 프로세서(310)는 송수신기(330)를 제어하여 서버로부터 정보를 획득할 수 있다. 서버로부터 획득된 정보는 메모리(320)에 저장될 수 있다. 일 실시예에서, 서버로부터 획득되는 정보는, 치아의 골 연령을 결정하기 위한 신경망 모델(140), 복수의 제1 치아 이미지(120), 하나 이상의 딥 러닝 알고리즘, 제2 치아 이미지(210) 및/또는 제2 치아 이미지(210)에 해당하는 성별 정보 등을 포함할 수 있다.
일 실시예에서, 장치(100)는 입력 장치(도시되지 않음)를 더 포함할 수 있다. 입력 장치는 외부로부터 장치(100)의 적어도 하나의 구성요소에 전달하기 위한 데이터(예: 학습 데이터(110), 제2 치아 이미지(210) 및/또는 제2 치아 이미지(210)에 해당하는 성별 정보 등)를 입력 받는 장치일 수 있다. 예를 들어, 입력 장치는 마우스, 키보드, 터치 패드 등을 포함할 수 있다. 일 실시예에서, 장치(100)는 출력 장치(도시되지 않음)를 더 포함할 수 있다. 출력 장치는 장치(100)의 동작에 따른 다양한 데이터(예: 제2 골 연령 등)를 사용자에게 시각적 형태로 제공하는 장치일 수 있다. 예를 들어, 출력 장치는 디스플레이, 프로젝터 등을 포함할 수 있다.
일 실시예에서, 장치(100)는 다양한 형태의 장치가 될 수 있다. 예를 들어, 장치(100)는 휴대용 통신 장치, 컴퓨터 장치, 휴대용 멀티미디어 장치, 웨어러블(wearable) 장치 또는 상술한 장치들 중 하나 또는 그 이상의 조합에 따른 장치일 수 있다. 본 개시의 장치(100)는 전술한 장치들에 한정되지 않는다.
본 개시에 따른 장치(100)의 다양한 실시예들은 서로 조합될 수 있다. 각 실시예들은 경우의 수에 따라 조합될 수 있으며, 조합되어 만들어진 장치(100)의 실시예 역시 본 개시의 범위에 속한다. 또한 전술한 본 개시에 따른 장치(100)의 내/외부 구성 요소들은 실시예에 따라 추가, 변경, 대체 또는 삭제될 수 있다. 또한 전술한 장치(100)의 내/외부 구성 요소들은 하드웨어 컴포넌트로 구현될 수 있다.
도 4는 본 개시의 일 실시예에 따른, 판단 필터(150)를 도출하는 과정을 나타낸 도면이다. 일 실시예에서, 장치(100)는 픽셀값을 랜덤으로 가지는 복수의 필터를 생성하고, 이 중 복수의 전처리 이미지(130)에 매칭되는 필터들을 선별하며, 선별된 필터들을 조합하여 새로운 필터들을 생성하고, 그 조합된 필터들 중 다시 복수의 전처리 이미지(130)에 매칭되는 필터들을 선별하는 과정을 반복할 수 있다. 장치(100)가 해당 과정을 미리 설정된 횟수 반복한 후 도출되는 필터가 판단 필터(150)로 결정될 수 있다.
구체적으로, 프로세서(310)는 복수의 초기 필터(410)를 생성할 수 있다. 초기 필터(410)는 둘 이상의 픽셀을 포함할 수 있다. 초기 필터(410)의 각 픽셀은 임의로(랜덤으로) 설정된 픽셀값을 가질 수 있다. 도시된 초기 필터(410)는 각 9개의 픽셀을 가지는 것으로 예시되었다. 각 픽셀은, 임의로 설정된 픽셀값에 따라 명암을 가지는 것으로 도시되었다. 본 개시에서, 픽셀값은 0에서 255 사이의 값을 가질 수 있으며, 0은 검정색, 255는 흰색, 0-255 사이의 값은 해당 값에 따른 명도를 가지는 회색을 의미할 수 있다.
프로세서(310)는 복수의 초기 필터(410) 중, 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터(420)를 선별할 수 있다. 매칭 여부의 판단은, 전술한 바와 같이 수행될 수 있다. 즉, 한 초기 필터가 나타내는 영역과 복수의 전처리 이미지(130)의 한 영역이 가지는 픽셀값들을 비교하여, 각 픽셀값들이 일치하거나, 일정 범위 내에 존재한다면, 해당 전처리 이미지에는 해당 초기 필터가 매칭되는 영역이 존재한다고 판단할 수 있다. 예를 들어, 이 매칭 과정에서, 도시된 초기 필터(421, 422, 423, 424, 425, 426) 등이 선별될 수 있다.
이후 프로세서(310)는 선별된 초기 필터(410) 중 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여 학습 연산을 수행할 수 있다. 구체적으로, 프로세서(310)는 첫번째 필터로 삼은 적어도 두 개의 초기 필터를 조합함으로써, 조합된 필터(430)를 생성할 수 있다. 일 실시예에서, 프로세서(310)는 적어도 두 개의 초기 필터 각각을 좌우 또는 상하로 연결함으로써, 조합된 필터(430)를 생성할 수 있다. 예를 들어, 프로세서(310)는 초기 필터(424) 및 초기 필터(426)를 상하로 연결함으로써, 조합된 필터(432)를 생성할 수 있다. 또한 프로세서(310)는 초기 필터(421), 초기 필터(422) 및 초기 필터(423)를 상하 또는 좌우로 연결함으로써, 조합된 필터(434)를 생성할 수 있다. 또한 프로세서(310)는 초기 필터(421) 및 초기 필터(423)를 상하로 연결함으로써, 조합된 필터(436)를 생성할 수 있다.
프로세서(310)는 조합된 필터(430)들을 복수의 전처리 이미지(130)와 비교하여, 조합된 필터(430)들 중, 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는 적어도 두 개의 필터(440)를 선별할 수 있다. 매칭 여부의 판단은 전술한 바와 같다. 예를 들어, 조합된 필터(432, 434, 436 쪋) 중, 필터(432, 434)가 복수의 전처리 이미지(130)와 매칭되는 것으로 선별될 수 있다.
프로세서(310)는 매칭 과정에서 선별된 필터(440)들을 다시 조합함으로써, 다시 조합된 필터들을 생성할 수 있다. 예를 들어, 필터(432) 및 필터(434)가 조합되어 새로운 조합된 필터가 생성될 수 있다. 프로세서(310)는 새로이 생성된 조합된 필터들을 이용하여, 다시 학습 연산을 수행할 수 있다. 즉, 프로세서(310)는 새로이 조합된 필터들 중 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 다시 선별할 수 있다. 선별된 필터들은 다시 조합되어, 복수의 전처리 이미지(130)와 매칭 과정을 거칠 수 있다. 프로세서(310)는 상술한 방식에 따라 학습 연산을 미리 설정된 횟수(N) 반복하여 수행할 수 있다.
즉, 학습 연산은, 프로세서(310)가 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 조합된 필터 중 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하며, 선별된 필터를 k+1번째((k+1)-th) 필터로 결정하는 연산일 수 있다. k+1번째((k+1)-th) 필터는 다음에 수행될 학습 연산에서, 서로 조합될 필터로 사용될 수 있다.
전술한 바와 같이, 프로세서(310)가 학습 연산을 N회 반복하고 나면, N+1번째 필터가 적어도 두 개 이상 결정될 수 있다. 프로세서(310)는 생성된 적어도 두 개의 N+1번째 필터 중 하나를 판단 필터(150)로 결정할 수 있다. 전술한 바와 같이, 해당 판단 필터(150)는 제1 성별을 가지는 인체가, 제1 골 연령에 해당하는 치아를 가졌을 때, 해당 치아가 가지는 기준 형태를 나타낼 수 있다.
도 5는 본 개시의 일 실시예에 따른, 필터가 한 이미지에서 매칭되는 영역을 가지는지 여부를 판단하는 과정을 나타낸 도면이다. 프로세서(310)는 한 필터(예: 초기 필터(410), 조합된 필터(430), 판단 필터(150) 등)가 한 이미지에서 매칭되는 영역을 가지는지 판단할 수 있다. 본 개시에서, 필터 및 이미지의 종류와 무관하게, 매칭 여부의 판단은 동일한 방법으로 수행될 수 있다. 이하, 전술한 학습 연산에서, 조합된 필터(432)가 복수의 전처리 이미지(130)에서 매칭되는 영역을 가지는지 여부를 판단하는 것을 기준으로, 매칭 여부의 판단 과정을 설명한다.
프로세서(310)는 전술한 조합된 필터 중 하나(432)와 복수의 전처리 이미지(130) 각각을 순차적 또는 병렬적으로 비교할 수 있다. 프로세서(310)는 복수의 전처리 이미지(130) 중 한 전처리 이미지(510)의 각 일부 영역들과 해당 필터(432)를 비교해 나갈 수 있다. 전처리 이미지(510)에서 필터(432)와 비교되는 일부 영역들은, 필터(432)가 가지는 픽셀 수와 같은 픽셀 수를 가질 수 있다.
프로세서(310)는 전처리 이미지(510)의 각 일부 영역의 픽셀값들 및 조합된 필터(432)의 픽셀값들 사이에 계산을 수행할 수 있다. 예를 들어, 전처리 이미지(510)의 한 일부 영역이 가지는 픽셀들의 픽셀값들은 도시된 표(530)와 같이 나타날 수 있다. 또한 조합된 필터(432)가 가지는 픽셀들의 픽셀값들은 도시된 표(540)와 같이 나타날 수 있다. 일 실시예에서, 프로세서(310)는 두 영역의 대응되는 각 픽셀들의 픽셀값들이 서로 일치하는지 여부를 판단할 수 있다. 픽셀값들이 일치하는 경우, 프로세서(310)는 두 영역이 매칭된다고 결정할 수 있다. 일 실시예에서, 프로세서(310)는 두 영역의 대응되는 각 픽셀들의 픽셀값들이 미리 설정된 픽셀값 범위 내에 있는지 여부를 판단할 수 있다. 미리 설정된 픽셀값 범위 내에 대응되는 픽셀들의 픽셀값이 포함되게 되는 경우, 프로세서(310)는 두 영역이 매칭된다고 결정할 수 있다. 예를 들어 미리 설정된 픽셀값 범위가 30이라면, 전처리 이미지(510)의 한 일부 영역의 픽셀들의 픽셀값들 각각과, 그에 대응되는 조합된 필터(432)의 픽셀들의 픽셀값들 각각이 30 이하의 차이 값을 가지는 경우, 프로세서(310)는 두 영역이 매칭된다고 결정할 수 있다.
일 실시예에서, 프로세서(310)는 전처리 이미지(510)의 한 일부 영역과 조합된 필터(432) 사이의 픽셀값들의 편차의 평균값을 계산하고, 계산된 평균값이 미리 설정된 기준 이하인 경우, 두 영역이 매칭된다고 결정할 수 있다.
도 6은 본 개시의 일 실시예에 따른, 치아를 나타내는 영역 이외의 영역을 제거함으로써 전처리를 수행하는 과정을 나타낸 도면이다. 전술한 바와 같이, 프로세서(310)는 복수의 제1 치아 이미지(120) 각각을 전처리하여, 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 전처리 과정은 다양한 방법으로 수행될 수 있다.
일 실시예에서, 프로세서(310)는 복수의 제1 치아 이미지(120) 각각에서 치아를 나타내는 영역(610) 이외의 영역을 제거하여 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 치아를 나타내는 영역(610)이란, 제1 치아 이미지의 하단의 중앙점(620)을 기준으로 하여, 미리 설정된 너비(630) 및 미리 설정된 높이(640)로 정의되는 영역(610)일 수 있다. 일반적으로, 치아를 촬영한 X-ray 이미지 등은 치아의 형태가 중앙 하단에 나타날 수 있다. 치아의 형태를 가지는 영역을 남기고, 나머지 영역을 제거함으로써, 이미지 내에서 초기 필터(410) 내지 조합된 필터(430)와 대비해야 될 영역을 줄일 수 있고, 이에 따라 프로세서(310)의 연산 부담을 줄일 수 있다. 미리 설정된 너비(630) 및 미리 설정된 높이(640)에 대한 정보는 메모리(320)에 저장되어 있을 수 있다.
일 실시예에서, 프로세서(310)는, 복수의 제1 치아 이미지(120) 각각을 회전함으로써 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 일 실시예에서, 프로세서(310)는 하나의 제1 치아 이미지를 미리 설정된 적어도 둘 이상의 각도로 회전함으로써, 복수의 전처리 이미지(130)를 생성할 수 있다. 예를 들어, 프로세서(310)는 하나의 제1 치아 이미지를 시계 방향으로, 1, 3, 5도 각각 회전하고, 반 시계 방향으로 1, 3, 5도 각각 회전하여, 총 7개의 전처리 이미지를 생성할 수 있다(회전하지 않은 경우 포함). 미리 설정된 적어도 둘 이상의 각도에 대한 정보는 메모리(320)에 저장되어 있을 수 있다.
또한 일 실시예에서, 프로세서(310)는, 복수의 제1 치아 이미지(120) 각각을 확대 또는 축소함으로써, 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 일 실시예에서, 프로세서(310)는 하나의 제1 치아 이미지를 미리 설정된 비율의 범위에서 확대하거나 축소하여 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 예를 들어, 프로세서(310)는 하나의 제1 치아 이미지를 3% 또는 5%만큼 확대하거나, 축소하여, 총 5개의 전처리 이미지를 생성할 수 있다(확대 또는 축소하지 않은 경우 포함). 미리 설정된 비율에 대한 정보는 메모리(320)에 저장되어 있을 수 있다.
상술한 방법들을 통하여, 프로세서(310)는 복수의 제1 치아 이미지(120)로부터, 복수의 제1 치아 이미지(120)의 개수보다 많은 개수의 전처리 이미지(130) 각각을 생성할 수 있다. 신경망 모델(140)의 학습에 사용될 모집단인 복수의 전처리 이미지(130)의 개수를 늘림으로써, 프로세서(310)는 학습 과정에서 도출되는 판단 필터(150)의 정확성을 더 높일 수 있다.
도 7은 본 개시의 일 실시예에 따른, 치아의 치료 흔적에 해당하는 부분을 제거함으로써 전처리를 수행하는 과정을 나타낸 도면이다. 치아를 촬영한 치아 이미지에는, 해당 치아를 치료(보철 치료, 충치 치료, 인공 크라운(artificial crown) 치료 등)한 흔적에 해당하는 부분 역시 나타날 수 있다. 치료 흔적에 해당하는 부분은, 해당 치아의 골 연령 내지 골 성숙도와는 무관하게 나타나는 특징들일 수 있다. 즉, 해당 흔적들은 치아의 특정 골 연령에서만 나타나는 특징이라 보기 어렵고, 모든 골 연령에 걸쳐 나타날 수 있는 특징일 수 있다. 이러한 부분까지 포함시켜 신경망 모델(140)을 학습시키는 경우, 골 연령을 결정하는데 정확성이 떨어질 수 있다. 이에 따라, 학습 연산을 수행하기에 앞서, 학습 데이터에서 치료 흔적에 해당하는 부분을 제거할 수 있다.
구체적으로, 메모리(320)는 복수의 제1 치아 이미지(120) 내지 치아를 나타내는 어느 한 이미지에서, 미리 설정된 특징(즉, 치료 흔적)을 식별해 내기 위한 기준 픽셀값(710)을 지시하는 정보를 저장할 수 있다. 일반적으로 보철 치료, 인공 크라운 치료 등의 흔적은, 일반 치아에 비해 X-ray 이미지 상에서 균일한 하얀색으로 나타날 수 있다. 따라서, 균일한 하얀색 등으로 나타나는 해당 특징들을 식별하기 위한 기준 픽셀값(710)이 미리 정의될 수 있다. 일 실시예에서, 기준 픽셀값(710)은 하얀색을 의미하는 255일 수 있다. 일 실시예에서, 기준 픽셀값(710)은, "220 이상"과 같이 범위의 형태로 정의될 수도 있다.
프로세서(310)는 기준 픽셀값(710)을 기초로 하여, 기준 필터(720)를 생성할 수 있다. 기준 필터(720)는 하나 이상의 픽셀을 포함할 수 있고, 각 픽셀은 기준 픽셀값(710)(예: a)을 가질 수 있다. 프로세서(310)는 복수의 제1 치아 이미지(120) 각각에서 기준 필터(720)에 매칭되는 영역을 식별할 수 있다. 매칭 여부의 판단은 전술한 바와 같이 수행될 수 있다. 프로세서(310)는 복수의 제1 치아 이미지(120) 각각에서 식별된 영역을 제거하여, 복수의 전처리 이미지(130) 각각을 생성할 수 있다.
도 8은 본 개시의 일 실시예에 따른, 제1 치아 이미지(120)로부터 전처리 이미지(130)를 생성하는 과정의 예시를 나타낸 도면이다. 치아의 촬영 환경에 따라, 제1 치아 이미지(120)는 기울어진 상태로 촬영되었을 수 있다. 또한 촬영 환경에 따라, 제1 치아 이미지(120)는 대상 치아를 크게 또는 작게 나타내도록 촬영되었을 수 있다. 이러한 차이를 보완하기 위하여, 전처리 과정에서, 프로세서(310)는 제1 치아 이미지(120)를 미리 설정된 기준에 따라, 조정할 수 있다. 또한, 실시예에 따라, 전술한 전처리 과정들 중 일부가, 본 예시에 따른 전처리 과정에 포함되어 수행될 수 있다.
구체적으로, 메모리(320)는 복수의 전처리 이미지(130) 각각이 나타낼 치아 형상의 기준 기울기 및 기준 크기를 지시하는 정보를 저장할 수 있다. 즉, 효율적인 학습 연산을 수행하기 위하여, 복수의 전처리 이미지(130) 각각이 가져야 할 기준 기울기 및 기준 크기를 나타내는 정보가 메모리(320)에 저장되어 있을 수 있다. 또한, 메모리(320)는 미리 설정된 특징(전술한 치아의 치료 흔적)을 식별하기 위한 기준 픽셀값(710)을 지시하는 정보를 더 포함할 수 있다.
프로세서(310)는 복수의 제1 치아 이미지(120) 각각이 나타내는 치아 형상이, 메모리(320)에 저장된 기준 기울기를 가지도록, 복수의 제1 치아 이미지(120) 각각을 회전할 수 있다(810). 이를 통해, 프로세서(310)는 기울어진 채로 촬영된 치아 형상을, 기준 기울기(예: 수직)에 맞게 회전시킬 수 있다.
프로세서(310)는 회전된 복수의 이미지 각각이 나타내는 치아 형상이, 메모리(320)에 저장된 기준 크기를 가지도록, 회전된 복수의 이미지 각각을 확대 또는 축소할 수 있다(820). 본 예시에서, 회전된 복수 이미지는 기준 크기에 맞도록 확대될 수 있다.
프로세서(310)는 확대 또는 축소된 복수의 이미지 각각에서, 치아를 나타내는 영역(610) 이외의 영역을 제거할 수 있다(830). 전술한 바와 같이, 치아를 나타내는 영역(610)은, 확대 또는 축소된 복수의 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역일 수 있다.
프로세서(310)는 치아를 나타내는 영역(610) 이외의 영역이 제거된 복수의 이미지 각각에서, 기준 필터(720)에 매칭되는 영역을 제거할 수 있다(840). 전술한 바와 같이, 기준 픽셀값(710)을 기초로 기준 필터(720)가 생성될 수 있다. 프로세서(310)는 기준 필터(720)에 의해 식별되는 영역들을, 치아를 나타내는 영역(610) 이외의 영역이 제거된 복수의 이미지 각각에서 제거할 수 있다.
도 9는 본 개시에 따른 장치(100)에 의해 수행될 수 있는, 치아의 골 연령을 결정하기 위한 방법의 일 실시예를 나타낸 도면이다. 본 개시에 따른 치아의 골 연령을 결정하기 위한 방법은 컴퓨터로 구현된 방법일 수 있다. 도시된 흐름도에서 본 개시에 따른 방법 또는 알고리즘의 각 단계들이 순차적인 순서로 설명되었지만, 각 단계들은 순차적으로 수행되는 것 외에, 본 개시에 의해 임의로 조합될 수 있는 순서에 따라 수행될 수도 있다. 본 흐름도에 따른 설명은, 방법 또는 알고리즘에 변화 또는 수정을 가하는 것을 제외하지 않으며, 임의의 단계가 필수적이거나 바람직하다는 것을 의미하지 않는다. 일 실시예에서, 적어도 일부의 단계가 병렬적, 반복적으로 수행될 수 있다. 일 실시예에서, 적어도 일부의 단계가 생략되거나, 다른 단계가 추가될 수 있다.
본 개시에 따른 장치(100)는, 본 개시의 다양한 실시예에 따른 치아의 골 연령을 결정하기 위한 방법을 수행할 수 있다. 본 개시의 일 실시예에 따른 치아의 골 연령을 결정하기 위한 방법은, 복수의 제1 치아 이미지를 획득하는 단계(S910), 복수의 전처리 이미지 각각을 생성하는 단계(S920), 판단 필터를 도출하는 단계(S930), 제2 치아 이미지 및 성별 정보를 획득하는 단계(S940) 및/또는 제2 골 연령을 도출하는 단계(S950)를 포함할 수 있다.
단계 S910에서, 장치(100)의 프로세서(310)는 제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지(120)를 획득할 수 있다. 단계 S920에서, 프로세서(310)는 복수의 제1 치아 이미지(120) 각각에 전처리를 수행하여, 복수의 전처리 이미지(130) 각각을 생성할 수 있다. 단계 S930에서, 프로세서(310)는, 복수의 전처리 이미지(130)를 이용하여, 치아의 골 연령을 결정하기 위한 신경망 모델(140)을 학습시켜, 제1 성별에 따른 인체가 가지는 제1 골 연령의 치아 형태를 결정하는 판단 필터(150)를 도출할 수 있다. 단계 S940에서, 프로세서(310)는, 제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지(210) 및 제2 성별을 나타내는 성별 정보를 획득할 수 있다. 단계 S950에서, 프로세서(310)는, 판단 필터(150)에 기초하여, 제2 치아 이미지(210) 및 성별 정보로부터 제2 치아 이미지(210)에 해당하는 치아의 제2 골 연령을 도출할 수 있다.
일 실시예에서, 단계 S950은, 프로세서(310)가 제2 성별이 제1 성별과 일치하는지 여부를 결정하는 단계; 제2 성별이 제1 성별과 일치한다는 결정에 따라, 제2 치아 이미지(210) 중 판단 필터(150)에 매칭되는 영역이 존재하는지 여부를 결정하는 단계; 및/또는 판단 필터(150)에 매칭되는 영역이 존재한다는 결정에 따라, 제1 골 연령을 제2 골 연령으로 도출하는 단계를 포함할 수 있다.
일 실시예에서, 단계 S930은, 프로세서(310)가 각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터(410)를 생성하는 단계; 복수의 초기 필터(410) 중, 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하는 단계; 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하는 단계; 및/또는 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 판단 필터(150)로 결정하는 단계를 포함할 수 있다. 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 조합된 필터 중, 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산일 수 있다. N은 미리 설정된 상수일 수 있다.
일 실시예에서, 프로세서(310)는, 학습 연산에서, 적어도 두 개의 k번째 필터 각각을 좌우 또는 상하로 연결하여 조합된 필터를 생성할 수 있다.
일 실시예에서, 프로세서(310)는, 학습 연산에서, 복수의 전처리 이미지(130) 각각의 일부 영역의 픽셀값들 및 조합된 필터의 픽셀값들 사이의 계산 결과에 기초하여, 조합된 필터가 복수의 전처리 이미지(130)에서 매칭되는 영역이 존재하는지 여부를 결정할 수 있다.
일 실시예에서, 단계 S920은, 프로세서(310)가 복수의 제1 치아 이미지(120) 각각에서 치아를 나타내는 영역(610) 이외의 영역을 제거하여, 복수의 전처리 이미지(130) 각각을 생성하는 단계를 포함할 수 있다.
일 실시예에서, 단계 S920은, 프로세서(310)가 복수의 제1 치아 이미지(120) 각각을 미리 설정된 적어도 둘 이상의 각도로 회전하여, 복수의 제1 치아 이미지(120)의 개수보다 많은 개수의 복수의 전처리 이미지(130) 각각을 생성하는 단계를 포함할 수 있다.
일 실시예에서, 단계 S920은, 프로세서(310)가 복수의 제1 치아 이미지(120) 각각을 미리 설정된 비율의 범위에서 확대 및 축소하여, 복수의 제1 치아 이미지(120)의 개수보다 많은 개수의 복수의 전처리 이미지(130) 각각을 생성하는 단계를 포함할 수 있다.
일 실시예에서, 단계 S920은, 프로세서(310)가 기준 픽셀값(710)을 가지는 하나 이상의 픽셀을 포함하는 기준 필터(720)를 생성하는 단계; 복수의 제1 치아 이미지(120) 각각에서 기준 필터(720)에 매칭되는 영역을 식별하는 단계; 및/또는 복수의 제1 치아 이미지(120) 각각에서 식별된 영역을 제거하여, 복수의 전처리 이미지(130) 각각을 생성하는 단계를 포함할 수 있다.
일 실시예에서, 단계 S920은, 프로세서(310)가 복수의 제1 치아 이미지(120) 각각이 나타내는 치아 형상이 기준 기울기를 가지도록 복수의 제1 치아 이미지(120) 각각을 회전하는 단계; 회전된 복수의 이미지 각각이 나타내는 치아 형상이 기준 크기를 가지도록 회전된 복수의 이미지 각각을 확대하거나 축소하는 단계; 확대되거나 축소된 복수의 이미지 각각에서, 치아를 나타내는 영역(610) 이외의 영역을 제거하는 단계; 및/또는 치아를 나타내는 영역(610) 이외의 영역이 제거된 복수의 이미지 각각에서, 기준 픽셀값(710)을 가지는 하나 이상의 픽셀을 포함하는 기준 필터(720)에 매칭되는 영역을 제거하여, 복수의 전처리 이미지(130) 각각을 생성하는 단계를 포함할 수 있다. 치아를 나타내는 영역(610)은, 확대되거나 축소된 복수의 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역일 수 있다.
본 개시의 다양한 실시예들은 기기(machine)가 읽을 수 있는 기록 매체(machine-readable recording medium)에 기록된 소프트웨어로 구현될 수 있다. 소프트웨어는 상술한 본 개시의 다양한 실시예들을 구현하기 위한 소프트웨어일 수 있다. 소프트웨어는 본 개시가 속하는 기술분야의 프로그래머들에 의해 본 개시의 다양한 실시예들로부터 추론될 수 있다. 예를 들어 소프트웨어는 기기가 읽을 수 있는 명령(예: 코드 또는 코드 세그먼트) 또는 프로그램일 수 있다. 기기는 기록 매체로부터 호출된 명령어에 따라 동작이 가능한 장치로서, 예를 들어 컴퓨터일 수 있다. 일 실시예에서, 기기는 본 개시의 실시예들에 따른 장치(100)일 수 있다. 일 실시예에서, 기기의 프로세서는 호출된 명령을 실행하여, 기기의 구성요소들이 해당 명령에 해당하는 기능을 수행하게 할 수 있다. 일 실시예에서, 프로세서는 본 개시의 실시예들에 따른 하나 이상의 프로세서(310)일 수 있다. 기록 매체는 기기에 의해 읽혀질 수 있는, 데이터가 저장되는 모든 종류의 기록 매체(recording medium)를 의미할 수 있다. 기록 매체는, 예를 들어 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다. 일 실시예에서, 기록 매체는 하나 이상의 메모리(320)일 수 있다. 일 실시예에서, 기록 매체는 네트워크로 연결된 컴퓨터 시스템 등에 분산된 형태로서 구현될 수도 있다. 소프트웨어는 컴퓨터 시스템 등에 분산되어 저장되고, 실행될 수 있다. 기록 매체는 비일시적(non-transitory) 기록 매체일 수 있다. 비일시적 기록 매체는, 데이터가 반영구적 또는 임시적으로 저장되는 것과 무관하게 실재하는 매체(tangible medium)를 의미하며, 일시적(transitory)으로 전파되는 신호(signal)를 포함하지 않는다.
이상 다양한 실시예들에 의해 본 개시의 기술적 사상이 설명되었지만, 본 개시의 기술적 사상은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 이해할 수 있는 범위에서 이루어질 수 있는 다양한 치환, 변형 및 변경을 포함한다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 포함될 수 있는 것으로 이해되어야 한다.

Claims (20)

  1. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의한 실행 시 상기 하나 이상의 프로세서가 동작을 수행하도록 하는 명령들 및 치아의 골 연령을 결정하기 위한 신경망 모델이 저장된 하나 이상의 메모리를 포함하고,
    상기 하나 이상의 프로세서는,
    제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하고,
    상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하고,
    상기 복수의 전처리 이미지를 이용하여 상기 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하고,
    제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하고,
    상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출하는, 장치.
  2. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 제2 성별이 상기 제1 성별과 일치하는지 여부를 결정하고,
    상기 제2 성별이 상기 제1 성별과 일치한다는 결정에 따라, 상기 제2 치아 이미지 중 상기 판단 필터에 매칭되는 영역이 존재하는지 여부를 결정하고,
    상기 판단 필터에 매칭되는 영역이 존재한다는 결정에 따라, 상기 제1 골 연령을 상기 제2 골 연령으로 도출하는, 장치.
  3. 제2항에 있어서,
    상기 하나 이상의 프로세서는,
    각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터를 생성하고,
    상기 복수의 초기 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하고,
    상기 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하고 - 상기 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 상기 조합된 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산임 - ,
    상기 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 상기 판단 필터로 결정하고, 상기 N은 미리 설정된 상수인, 장치.
  4. 제3항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 학습 연산에서, 상기 적어도 두 개의 k번째 필터 각각을 좌우 또는 상하로 연결하여 상기 조합된 필터를 생성하는, 장치.
  5. 제3항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 학습 연산에서, 상기 복수의 전처리 이미지 각각의 일부 영역의 픽셀값들 및 상기 조합된 필터의 픽셀값들 사이의 계산 결과에 기초하여, 상기 조합된 필터가 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는지 여부를 결정하는, 장치.
  6. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 복수의 제1 치아 이미지 각각에서 치아를 나타내는 영역 이외의 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하고,
    상기 치아를 나타내는 영역은 상기 복수의 제1 치아 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역인, 장치.
  7. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 복수의 제1 치아 이미지 각각을 미리 설정된 적어도 둘 이상의 각도로 회전하여, 상기 복수의 제1 치아 이미지의 개수보다 많은 개수의 상기 복수의 전처리 이미지 각각을 생성하는, 장치.
  8. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 복수의 제1 치아 이미지 각각을 미리 설정된 비율의 범위에서 확대 및 축소하여, 상기 복수의 제1 치아 이미지의 개수보다 많은 개수의 상기 복수의 전처리 이미지 각각을 생성하는, 장치.
  9. 제1항에 있어서,
    상기 하나 이상의 메모리는, 상기 복수의 제1 치아 이미지에서 미리 설정된 특징을 식별하기 위한 기준 픽셀값을 지시하는 정보를 포함하고,
    상기 하나 이상의 프로세서는,
    상기 기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터를 생성하고,
    상기 복수의 제1 치아 이미지 각각에서 상기 기준 필터에 매칭되는 영역을 식별하고,
    상기 복수의 제1 치아 이미지 각각에서 상기 식별된 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하는, 장치.
  10. 제1항에 있어서,
    상기 하나 이상의 메모리는, 상기 복수의 전처리 이미지 각각이 나타내는 치아 형상의 기준 기울기 및 기준 크기를 지시하는 정보, 및 미리 설정된 특징을 식별하기 위한 기준 픽셀값을 지시하는 정보를 포함하고,
    상기 하나 이상의 프로세서는,
    상기 복수의 제1 치아 이미지 각각이 나타내는 치아 형상이 상기 기준 기울기를 가지도록 상기 복수의 제1 치아 이미지 각각을 회전하고,
    상기 회전된 복수의 이미지 각각이 나타내는 치아 형상이 상기 기준 크기를 가지도록 상기 회전된 복수의 이미지 각각을 확대하거나 축소하고,
    상기 확대되거나 축소된 복수의 이미지 각각에서, 치아를 나타내는 영역 이외의 영역을 제거하고 - 상기 치아를 나타내는 영역은 상기 확대되거나 축소된 복수의 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역임 - ,
    상기 치아를 나타내는 영역 이외의 영역이 제거된 복수의 이미지 각각에서, 상기 기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터에 매칭되는 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하는, 장치.
  11. 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되기 위한 명령들이 저장된 하나 이상의 메모리를 포함하는 컴퓨터에서 수행되는 방법에 있어서, 상기 하나 이상의 프로세서가,
    제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하는 단계;
    상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하는 단계;
    상기 복수의 전처리 이미지를 이용하여, 치아의 골 연령을 결정하기 위한 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하는 단계;
    제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하는 단계; 및
    상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출하는 단계를 포함하는, 방법.
  12. 제11항에 있어서, 상기 제2 골 연령을 도출하는 단계는,
    상기 제2 성별이 상기 제1 성별과 일치하는지 여부를 결정하는 단계;
    상기 제2 성별이 상기 제1 성별과 일치한다는 결정에 따라, 상기 제2 치아 이미지 중 상기 판단 필터에 매칭되는 영역이 존재하는지 여부를 결정하는 단계; 및
    상기 판단 필터에 매칭되는 영역이 존재한다는 결정에 따라, 상기 제1 골 연령을 상기 제2 골 연령으로 도출하는 단계를 포함하는, 방법.
  13. 제12항에 있어서, 상기 판단 필터를 도출하는 단계는,
    각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터를 생성하는 단계;
    상기 복수의 초기 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하는 단계;
    상기 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하는 단계 - 상기 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 상기 조합된 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산임 - ; 및
    상기 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 상기 판단 필터로 결정하는 단계를 포함하고,
    상기 N은 미리 설정된 상수인, 방법.
  14. 제11항에 있어서, 상기 복수의 전처리 이미지 각각을 생성하는 단계는,
    상기 복수의 제1 치아 이미지 각각에서 치아를 나타내는 영역 이외의 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하는 단계를 포함하고,
    상기 치아를 나타내는 영역은 상기 복수의 제1 치아 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역인, 방법.
  15. 제11항에 있어서, 상기 복수의 전처리 이미지 각각을 생성하는 단계는,
    기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터를 생성하는 단계;
    상기 복수의 제1 치아 이미지 각각에서 상기 기준 필터에 매칭되는 영역을 식별하는 단계; 및
    상기 복수의 제1 치아 이미지 각각에서 상기 식별된 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하는 단계를 포함하고,
    상기 기준 픽셀값은, 상기 복수의 제1 치아 이미지에서 미리 설정된 특징을 식별하기 위한 픽셀값인, 방법.
  16. 하나 이상의 프로세서에 의한 실행 시, 상기 하나 이상의 프로세서가 동작을 수행하도록 하는 명령들을 기록한 비일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 명령들은, 상기 하나 이상의 프로세서가,
    제1 성별에 해당하며, 제1 골 연령을 가지는 복수의 치아 각각을 촬영한 복수의 제1 치아 이미지를 획득하고,
    상기 복수의 제1 치아 이미지 각각에 전처리를 수행하여, 복수의 전처리 이미지 각각을 생성하고,
    상기 복수의 전처리 이미지를 이용하여 치아의 골 연령을 결정하기 위한 신경망 모델을 학습시켜, 상기 제1 성별에 따른 인체가 가지는 상기 제1 골 연령의 치아 형태를 결정하는 판단 필터를 도출하고,
    제2 성별에 따른 인체의 치아를 촬영한 제2 치아 이미지 및 상기 제2 성별을 나타내는 성별 정보를 획득하고,
    상기 판단 필터에 기초하여, 상기 제2 치아 이미지 및 상기 성별 정보로부터 상기 제2 치아 이미지에 해당하는 치아의 제2 골 연령을 도출하도록 하는, 컴퓨터 판독 가능한 기록 매체.
  17. 제16항에 있어서,
    상기 명령들은, 상기 하나 이상의 프로세서가,
    상기 제2 성별이 상기 제1 성별과 일치하는지 여부를 결정하고,
    상기 제2 성별이 상기 제1 성별과 일치한다는 결정에 따라, 상기 제2 치아 이미지 중 상기 판단 필터에 매칭되는 영역이 존재하는지 여부를 결정하고,
    상기 판단 필터에 매칭되는 영역이 존재한다는 결정에 따라, 상기 제1 골 연령을 상기 제2 골 연령으로 도출하도록 하는, 컴퓨터 판독 가능한 기록 매체.
  18. 제17항에 있어서,
    상기 명령들은, 상기 하나 이상의 프로세서가,
    각각 임의로 설정된 픽셀값을 가지는 둘 이상의 픽셀을 포함하는 복수의 초기 필터를 생성하고,
    상기 복수의 초기 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 초기 필터를 선별하고,
    상기 적어도 두 개의 초기 필터를 첫번째(first) 필터로 하여, 학습 연산을 N회 반복 수행하고 - 상기 학습 연산은, 적어도 두 개의 k번째(k-th) 필터를 연결하여 조합된 필터를 생성하고, 상기 조합된 필터 중, 상기 복수의 전처리 이미지에서 매칭되는 영역이 존재하는 적어도 두 개의 필터를 선별하여 k+1번째((k+1)-th) 필터로 결정하는 연산임 - ,
    상기 학습 연산의 반복 수행에 따라 결정된 적어도 두 개의 N+1번째 필터 중 하나를 상기 판단 필터로 결정하도록 하고,
    상기 N은 미리 설정된 상수인, 컴퓨터 판독 가능한 기록 매체.
  19. 제16항에 있어서,
    상기 명령들은, 상기 하나 이상의 프로세서가,
    상기 복수의 제1 치아 이미지 각각에서 치아를 나타내는 영역 이외의 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하도록 하고,
    상기 치아를 나타내는 영역은 상기 복수의 제1 치아 이미지 각각의 하단의 중앙점을 기준으로 미리 설정된 너비 및 높이를 가지는 영역인, 컴퓨터 판독 가능한 기록 매체.
  20. 제16항에 있어서,
    상기 명령들은, 상기 하나 이상의 프로세서가,
    기준 픽셀값을 가지는 하나 이상의 픽셀을 포함하는 기준 필터를 생성하고,
    상기 복수의 제1 치아 이미지 각각에서 상기 기준 필터에 매칭되는 영역을 식별하고,
    상기 복수의 제1 치아 이미지 각각에서 상기 식별된 영역을 제거하여, 상기 복수의 전처리 이미지 각각을 생성하도록 하고,
    상기 기준 픽셀값은, 상기 복수의 제1 치아 이미지에서 미리 설정된 특징을 식별하기 위한 픽셀값인, 컴퓨터 판독 가능한 기록 매체.
PCT/KR2019/003422 2019-03-25 2019-03-25 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체 WO2020196939A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US17/421,560 US11961235B2 (en) 2019-03-25 2019-03-25 Apparatus, method and recording medium storing instructions for determining bone age of teeth
JP2021541242A JP7202739B2 (ja) 2019-03-25 2019-03-25 歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体
CN201980094162.7A CN113573642A (zh) 2019-03-25 2019-03-25 用于确定牙齿的骨龄的装置,方法及记录指令的记录介质
EP19921148.3A EP3967235A4 (en) 2019-03-25 2019-03-25 APPARATUS AND METHOD FOR ASSESSING BONE AGE OF A TOOTH, AND RECORDING MEDIA RECORDING INSTRUCTIONS FOR ASSESSING BONE AGE OF A TOOTH
PCT/KR2019/003422 WO2020196939A1 (ko) 2019-03-25 2019-03-25 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003422 WO2020196939A1 (ko) 2019-03-25 2019-03-25 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Publications (1)

Publication Number Publication Date
WO2020196939A1 true WO2020196939A1 (ko) 2020-10-01

Family

ID=72611610

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003422 WO2020196939A1 (ko) 2019-03-25 2019-03-25 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Country Status (5)

Country Link
US (1) US11961235B2 (ko)
EP (1) EP3967235A4 (ko)
JP (1) JP7202739B2 (ko)
CN (1) CN113573642A (ko)
WO (1) WO2020196939A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414210B2 (ja) 2021-10-08 2024-01-16 朝日レントゲン工業株式会社 歯牙年齢算定装置及び歯牙年齢算定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11707344B2 (en) * 2019-03-29 2023-07-25 Align Technology, Inc. Segmentation quality assessment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170016778A (ko) * 2015-08-04 2017-02-14 재단법인 아산사회복지재단 심층신경망을 이용한 골 연령 산출방법 및 프로그램
KR101779800B1 (ko) * 2016-09-27 2017-09-19 이재준 기계학습 기반 다면적 성장 평가 방법 및 시스템
WO2017222489A1 (en) * 2016-06-21 2017-12-28 Goncu Serap Determination of cattle age with photography
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
KR20190023003A (ko) * 2017-08-25 2019-03-07 남정림 영상 처리 및 기계 학습에 기초한 뼈 나이 판독 장치 및 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6350120B1 (en) * 1999-11-30 2002-02-26 Orametrix, Inc. Method and apparatus for designing an orthodontic apparatus to provide tooth movement
US7197186B2 (en) 2003-06-17 2007-03-27 Mitsubishi Electric Research Laboratories, Inc. Detecting arbitrarily oriented objects in images
US7987099B2 (en) * 2004-02-27 2011-07-26 Align Technology, Inc. Dental data mining
US9111372B2 (en) * 2006-08-11 2015-08-18 Visionary Technologies, Inc. System and method for object identification and anomaly detection
US20080172386A1 (en) * 2007-01-17 2008-07-17 Ammar Hany H Automated dental identification system
US8738534B2 (en) 2010-09-08 2014-05-27 Institut Telecom-Telecom Paristech Method for providing with a score an object, and decision-support system
DE102011010975A1 (de) 2011-02-10 2012-08-16 Martin Tank Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen
ES2692545T3 (es) 2011-03-21 2018-12-04 Carestream Dental Technology Topco Limited Un procedimiento de clasificación de superficies de diente
US20140227655A1 (en) * 2013-02-12 2014-08-14 Ormco Corporation Integration of model data, surface data, and volumetric data
JP6547219B2 (ja) 2014-09-29 2019-07-24 メディア株式会社 歯科画像処理装置
US20160124920A1 (en) 2014-10-31 2016-05-05 Douglas A. Golay Combination web browser based dental practice management software system with embedded web browser based dental imaging software
JP6423529B2 (ja) 2015-06-05 2018-11-14 日本電信電話株式会社 ユーザ推定装置、ユーザ推定方法、および、ユーザ推定プログラム
KR101868979B1 (ko) * 2016-05-31 2018-07-23 (주)이너웨이브 딥러닝 알고리즘을 이용한 구강 건강 관리 시스템 및 방법
WO2018127949A1 (ja) 2017-01-05 2018-07-12 佳知 高石 骨質評価装置,方法およびプログラムならびに骨折リスク評価装置,方法およびプログラム
WO2019002631A1 (en) * 2017-06-30 2019-01-03 Promaton Holding B.V. 3D CLASSIFICATION AND MODELING OF 3D DENTO-MAXILLO-FACIAL STRUCTURES THROUGH DEEP LEARNING PROCESSES
FR3069359B1 (fr) * 2017-07-21 2019-08-23 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
FR3069360B1 (fr) * 2017-07-21 2022-11-04 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
CN107591200B (zh) * 2017-08-25 2020-08-14 卫宁健康科技集团股份有限公司 基于深度学习及影像组学的骨龄标记识别评估方法及系统
KR101961462B1 (ko) * 2017-10-16 2019-03-22 경북대학교 산학협력단 객체 인식 방법 및 장치
CN107767376B (zh) * 2017-11-02 2021-03-26 西安邮电大学 基于深度学习的x线片骨龄预测方法及系统
CN111671448A (zh) * 2017-12-08 2020-09-18 浙江大学 一种基于深度学习的骨龄检测方法和装置
EP3503038A1 (en) * 2017-12-22 2019-06-26 Promaton Holding B.V. Automated 3d root shape prediction using deep learning methods
EP3591616A1 (en) * 2018-07-03 2020-01-08 Promaton Holding B.V. Automated determination of a canonical pose of a 3d dental structure and superimposition of 3d dental structures using deep learning
EP3620130A1 (en) * 2018-09-04 2020-03-11 Promaton Holding B.V. Automated orthodontic treatment planning using deep learning
CN109363786B (zh) * 2018-11-06 2021-03-05 上海牙典软件科技有限公司 一种牙齿正畸矫治数据获取方法及装置
KR102128997B1 (ko) * 2019-03-25 2020-07-02 본와이즈 주식회사 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170016778A (ko) * 2015-08-04 2017-02-14 재단법인 아산사회복지재단 심층신경망을 이용한 골 연령 산출방법 및 프로그램
WO2017222489A1 (en) * 2016-06-21 2017-12-28 Goncu Serap Determination of cattle age with photography
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
KR101779800B1 (ko) * 2016-09-27 2017-09-19 이재준 기계학습 기반 다면적 성장 평가 방법 및 시스템
KR20190023003A (ko) * 2017-08-25 2019-03-07 남정림 영상 처리 및 기계 학습에 기초한 뼈 나이 판독 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3967235A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414210B2 (ja) 2021-10-08 2024-01-16 朝日レントゲン工業株式会社 歯牙年齢算定装置及び歯牙年齢算定プログラム

Also Published As

Publication number Publication date
CN113573642A (zh) 2021-10-29
EP3967235A1 (en) 2022-03-16
US20220084205A1 (en) 2022-03-17
US11961235B2 (en) 2024-04-16
EP3967235A4 (en) 2022-11-30
JP2022521136A (ja) 2022-04-06
JP7202739B2 (ja) 2023-01-12

Similar Documents

Publication Publication Date Title
CN109902659B (zh) 用于处理人体图像的方法和装置
CN112989904B (zh) 风格图像生成方法、模型训练方法、装置、设备和介质
CN109784304B (zh) 用于标注牙齿图像的方法和装置
US20190102879A1 (en) Method and Apparatus for Acquiring Information
US11409794B2 (en) Image deformation control method and device and hardware device
WO2020196939A1 (ko) 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체
JP2009211275A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
KR102128997B1 (ko) 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체
WO2022242392A1 (zh) 血管图像分类处理方法、装置、设备及存储介质
CN110930296A (zh) 图像处理方法、装置、设备及存储介质
EP4144325A1 (en) Dental scanning method and apparatus, computer device and computer readable storage medium
CN115845350A (zh) 一种用于立定跳远自动测距的方法及系统
JPWO2020194378A1 (ja) 画像処理システム、画像処理装置、画像処理方法、及び画像処理プログラム
CN113902636A (zh) 图像去模糊方法及装置、计算机可读介质和电子设备
CN111260756B (zh) 用于发送信息的方法和装置
WO2023075508A1 (ko) 전자 장치 및 그 제어 방법
CN109658360B (zh) 图像处理的方法、装置、电子设备和计算机存储介质
JPWO2020071086A1 (ja) 情報処理装置、制御方法、及びプログラム
WO2022177069A1 (ko) 라벨링 방법 및 이를 위한 컴퓨팅 장치
CN110009627B (zh) 用于处理图像的方法和装置
CN116320711A (zh) 图像拍摄方法及装置
CN106846302A (zh) 一种工具正确取件的检测方法及基于此方法的考核台
CN113379702A (zh) 一种微循环图像的血管路径提取方法及装置
US11741586B2 (en) Apparatus, method and recording medium storing program for assessing bone age
JP2007025901A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921148

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021541242

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019921148

Country of ref document: EP

Effective date: 20211025