JP2022521136A - 歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体 - Google Patents

歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体 Download PDF

Info

Publication number
JP2022521136A
JP2022521136A JP2021541242A JP2021541242A JP2022521136A JP 2022521136 A JP2022521136 A JP 2022521136A JP 2021541242 A JP2021541242 A JP 2021541242A JP 2021541242 A JP2021541242 A JP 2021541242A JP 2022521136 A JP2022521136 A JP 2022521136A
Authority
JP
Japan
Prior art keywords
tooth
images
filter
gender
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021541242A
Other languages
English (en)
Other versions
JP7202739B2 (ja
Inventor
ジン,ドンキュ
Original Assignee
ボンワイズインコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ボンワイズインコーポレイテッド filed Critical ボンワイズインコーポレイテッド
Publication of JP2022521136A publication Critical patent/JP2022521136A/ja
Application granted granted Critical
Publication of JP7202739B2 publication Critical patent/JP7202739B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • A61B6/51
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/505Clinical applications involving diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/66Trinkets, e.g. shirt buttons or jewellery items
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Abstract

本開示は、歯の骨年齢を決定するための装置を提案する。本開示による装置は、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、上記複数の第1歯イメージの各々に前処理を行い、複数の前処理イメージの各々を生成し、上記複数の前処理イメージを用いてニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出し得る。

Description

本開示は歯の骨年齢を決定するための技術に関するものである。
人体の歯を撮影したイメージ(例:X‐rayイメージなど)から当該歯の骨年齢が評価され得る。評価された歯の骨年齢と当該人体の実際の年齢を比較することによって、人体の実際の年齢に比べて歯が正常に成長中であるか否かを判断することができる。また、歯が正常に成長中ではなければ、その発育がどのくらい早いか又は遅いか判断することができる。
歯の骨年齢を決定するために、歯を撮影したイメージが人間である使用者によって分析され得る。使用者は、歯を実際に撮影した歯イメージと、歯の各骨年齢を代表する基準イメージを比較して、基準イメージの中で当該歯イメージと歯の骨成熟度が最も類似している基準イメージを決定し、決定された基準イメージに該当する歯の骨年齢を当該歯イメージが示す歯の骨年齢として決定することができる。しかし、このような方法は、使用者の能力、専門性によって歯イメージに対する骨年齢の分析結果が変わり得るという問題がある。特に、歯イメージが示す歯の形態は定量化されていないデータであるため、歯の骨年齢の分析結果は使用者間で大きな偏差を示し得る。これにより、上述した方法による分析結果は精度及び信頼性が大きく落ちることがある。
[発明の詳細な説明]
[技術的な課題]
本開示は歯の骨年齢を決定するための技術を提供する。
[技術的な解決方法]
本開示の一側面として、歯の骨年齢を決定するための装置が提案され得る。本開示の一側面による装置は、1つ以上のプロセッサ;及び上記1つ以上のプロセッサによる実行時に上記1つ以上のプロセッサが動作を行うようにする命令及び歯の骨年齢を決定するためのニューラルネットワークモデルが格納された1つ以上のメモリを含み得る。上記1つ以上のプロセッサは、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、上記複数の第1歯イメージの各々に前処理を行い、複数の前処理イメージの各々を生成し、上記複数の前処理イメージを用いて上記ニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出し得る。
一実施例において、1つ以上のプロセッサは、上記第2性別が上記第1性別と一致するか否かを決定し、上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定し、上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出し得る。
一実施例において、1つ以上のプロセッサは、それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成し、上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別し、上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行い-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-、上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定し、上記Nは予め設定された定数であり得る。
一実施例において、1つ以上のプロセッサは、上記学習演算で、上記少なくとも2つのk番目のフィルタの各々を左右又は上下に連結して上記組み合わせられたフィルタを生成し得る。
一実施例において、1つ以上のプロセッサは、上記学習演算で、上記複数の前処理イメージの各々の一部領域のピクセル値及び上記組み合わせられたフィルタのピクセル値の間の計算結果に基づいて、上記組み合わせられたフィルタが上記複数の前処理イメージでマッチングされる領域が存在するか否かを決定し得る。
一実施例において、1つ以上のプロセッサは、上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成し、上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
一実施例において、1つ以上のプロセッサは、上記複数の第1歯イメージの各々を予め設定された少なくとも2つ以上の角度で回転させ、上記複数の第1歯イメージの個数より多くの個数の上記複数の前処理イメージの各々を生成し得る。
一実施例において、1つ以上のプロセッサは、上記複数の第1歯イメージの各々を予め設定された比率の範囲で拡大及び縮小して、上記複数の第1歯イメージの個数より多くの個数の上記複数の前処理イメージの各々を生成し得る。
一実施例において、1つ以上のメモリは、上記複数の第1歯イメージで予め設定された特徴を識別するための基準ピクセル値を指す情報を含み得る。上記1つ以上のプロセッサは、上記基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成し、上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別し、上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成し得る。
一実施例において、1つ以上のメモリは、上記複数の前処理イメージの各々が示す歯形状の基準傾き及び基準大きさを指す情報、及び予め設定された特徴を識別するための基準ピクセル値を指す情報を含み得る。上記1つ以上のプロセッサは、上記複数の第1歯イメージの各々が示す歯形状が上記基準傾きを有するように上記複数の第1歯イメージの各々を回転させ、上記回転した複数のイメージの各々が示す歯形状が上記基準大きさを有するように上記回転した複数のイメージの各々を拡大したり縮小し、上記拡大されたり縮小された複数のイメージの各々において、歯を示す領域以外の領域を除去し-上記歯を示す領域は、上記拡大されたり縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域である-、上記歯を示す領域以外の領域が除去された複数のイメージの各々において、上記基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタにマッチングされる領域を除去して、上記複数の前処理イメージの各々を生成し得る。
本開示の一側面として、歯の骨年齢を決定するための方法が提案され得る。本開示の一側面による方法は、1つ以上のプロセッサ及び上記1つ以上のプロセッサによって実行されるための命令が格納された1つ以上のメモリを含むコンピュータで行われる方法であり得る。本開示の一側面による方法は、上記1つ以上のプロセッサが、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得する段階;上記複数の第1歯イメージの各々に前処理を行って、複数の前処理イメージの各々を生成する段階;上記複数の前処理イメージを用いて、歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出す段階;第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得する段階;及び上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出す段階を含み得る。
一実施例において、第2骨年齢を導き出す段階は、上記第2性別が上記第1性別と一致するか否かを決定する段階;上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定する段階;及び上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出す段階を含み得る。
一実施例において、判断フィルタを導き出す段階は、それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成する段階;上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別する段階;上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行う段階-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-;及び上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定する段階を含み、上記Nは予め設定された定数であり得る。
一実施例において、複数の前処理イメージの各々を生成する段階は、上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成する段階を含み、上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
一実施例において、複数の前処理イメージの各々を生成する段階は、基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成する段階;上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別する段階;及び上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成する段階を含み、上記基準ピクセル値は、上記複数の第1歯イメージで予め設定された特徴を識別するためのピクセル値であり得る。
本開示の一側面として、歯の骨年齢を決定するための命令を記録した非一時的コンピュータ読み出し可能記録媒体が提案され得る。本開示の一側面による記録媒体に記録された命令は、コンピュータ上で行われるための命令であって、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサが、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、上記複数の第1歯イメージの各々に前処理を行って、複数の前処理イメージの各々を生成し、上記複数の前処理イメージを用いて歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出すようにし得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、上記第2性別が上記第1性別と一致するか否かを決定し、上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定し、上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出すようにし得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成し、上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別し、上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行い-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-、上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定するようにし、上記Nは予め設定された定数であり得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成するようにし、上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成し、上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別し、上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成するようにし、上記基準ピクセル値は、上記複数の第1歯イメージで予め設定された特徴を識別するためのピクセル値であり得る。
[発明の効果]
本開示の多様な実施例によれば、ディープラーニング(Deep Learning)アルゴリズムによって学習されたニューラルネットワーク(Neural Network)モデルを用いて、歯を撮影した歯イメージから当該歯の骨年齢が決定されることができる。
本開示の多様な実施例によれば、歯イメージ、性別、骨年齢などの情報を含む学習データを前処理することにより、ニューラルネットワークモデルを効率よく学習させることができる。
本開示の多様な実施例によれば、ニューラルネットワークモデルを用いて歯の骨年齢を決定することにより、歯の骨年齢に関する分析結果の精度及び信頼性が保証されることができる。
本開示の多様な実施例によれば、患者の歯の骨年齢に関する分析結果が当該患者に関する小児内分泌疾患(例:成長ホルモン欠乏症、性早熟症など)の診断に用いられることができる。
本開示の多様な実施例によれば、歯科での矯正又は歯科治療中に撮影された歯のパノラミックビュー(panoramic view)を基礎として歯の骨年齢が評価されることができ、骨年齢に異常がある場合、小児内分泌課と連係して当該患者に関する小児内分泌疾患の診断が行われることができる。
図1は、本開示の一実施例による装置がニューラルネットワークモデルを学習させる過程を示した図面である。
図2は、本開示の一実施例による装置が、入力された1つのイメージから当該歯の骨年齢を導き出す過程を示した図面である。
図3は、本開示の多様な実施例による装置のブロック図を示した図面である。
図4は、本開示の一実施例による、判断フィルタを導き出す過程を示した図面である。
図5は、本開示の一実施例による、フィルタが1つのイメージでマッチングされる領域を有するか否かを判断する過程を示した図面である。
図6は、本開示の一実施例による、歯を示す領域以外の領域を除去することによって前処理を行う過程を示した図面である。
図7は、本開示の一実施例による、歯の治療跡に該当する部分を除去することによって前処理を行う過程を示した図面である。
図8は、本開示の一実施例による、第1歯イメージから前処理イメージを生成する過程の例示を示した図面である。
図9は、本開示による装置によって行われ得る、歯の骨年齢を決定するための方法の一実施例を示した図面である。
[発明の実施のための形態]
本開示に記載された多様な実施例は、本開示の技術的思想を明確に説明する目的で例示されたものであり、これを特定の実施形態に限定しようとするものではない。本開示の技術的思想は、本開示に記載された各実施例の多様な変更(modifications)、均等物(equivalents)、代替物(alternatives)及び各実施例の全て又は一部から選択的に組み合わせられた実施例を含む。また、本開示の技術的思想の権利範囲は、以下に提示される多様な実施例やこれに関する具体的説明に限定されない。
技術的や科学的な用語を含め、本開示で用いられる用語は、特に定義されない限り、本開示が属する技術分野で通常の知識を有する者に一般に理解される意味を有し得る。
本開示で用いられる「含む」、「含み得る」、「備える」、「備え得る」、「有する」、「有し得る」等のような表現は、対象となる特徴(例:機能、動作又は構成要素など)が存在することを意味し、他の追加の特徴の存在を排除しない。即ち、このような表現は、他の実施例を含む可能性を内包する開放型用語(open‐ended terms)と理解されるべきである。
本開示で用いられる単数型の表現は、文脈上異なって意味しない限り、複数型の意味を含み得、これは請求項に記載された単数型の表現にも同様に適用される。
本開示で用いられる「第1」、「第2」、又は「1番目」、「2番目」等の表現は、文脈上異なって意味しない限り、複数の同種対象を指すにおいて、ある対象を他の対象と区分するために用いられ、当該対象の間の順序又は重要度を限定するわけではない。
本開示で用いられる「A、B、及びC」、「A、B、又はC」、「A、B、及び/又はC」又は「A、B、及びCのうちの少なくとも1つ」、「A、B、又は、Cのうちの少なくとも1つ」、「A、B、及び/又はCのうちの少なくとも1つ」、「A、B、及びCのうちから選択された少なくとも1つ」、「A、B、又はCのうちから選択された少なくとも1つ」、「A、B、及び/又はCのうちから選択された少なくとも1つ」等の表現は、各々の羅列された項目又は羅列された項目の可能な全ての組合わせを意味し得る。例えば、「A及びBのうちから選択された少なくとも1つ」は、(1)A、(2)Aのうちの少なくとも1つ、(3)B、(4)Bのうちの少なくとも1つ、(5)Aのうちの少なくとも1つ及びBのうちの少なくとも1つ、(6)Aのうちの少なくとも1つ及びB、(7)Bのうちの少なくとも1つ及びA、(8)A及びBをいずれも指し得る。
本開示で用いられる「~に基づいて」という表現は、当該表現が含まれる語句又は文章で記述される、決定、判断の行為又は動作に影響を与える1つ以上の因子を記述するのに用いられ、この表現は、当該決定、判断の行為又は動作に影響を与える追加の因子を排除しない。
本開示で用いられる、ある構成要素(例:第1構成要素)が他の構成要素(例:第2構成要素)に「連結されて」いるとか「接続されて」いるという表現は、上記ある構成要素が上記他の構成要素に直接的に連結又は接続されることだけでなく、新たな他の構成要素(例:第3構成要素)を媒介として連結又は接続されることを意味し得る。
本開示で用いられた「~するように構成された(configured to)」という表現は、文脈によって「~するように設定された」、「~する能力を有する」、「~するように変更された」、「~するように作られた」、「~ができる」等の意味を有し得る。当該表現は、「ハードウェア的に特に設計された」という意味に制限されず、例えば、特定の動作を行うように構成されたプロセッサとは、ソフトウェアを実行することによってその特定の動作を行うことができる汎用プロセッサ(generic‐purpose processor)を意味し得る。
以下、添付の図面を参照して、本開示の多様な実施例を説明する。添付の図面及び図面に関する説明において、同一又は実質的に同等の(substantially equivalent)構成要素には同一の参照符号が付与され得る。また、以下の多様な実施例の説明において、同一又は対応する構成要素を重複して記述することが省略され得るが、これは当該構成要素がその実施例に含まれないことを意味するわけではない。
図1は、本開示の一実施例による装置(100)がニューラルネットワーク(Neural Network)モデル(140)を学習させる過程を示した図面である。本開示の一実施例による装置(100)は、歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、ニューラルネットワークモデルを用いて対象歯の骨年齢を決定することができる。
具体的には、装置(100)は、歯の骨年齢を決定するためのニューラルネットワークモデル(140)を格納することができる。装置(100)は、ディープラーニング(Deep Learning)アルゴリズムによって、学習データ(110)を用いてニューラルネットワークモデル(140)を学習させることができる。本開示において、ディープラーニングは、データ及びデータを処理した経験を用いた学習を通じて、コンピュータのソフトウェアがデータ処理能力を向上させることを意味し得る。ニューラルネットワークモデルは、データ間の相関関係をモデリングして構築されたものであって、ニューラルネットワークモデルの相関関係は複数のパラメータによって表現され得る。
ニューラルネットワークモデルは、与えられたデータから特徴を抽出して分析し、データ間の相関関係を導き出すが、このような過程を繰り返してパラメータを最適化していくことがディープラーニング又は機械学習といえる。
装置(100)は、学習データ(110)の入力を受け得る。学習データ(110)は、複数の人体の歯の各々を撮影した複数の歯イメージを含み得る。複数の歯イメージの各々は、当該歯の人体が有する性別(例:男、女)に関する情報及び当該歯の実際の骨年齢(例:5.24歳)に関する情報と連係し得る。一実施例において、装置(100)は、学習データ(110)として、ある性別(以下、第1性別)の人体に該当し、ある骨年齢(以下、第1骨年齢)を有する歯を撮影した複数の歯イメージ(以下、第1歯イメージ(120))の入力を受け得る。即ち、装置(100)は、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージ(120)を取得し得る。本開示において、他の性別及び他の骨年齢による複数の歯イメージも装置(100)に入力され、ニューラルネットワークモデル(140)を学習させるのに用いられるが、第1性別及び第1骨年齢に該当する複数の第1歯イメージ(120)と類似の方式で装置(100)により処理されることができるので、以下、本開示の技術は複数の第1歯イメージ(120)を基準として説明する。
装置(100)は、複数の第1歯イメージ(120)の各々に前処理(pre‐processing)を行って、複数の前処理されたイメージ(以下、前処理イメージ(130))の各々を生成し得る。前処理過程で装置(100)は、複数の第1歯イメージ(120)の各々を回転させたり、拡大/縮小したり、不必要な領域を除去したりするなどの動作を行い得る。具体的な前処理過程については後述する。多様な方式に従って前処理された複数の前処理イメージ(130)がニューラルネットワークモデル(140)に入力されることによって、歯の骨年齢を決定するためのニューラルネットワークモデル(140)の学習効率が高くなり得る。
装置(100)は、複数の前処理イメージ(130)を用いてニューラルネットワークモデル(140)を学習させ、第1性別及び第1骨年齢に該当する判断フィルタ(150)を導き出し得る。当該判断フィルタ(150)は、第1性別を有する人体が、第1骨年齢に該当する歯を有した時、当該歯が有する基準形態を示し得る。装置(100)は、判断フィルタ(150)を用いて、ある歯イメージが第1性別及び第1骨年齢による歯形態を示すか否かを決定し得る。具体的な判断フィルタ(150)の導出過程については後述する。前述した通り、多様な性別及び骨年齢による歯イメージが学習されることによって、他の性別及び骨年齢による判断フィルタも導き出され得る。
図2は、本開示の一実施例による装置(100)が、入力されたあるイメージから当該歯の骨年齢を導き出す過程を示した図面である。本開示による装置(100)は、ニューラルネットワークモデル(140)の学習過程で導き出された判断フィルタ(150)を用いて、装置(100)に入力される対象歯イメージ(以下、第2歯イメージ(210))から、第2歯イメージ(210)が示す対象歯の骨年齢(以下、第2骨年齢)を導出(決定)し得る。
具体的には、装置(100)は、第2歯イメージ(210)及び性別情報の入力を受け得る。第2歯イメージ(210)は、ある性別(以下、第2性別)による人体の歯を撮影した歯イメージであり得る。第2歯イメージ(210)は、歯の骨年齢を評価しようとする対象歯を撮影したイメージであり得る。性別情報は、第2歯イメージ(210)に該当する人体の性別(即ち、第2性別)を示す情報であり得る。
装置(100)は、判断フィルタ(150)に基づいて第2歯イメージ(210)及び性別情報から、第2歯イメージ(210)に該当する歯の第2骨年齢を導き出し得る。具体的には、装置(100)は、第2性別が第1性別と一致するか否かを決定し得る。第2性別が第1性別と一致する場合、前述した第1性別による判断フィルタ(150)が骨年齢の導出に用いられるが、そうではない場合、他の判断フィルタが骨年齢の導出に用いられなければならないこともある。第2性別が第1性別と一致するという決定に従って、装置(100)は第2歯イメージ(210)と判断フィルタ(150)を比較し得る。装置(100)は、第2歯イメージ(210)のうち、判断フィルタ(150)とマッチングされる領域が存在するか否かを決定し得る。マッチングの有無の判断は、判断フィルタ(150)が示す領域のピクセル値と一致するピクセル値を有する領域が第2歯イメージ(210)中にあるか否かを判断することによって行われ得る。一実施例において、マッチングの有無の判断は、判断フィルタ(150)のピクセル値を基準として予め設定された範囲内のピクセル値を有する領域が、第2歯イメージ(210)中にあるか判断することによって行われることもできる。
判断フィルタ(150)が示す特定の歯形態と一致する領域が第2歯イメージ(210)中に発見されるならば、即ち、判断フィルタ(150)にマッチングされる領域が第2歯イメージ(210)中に存在すると決定されれば、装置(100)は第1骨年齢を第2歯イメージ(210)の第2骨年齢として導き出すことができる。判断フィルタ(150)にマッチングされる領域が存在しない場合、装置(100)は、第2歯イメージ(210)が第1骨年齢を有しないと判断し、他の骨年齢による判断フィルタと第2歯イメージ(210)を対比することができる。
図3は、本開示の多様な実施例による装置(100)のブロック図を示した図面である。一実施例において、装置(100)は、1つ以上のプロセッサ(310)及び/又は1つ以上のメモリを含み得る。一実施例において、装置(100)のこのような構成要素のうち少なくとも1つが省略されるか、他の構成要素が装置(100)に追加され得る。一実施例において、追加で(additionally)又は代替で(alternatively)、一部の構成要素が統合されて具現されるか、単数又は複数の個体として具現され得る。本開示において、1つ以上のプロセッサ(310)はプロセッサ(310)と表現され得る。プロセッサ(310)という表現は、文脈上、明確に異なって表現しない以上、1つ又はそれ以上のプロセッサの集合を意味し得る。本開示において、1つ以上のメモリ(320)はメモリ(320)と表現され得る。メモリ(320)という表現は、文脈上、明確に異なって表現しない以上、1つ又はそれ以上のメモリの集合を意味し得る。一実施例において、装置(100)内/外部の構成要素のうち少なくとも一部の構成要素は、バス、GPIO(general purpose input/output)、SPI(serial peripheral interface)又はMIPI(mobile industry processor interface)等を通して互いに連結され、データ及び/又はシグナルをやり取りすることができる。
プロセッサ(310)は、ソフトウェア(例:命令、プログラムなど)を駆動してプロセッサ(310)に連結された装置(100)の少なくとも1つの構成要素を制御し得る。また、プロセッサ(310)は、本開示と関連した多様な演算、処理、データの生成、加工などの動作を行い得る。また、プロセッサ(310)は、データなどをメモリ(320)からロードしたり、メモリ(320)に格納し得る。プロセッサ(310)は、複数の第1歯イメージ(120)を取得し、複数の第1歯イメージ(120)の各々に前処理を行って複数の前処理イメージ(130)の各々を生成し得る。プロセッサ(310)は、複数の前処理イメージ(130)を用いてニューラルネットワークモデル(140)を学習させ、上述の判断フィルタ(150)を導き出し得る。プロセッサ(310)は、第2歯イメージ(210)及び第2歯イメージ(210)に該当する性別情報を取得し、判断フィルタ(150)に基づいて第2歯イメージ(210)に該当する対象歯の第2骨年齢を導き出し得る。
メモリ(320)は、多様なデータを格納し得る。メモリ(320)に格納されるデータは、装置(100)の少なくとも1つの構成要素によって取得されるか、処理されるか、用いられるデータであって、ソフトウェア(例:命令、プログラムなど)を含み得る。メモリ(320)は、揮発性及び/又は非揮発性メモリを含み得る。本開示において、命令又はプログラムは、メモリ(320)に格納されるソフトウェアであって、装置(100)のリソースを制御するためのオペレーションシステム、アプリケーション及び/又はアプリケーションが装置のリソースを活用できるように多様な機能をアプリケーションに提供するミドルウェアなどを含み得る。メモリ(320)は、歯の骨年齢を決定するためのニューラルネットワークモデル(140)を格納し得る。また、メモリ(320)は、プロセッサ(310)による実行時に、プロセッサ(310)が動作(演算)を行うようにする命令を格納し得る。一実施例において、メモリ(320)は、複数の第1歯イメージ(120)、複数の前処理イメージ(130)、1つ以上のディープラーニングアルゴリズム、第2歯イメージ(210)及び/又は第2歯イメージ(210)に該当する性別情報などを格納し得る。
一実施例において、装置(100)は、送受信機(330)をさらに含み得る。送受信機(330)は、装置(100)とサーバー又は装置(100)と他の装置間の無線又は有線通信を行い得る。例えば、送受信機(330)は、eMBB(enhanced Mobile Broadband)、URLLC(Ultra Reliable Low‐Latency Communications)、MMTC(Massive Machine Type Communications)、LTE(long‐term evolution)、LTE‐A(LTE Advance)、UMTS(Universal Mobile Telecommunications System)、GSM(Global System for Mobile communications)、CDMA(code division multiple access)、WCDMA(wideband CDMA)、WiBro(Wireless Broadband)、WiFi(wireless fidelity)、ブルートゥース(Bluetooth)、NFC(near field communication)、GPS(Global Positioning System)又はGNSS(global navigation satellite system)等の方式による無線通信を行い得る。例えば、送受信機(330)は、USB(universal serial bus)、HDMI(high definition multimedia interface)、RS‐232(recommended standard232)又はPOTS(plain old telephone service)等の方式による有線通信を行い得る。
一実施例において、プロセッサ(310)は、送受信機(330)を制御してサーバーから情報を取得し得る。サーバーから取得された情報はメモリ(320)に格納され得る。一実施例において、サーバーから取得される情報は、歯の骨年齢を決定するためのニューラルネットワークモデル(140)、複数の第1歯イメージ(120)、1つ以上のディープラーニングアルゴリズム、第2歯イメージ(210)及び/又は第2歯イメージ(210)に該当する性別情報などを含み得る。
一実施例において、装置(100)は、入力装置(図示せず)をさらに含み得る。入力装置は、外部から装置(100)の少なくとも1つの構成要素に伝達するためのデータ(例:学習データ(110)、第2歯イメージ(210)及び/又は第2歯イメージ(210)に該当する性別情報など)の入力を受ける装置であり得る。例えば、入力装置は、マウス、キーボード、タッチパッドなどを含み得る。一実施例において、装置(100)は、出力装置(図示せず)をさらに含み得る。出力装置は、装置(100)の動作による多様なデータ(例:第2骨年齢など)を使用者に視覚的形態で提供する装置であり得る。例えば、出力装置は、ディスプレイ、プロジェクターなどを含み得る。
一実施例において、装置(100)は、多様な形態の装置になり得る。例えば、装置(100)は、携帯用通信装置、コンピュータ装置、携帯用マルチメディア装置、ウェアラブル(wearable)装置又は上述の装置のうちの1つ又はそれ以上の組合わせによる装置であり得る。本開示の装置(100)は、前述した装置に限定されない。
本開示による装置(100)の多様な実施例は互いに組み合わせられ得る。各実施例はケースに応じて組み合わせられ得、組み合わせられて作られた装置(100)の実施例も本開示の範囲に属する。また、前述した本開示による装置(100)の内/外部の構成要素は、実施例によって追加、変更、代替又は削除され得る。また、前述した装置(100)の内/外部の構成要素は、ハードウェアコンポーネントで具現され得る。
図4は、本開示の一実施例による、判断フィルタ(150)を導き出す過程を示した図面である。一実施例において、装置(100)は、ピクセル値をランダムで有する複数のフィルタを生成し、このうち複数の前処理イメージ(130)にマッチングされるフィルタを選別し、選別されたフィルタを組み合わせて新たなフィルタを生成し、その組み合わせられたフィルタのうち再び複数の前処理イメージ(130)にマッチングされるフィルタを選別する過程を繰り返し得る。装置(100)が当該過程を予め設定された回数繰り返した後に導き出されるフィルタが判断フィルタ(150)に決定され得る。
具体的には、プロセッサ(310)は、複数の初期フィルタ(410)を生成し得る。初期フィルタ(410)は、2つ以上のピクセルを含み得る。初期フィルタ(410)の各ピクセルは、任意に(ランダムで)設定されたピクセル値を有し得る。示された初期フィルタ(410)は、各9つのピクセルを有するものとして例示された。各ピクセルは、任意に設定されたピクセル値に応じて明暗を有するものとして示された。本開示において、ピクセル値は0~255の間の値を有し得、0は黒色、255は白色、0~255の間の値は当該値に応じた明度を有する灰色を意味し得る。
プロセッサ(310)は、複数の初期フィルタ(410)のうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つの初期フィルタ(420)を選別し得る。マッチングの有無の判断は、前述した通り行われ得る。即ち、ある初期フィルタが示す領域と、複数の前処理イメージ(130)のある領域が有するピクセル値を比較し、各ピクセル値が一致したり、一定の範囲内に存在するならば、当該前処理イメージには当該初期フィルタがマッチングされる領域が存在すると判断することができる。例えば、このマッチング過程で、示された初期フィルタ(421,422,423,424,425,426)等が選別されることができる。
その後、プロセッサ(310)は、選別された初期フィルタ(410)のうち少なくとも2つの初期フィルタを1番目(first)のフィルタとして学習演算を行い得る。具体的には、プロセッサ(310)は、1番目のフィルタとした少なくとも2つの初期フィルタを組み合わせることによって、組み合わせられたフィルタ(430)を生成し得る。
一実施例において、プロセッサ(310)は、少なくとも2つの初期フィルタの各々を左右又は上下に連結することによって、組み合わせられたフィルタ(430)を生成し得る。例えば、プロセッサ(310)は、初期フィルタ(424)及び初期フィルタ(426)を上下に連結することによって、組み合わせられたフィルタ(432)を生成し得る。また、プロセッサ(310)は、初期フィルタ(421)、初期フィルタ(422)及び初期フィルタ(423)を上下又は左右に連結することによって、組み合わせられたフィルタ(434)を生成し得る。また、プロセッサ(310)は、初期フィルタ(421)及び初期フィルタ(423)を上下に連結することによって、組み合わせられたフィルタ(436)を生成し得る。
プロセッサ(310)は、組み合わせられたフィルタ(430)を複数の前処理イメージ(130)と比較し、組み合わせられたフィルタ(430)のうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタ(440)を選別し得る。マッチングの有無の判断は前述した通りである。例えば、組み合わせられたフィルタ(432,434,436)のうち、フィルタ(432,434)が複数の前処理イメージ(130)とマッチングされるものとして選別され得る。
プロセッサ(310)は、マッチング過程で選別されたフィルタ(440)を再び組み合わせることによって、再び組み合わせられたフィルタを生成し得る。例えば、フィルタ(432)及びフィルタ(434)が組み合わせられ、新たに組み合わせられたフィルタが生成され得る。プロセッサ(310)は、新たに生成された組み合わせられたフィルタを用いて、再び学習演算を行い得る。即ち、プロセッサ(310)は、新たに組み合わせられたフィルタのうち複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタを再び選別し得る。選別されたフィルタは再び組み合わせられ、複数の前処理イメージ(130)とマッチング過程を経ることができる。プロセッサ(310)は、上述の方式に従って学習演算を予め設定された回数(N)繰り返し行い得る。
即ち、学習演算は、プロセッサ(310)が少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、組み合わせられたフィルタのうち複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタを選別し、選別されたフィルタをk+1番目((k+1)-th)のフィルタに決定する演算であり得る。k+1番目((k+1)-th)のフィルタは、次に行われる学習演算で、互いに組み合わせられるフィルタとして用いられ得る。
前述した通り、プロセッサ(310)が学習演算をN回繰り返すと、N+1番目のフィルタが少なくとも2つ以上決定され得る。プロセッサ(310)は、生成された少なくとも2つのN+1番目のフィルタのうちの1つを判断フィルタ(150)に決定し得る。前述した通り、当該判断フィルタ(150)は、第1性別を有する人体が、第1骨年齢に該当する歯を有した時、当該歯が有する基準形態を示し得る。
図5は、本開示の一実施例による、フィルタがあるイメージでマッチングされる領域を有するか否かを判断する過程を示した図面である。プロセッサ(310)は、あるフィルタ(例:初期フィルタ(410)、組み合わせられたフィルタ(430)、判断フィルタ(150)等)があるイメージでマッチングされる領域を有するか判断することができる。本開示において、フィルタ及びイメージの種類と関係なく、マッチングの有無の判断は同一の方法で行われ得る。以下、前述した学習演算で、組み合わせられたフィルタ(432)が複数の前処理イメージ(130)でマッチングされる領域を有するか否かを判断することを基準として、マッチングの有無の判断過程を説明する。
プロセッサ(310)は、前述した組み合わせられたフィルタのうちの1つ(432)と、複数の前処理イメージ(130)の各々を段階的又は並列的に比較することができる。プロセッサ(310)は、複数の前処理イメージ(130)のうちある前処理イメージ(510)の各一部領域と当該フィルタ(432)を比較していくことができる。前処理イメージ(510)でフィルタ(432)と比較される一部領域は、フィルタ(432)が有するピクセル数と同じピクセル数を有し得る。
プロセッサ(310)は、前処理イメージ(510)の各一部領域のピクセル値及び組み合わせられたフィルタ(432)のピクセル値の間で計算を行うことができる。例えば、前処理イメージ(510)のある一部領域が有するピクセルのピクセル値は、示された表(530)のように示され得る。また、組み合わせられたフィルタ(432)が有するピクセルのピクセル値は、示された表(540)のように示され得る。一実施例において、プロセッサ(310)は、2つの領域の対応する各ピクセルのピクセル値が互いに一致するか否かを判断し得る。ピクセル値が一致する場合、プロセッサ(310)は2つの領域がマッチングされると決定することができる。一実施例において、プロセッサ(310)は、2つの領域の対応する各ピクセルのピクセル値が予め設定されたピクセル値の範囲内にあるか否かを判断し得る。予め設定されたピクセル値の範囲内に対応するピクセルのピクセル値が含まれることになる場合、プロセッサ(310)は2つの領域がマッチングされると決定することができる。例えば、予め設定されたピクセル値の範囲が30であれば、前処理イメージ(510)のある一部領域のピクセルのピクセル値の各々と、それに対応する組み合わせられたフィルタ(432)のピクセルのピクセル値の各々が30以下の差の値を有する場合、プロセッサ(310)は2つの領域がマッチングされると決定することができる。
一実施例において、プロセッサ(310)は、前処理イメージ(510)のある一部領域と組み合わせられたフィルタ(432)の間のピクセル値の偏差の平均値を計算し、計算された平均値が予め設定された基準以下である場合、2つの領域がマッチングされると決定することができる。
図6は、本開示の一実施例による、歯を示す領域以外の領域を除去することによって前処理を行う過程を示した図面である。前述した通り、プロセッサ(310)は、複数の第1歯イメージ(120)の各々を前処理し、複数の前処理イメージ(130)の各々を生成することができる。前処理過程は多様な方法で行われ得る。
一実施例において、プロセッサ(310)は、複数の第1歯イメージ(120)の各々において歯を示す領域(610)以外の領域を除去して複数の前処理イメージ(130)の各々を生成し得る。歯を示す領域(610)とは、第1歯イメージの下端の中央点(620)を基準として、予め設定された幅(630)及び予め設定された高さ(640)と定義される領域(610)であり得る。一般に、歯を撮影したX‐rayイメージなどは、歯の形態が中央下端に示され得る。歯の形態を有する領域を残し、残りの領域を除去することによって、イメージ内で初期フィルタ(410)又は組み合わせられたフィルタ(430)と対比すべき領域を減らすことができ、これによりプロセッサ(310)の演算負担を減らすことができる。予め設定された幅(630)及び予め設定された高さ(640)に関する情報は、メモリ(320)に格納されていることができる。
一実施例において、プロセッサ(310)は、複数の第1歯イメージ(120)の各々を回転させることによって複数の前処理イメージ(130)の各々を生成し得る。一実施例において、プロセッサ(310)は、1つの第1歯イメージを予め設定された少なくとも2つ以上の角度で回転させることによって、複数の前処理イメージ(130)を生成し得る。例えば、プロセッサ(310)は、1つの第1歯イメージを時計方向に、1、3、5度それぞれ回転させ、反時計方向に1、3、5度それぞれ回転させ、計7つの前処理イメージを生成し得る(回転させなかった場合を含む)。予め設定された少なくとも2つ以上の角度に関する情報は、メモリ(320)に格納されていることができる。
また、一実施例において、プロセッサ(310)は、複数の第1歯イメージ(120)の各々を拡大又は縮小することによって、複数の前処理イメージ(130)の各々を生成し得る。一実施例において、プロセッサ(310)は、1つの第1歯イメージを予め設定された比率の範囲で拡大したり縮小して複数の前処理イメージ(130)の各々を生成し得る。例えば、プロセッサ(310)は、1つの第1歯イメージを3%又は5%だけ拡大したり縮小して、計5つの前処理イメージを生成し得る(拡大又は縮小しなかった場合を含む)。予め設定された比率に関する情報は、メモリ(320)に格納されていることができる。
上述の方法を通じて、プロセッサ(310)は、複数の第1歯イメージ(120)から、複数の第1歯イメージ(120)の個数より多くの個数の前処理イメージ(130)の各々を生成することができる。ニューラルネットワークモデル(140)の学習に用いられる母集団である複数の前処理イメージ(130)の個数を増やすことによって、プロセッサ(310)は学習過程で導き出される判断フィルタ(150)の精度をより高めることができる。
図7は、本開示の一実施例による、歯の治療跡に該当する部分を除去することによって前処理を行う過程を示した図面である。歯を撮影した歯イメージには、当該歯を治療(補綴治療、虫歯治療、人工クラウン(artificial crown)治療など)した跡に該当する部分も示され得る。治療跡に該当する部分は、当該歯の骨年齢又は骨成熟度とは関係なく示される特徴であり得る。即ち、当該跡は歯の特定の骨年齢のみで示される特徴であると見難く、すべての骨年齢にわたって示される特徴であり得る。このような部分まで含めてニューラルネットワークモデル(140)を学習させる場合、骨年齢を決定するのに精度が落ちることがある。これにより、学習演算を行うのに先立ち、学習データで治療跡に該当する部分を除去することができる。
具体的には、メモリ(320)は、複数の第1歯イメージ(120)又は歯を示す何れか1つのイメージで、予め設定された特徴(即ち、治療跡)を識別するための基準ピクセル値(710)を指す情報を格納することができる。一般に、補綴治療、人工クラウン治療などの跡は、一般の歯に比べてX‐rayイメージ上で均一の白色で示され得る。従って、均一の白色などで示される当該特徴を識別するための基準ピクセル値(710)が予め定義され得る。一実施例において、基準ピクセル値(710)は、白色を意味する255であり得る。一実施例において、基準ピクセル値(710)は、「220以上」のように範囲の形態で定義されることもできる。
プロセッサ(310)は、基準ピクセル値(710)に基づいて、基準フィルタ(720)を生成し得る。基準フィルタ(720)は、1つ以上のピクセルを含み得、各ピクセルは基準ピクセル値(710)(例:a)を有し得る。プロセッサ(310)は、複数の第1歯イメージ(120)の各々において基準フィルタ(720)にマッチングされる領域を識別し得る。マッチングの有無の判断は、前述した通り行われ得る。プロセッサ(310)は、複数の第1歯イメージ(120)の各々において識別された領域を除去し、複数の前処理イメージ(130)の各々を生成し得る。
図8は、本開示の一実施例による、第1歯イメージ(120)から前処理イメージ(130)を生成する過程の例示を示した図面である。歯の撮影環境に応じて、第1歯イメージ(120)は傾いた状態で撮影されることがある。また、撮影環境に応じて、第1歯イメージ(120)は対象歯を大きく又は小さく示すように撮影されることがある。このような差を補完するために、前処理過程で、プロセッサ(310)は第1歯イメージ(120)を予め設定された基準に従って、調整し得る。また、実施例によって、前述した前処理過程のうち一部が、本例示による前処理過程に含まれて行われ得る。
具体的には、メモリ(320)は、複数の前処理イメージ(130)の各々が示す歯形状の基準傾き及び基準大きさを指す情報を格納し得る。即ち、効率のよい学習演算を行うために、複数の前処理イメージ(130)の各々が有するべき基準傾き及び基準大きさを示す情報がメモリ(320)に格納されていることがある。また、メモリ(320)は、予め設定された特徴(前述した歯の治療跡)を識別するための基準ピクセル値(710)を指す情報をさらに含み得る。
プロセッサ(310)は、複数の第1歯イメージ(120)の各々が示す歯形状が、メモリ(320)に格納された基準傾きを有するように、複数の第1歯イメージ(120)の各々を回転させ得る(810)。これを通じて、プロセッサ(310)は、傾いたまま撮影された歯形状を、基準傾き(例:垂直)に合わせて回転させ得る。
プロセッサ(310)は、回転した複数のイメージの各々が示す歯形状が、メモリ(320)に格納された基準大きさを有するように、回転した複数のイメージの各々を拡大又は縮小し得る(820)。本例示において、回転した複数のイメージは基準大きさに合うように拡大され得る。
プロセッサ(310)は、拡大又は縮小された複数のイメージの各々において、歯を示す領域(610)以外の領域を除去し得る(830)。前述した通り、歯を示す領域(610)は、拡大又は縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
プロセッサ(310)は、歯を示す領域(610)以外の領域が除去された複数のイメージの各々において、基準フィルタ(720)にマッチングされる領域を除去し得る(840)。前述した通り、基準ピクセル値(710)に基づいて基準フィルタ(720)が生成され得る。プロセッサ(310)は、基準フィルタ(720)により識別される領域を、歯を示す領域(610)以外の領域が除去された複数のイメージの各々において除去し得る。
図9は、本開示による装置(100)により行われ得る、歯の骨年齢を決定するための方法の一実施例を示した図面である。本開示による歯の骨年齢を決定するための方法は、コンピュータで具現された方法であり得る。示されたフローチャートにおいて、本開示による方法又はアルゴリズムの各段階は、順次的な順序で説明されたが、各段階は順次行われること以外に、本開示によって任意に組み合わせられることができる順序に従って行われることもできる。本フローチャートによる説明は、方法又はアルゴリズムに変化又は修正を加えることを除外せず、任意の段階が必須であるか望ましいということを意味しない。一実施例において、少なくとも一部の段階が並列的に、繰り返し行われ得る。一実施例において、少なくとも一部の段階が省略されるか、他の段階が追加され得る。
本開示による装置(100)は、本開示の多様な実施例による歯の骨年齢を決定するための方法を行い得る。本開示の一実施例による歯の骨年齢を決定するための方法は、複数の第1歯イメージを取得する段階(S910)、複数の前処理イメージの各々を生成する段階(S920)、判断フィルタを導き出す段階(S930)、第2歯イメージ及び性別情報を取得する段階(S940)及び/又は第2骨年齢を導き出す段階(S950)を含み得る。
段階S910で、装置(100)のプロセッサ(310)は第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージ(120)を取得し得る。段階S920で、プロセッサ(310)は複数の第1歯イメージ(120)の各々に前処理を行い、複数の前処理イメージ(130)の各々を生成し得る。段階S930で、プロセッサ(310)は、複数の前処理イメージ(130)を用いて、歯の骨年齢を決定するためのニューラルネットワークモデル(140)を学習させ、第1性別による人体が有する第1骨年齢の歯形態を決定する判断フィルタ(150)を導き出し得る。段階S940で、プロセッサ(310)は、第2性別による人体の歯を撮影した第2歯イメージ(210)及び第2性別を示す性別情報を取得し得る。段階S950で、プロセッサ(310)は、判断フィルタ(150)に基づいて、第2歯イメージ(210)及び性別情報から第2歯イメージ(210)に該当する歯の第2骨年齢を導き出し得る。
一実施例において、段階S950は、プロセッサ(310)が、第2性別が第1性別と一致するか否かを決定する段階;第2性別が第1性別と一致するという決定に従って、第2歯イメージ(210)のうち判断フィルタ(150)にマッチングされる領域が存在するか否かを決定する段階;及び/又は判断フィルタ(150)にマッチングされる領域が存在するという決定に従って、第1骨年齢を第2骨年齢として導き出す段階を含み得る。
一実施例において、段階S930は、プロセッサ(310)がそれぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタ(410)を生成する段階;複数の初期フィルタ(410)のうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つの初期フィルタを選別する段階;少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行う段階;及び/又は学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを判断フィルタ(150)に決定する段階を含み得る。学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、組み合わせられたフィルタのうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算であり得る。Nは、予め設定された定数であり得る。
一実施例において、プロセッサ(310)は、学習演算で、少なくとも2つのk番目のフィルタの各々を左右又は上下に連結して組み合わせられたフィルタを生成し得る。
一実施例において、プロセッサ(310)は、学習演算で、複数の前処理イメージ(130)の各々の一部領域のピクセル値及び組み合わせられたフィルタのピクセル値の間の計算結果に基づいて、組み合わせられたフィルタが複数の前処理イメージ(130)でマッチングされる領域が存在するか否かを決定し得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々において歯を示す領域(610)以外の領域を除去し、複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々を予め設定された少なくとも2つ以上の角度で回転させ、複数の第1歯イメージ(120)の個数より多くの個数の複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々を予め設定された比率の範囲で拡大及び縮小し、複数の第1歯イメージ(120)の個数より多くの個数の複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が基準ピクセル値(710)を有する1つ以上のピクセルを含む基準フィルタ(720)を生成する段階;複数の第1歯イメージ(120)の各々において基準フィルタ(720)にマッチングされる領域を識別する段階;及び/又は複数の第1歯イメージ(120)の各々において識別された領域を除去し、複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々が示す歯形状が基準傾きを有するように複数の第1歯イメージ(120)の各々を回転させる段階;回転した複数のイメージの各々が示す歯形状が基準大きさを有するように回転した複数のイメージの各々を拡大したり縮小する段階;拡大されたり縮小された複数のイメージの各々において、歯を示す領域(610)以外の領域を除去する段階;及び/又は歯を示す領域(610)以外の領域が除去された複数のイメージの各々において、基準ピクセル値(710)を有する1つ以上のピクセルを含む基準フィルタ(720)にマッチングされる領域を除去し、複数の前処理イメージ(130)の各々を生成する段階を含み得る。歯を示す領域(610)は、拡大されたり縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
本開示の多様な実施例は、機器(machine)が読み取ることができる記録媒体(machine‐readable recording medium)に記録されたソフトウェアで具現され得る。ソフトウェアは、上述の本開示の多様な実施例を実現するためのソフトウェアであり得る。ソフトウェアは、本開示が属する技術分野のプログラマーによって本開示の多様な実施例から推論され得る。例えば、ソフトウェアは、機器が読み取ることができる命令(例:コード又はコードセグメント)又はプログラムであり得る。機器は、記録媒体から呼び出された命令語によって動作が可能な装置であって、例えばコンピュータであり得る。一実施例において、機器は、本開示の実施例による装置(100)であり得る。一実施例において、機器のプロセッサは、呼び出された命令を実行し、機器の構成要素が当該命令に該当する機能を行うようにすることができる。一実施例において、プロセッサは、本開示の実施例による1つ以上のプロセッサ(310)であり得る。記録媒体は、機器によって読み取られることができる、データが格納される全ての種類の記録媒体(recording medium)を意味し得る。記録媒体は、例えば、ROM、RAM、CD‐ROM、磁気テープ、フロッピーディスク、光データ格納装置などを含み得る。一実施例において、記録媒体は、1つ以上のメモリ(320)であり得る。一実施例において、記録媒体は、ネットワークで連結されたコンピュータシステムなどに分散した形態として具現されることもできる。ソフトウェアは、コンピュータシステムなどに分散して格納され、実行され得る。記録媒体は、非一時的(non‐transitory)記録媒体であり得る。非一時的記録媒体は、データが半永久的又は臨時に格納されることと関係なく実在する媒体(tangible medium)を意味し、一時的(transitory)に伝播される信号(signal)を含まない。
以上、多様な実施例によって本開示の技術的思想が説明されたが、本開示の技術的思想は、本開示が属する技術分野で通常の知識を有する者が理解できる範囲でなされる多様な置換、変形及び変更を含む。また、そのような置換、変形及び変更は、添付の請求の範囲内に含まれ得ると理解されなければならない。
本開示は歯の骨年齢を決定するための技術に関するものである。
人体の歯を撮影したイメージ(例:X‐rayイメージなど)から当該歯の骨年齢が評価され得る。評価された歯の骨年齢と当該人体の実際の年齢を比較することによって、人体の実際の年齢に比べて歯が正常に成長中であるか否かを判断することができる。また、歯が正常に成長中ではなければ、その発育がどのくらい早いか又は遅いか判断することができる。
歯の骨年齢を決定するために、歯を撮影したイメージが人間である使用者によって分析され得る。使用者は、歯を実際に撮影した歯イメージと、歯の各骨年齢を代表する基準イメージを比較して、基準イメージの中で当該歯イメージと歯の骨成熟度が最も類似している基準イメージを決定し、決定された基準イメージに該当する歯の骨年齢を当該歯イメージが示す歯の骨年齢として決定することができる。しかし、このような方法は、使用者の能力、専門性によって歯イメージに対する骨年齢の分析結果が変わり得るという問題がある。特に、歯イメージが示す歯の形態は定量化されていないデータであるため、歯の骨年齢の分析結果は使用者間で大きな偏差を示し得る。これにより、上述した方法による分析結果は精度及び信頼性が大きく落ちることがある。
本開示は歯の骨年齢を決定するための技術を提供する。
本開示の一側面として、歯の骨年齢を決定するための装置が提案され得る。本開示の一側面による装置は、1つ以上のプロセッサ;及び上記1つ以上のプロセッサによる実行時に上記1つ以上のプロセッサが動作を行うようにする命令及び歯の骨年齢を決定するためのニューラルネットワークモデルが格納された1つ以上のメモリを含み得る。上記1つ以上のプロセッサは、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、上記複数の第1歯イメージの各々に前処理を行い、複数の前処理イメージの各々を生成し、上記複数の前処理イメージを用いて上記ニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出し得る。
一実施例において、1つ以上のプロセッサは、上記第2性別が上記第1性別と一致するか否かを決定し、上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定し、上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出し得る。
一実施例において、1つ以上のプロセッサは、それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成し、上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別し、上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行い-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-、上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定し、上記Nは予め設定された定数であり得る。
一実施例において、1つ以上のプロセッサは、上記学習演算で、上記少なくとも2つのk番目のフィルタの各々を左右又は上下に連結して上記組み合わせられたフィルタを生成し得る。
一実施例において、1つ以上のプロセッサは、上記学習演算で、上記複数の前処理イメージの各々の一部領域のピクセル値及び上記組み合わせられたフィルタのピクセル値の間の計算結果に基づいて、上記組み合わせられたフィルタが上記複数の前処理イメージでマッチングされる領域が存在するか否かを決定し得る。
一実施例において、1つ以上のプロセッサは、上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成し、上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
一実施例において、1つ以上のプロセッサは、上記複数の第1歯イメージの各々を予め設定された少なくとも2つ以上の角度で回転させ、上記複数の第1歯イメージの個数より多くの個数の上記複数の前処理イメージの各々を生成し得る。
一実施例において、1つ以上のプロセッサは、上記複数の第1歯イメージの各々を予め設定された比率の範囲で拡大及び縮小して、上記複数の第1歯イメージの個数より多くの個数の上記複数の前処理イメージの各々を生成し得る。
一実施例において、1つ以上のメモリは、上記複数の第1歯イメージで予め設定された特徴を識別するための基準ピクセル値を指す情報を含み得る。上記1つ以上のプロセッサは、上記基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成し、上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別し、上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成し得る。
一実施例において、1つ以上のメモリは、上記複数の前処理イメージの各々が示す歯形状の基準傾き及び基準大きさを指す情報、及び予め設定された特徴を識別するための基準ピクセル値を指す情報を含み得る。上記1つ以上のプロセッサは、上記複数の第1歯イメージの各々が示す歯形状が上記基準傾きを有するように上記複数の第1歯イメージの各々を回転させ、上記回転した複数のイメージの各々が示す歯形状が上記基準大きさを有するように上記回転した複数のイメージの各々を拡大したり縮小し、上記拡大されたり縮小された複数のイメージの各々において、歯を示す領域以外の領域を除去し-上記歯を示す領域は、上記拡大されたり縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域である-、上記歯を示す領域以外の領域が除去された複数のイメージの各々において、上記基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタにマッチングされる領域を除去して、上記複数の前処理イメージの各々を生成し得る。
本開示の一側面として、歯の骨年齢を決定するための方法が提案され得る。本開示の一側面による方法は、1つ以上のプロセッサ及び上記1つ以上のプロセッサによって実行されるための命令が格納された1つ以上のメモリを含むコンピュータで行われる方法であり得る。本開示の一側面による方法は、上記1つ以上のプロセッサが、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得する段階;上記複数の第1歯イメージの各々に前処理を行って、複数の前処理イメージの各々を生成する段階;上記複数の前処理イメージを用いて、歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出す段階;第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得する段階;及び上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出す段階を含み得る。
一実施例において、第2骨年齢を導き出す段階は、上記第2性別が上記第1性別と一致するか否かを決定する段階;上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定する段階;及び上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出す段階を含み得る。
一実施例において、判断フィルタを導き出す段階は、それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成する段階;上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別する段階;上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行う段階-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-;及び上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定する段階を含み、上記Nは予め設定された定数であり得る。
一実施例において、複数の前処理イメージの各々を生成する段階は、上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成する段階を含み、上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
一実施例において、複数の前処理イメージの各々を生成する段階は、基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成する段階;上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別する段階;及び上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成する段階を含み、上記基準ピクセル値は、上記複数の第1歯イメージで予め設定された特徴を識別するためのピクセル値であり得る。
本開示の一側面として、歯の骨年齢を決定するための命令を記録した非一時的コンピュータ読み出し可能記録媒体が提案され得る。本開示の一側面による記録媒体に記録された命令は、コンピュータ上で行われるための命令であって、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサが、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、上記複数の第1歯イメージの各々に前処理を行って、複数の前処理イメージの各々を生成し、上記複数の前処理イメージを用いて歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出すようにし得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、上記第2性別が上記第1性別と一致するか否かを決定し、上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定し、上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出すようにし得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成し、上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別し、上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行い-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-、上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定するようにし、上記Nは予め設定された定数であり得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成するようにし、上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
一実施例において、上記命令は、上記1つ以上のプロセッサが、基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成し、上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別し、上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成するようにし、上記基準ピクセル値は、上記複数の第1歯イメージで予め設定された特徴を識別するためのピクセル値であり得る。
本開示の多様な実施例によれば、ディープラーニング(Deep Learning)アルゴリズムによって学習されたニューラルネットワーク(Neural Network)モデルを用いて、歯を撮影した歯イメージから当該歯の骨年齢が決定されることができる。
本開示の多様な実施例によれば、歯イメージ、性別、骨年齢などの情報を含む学習データを前処理することにより、ニューラルネットワークモデルを効率よく学習させることができる。
本開示の多様な実施例によれば、ニューラルネットワークモデルを用いて歯の骨年齢を決定することにより、歯の骨年齢に関する分析結果の精度及び信頼性が保証されることができる。
本開示の多様な実施例によれば、患者の歯の骨年齢に関する分析結果が当該患者に関する小児内分泌疾患(例:成長ホルモン欠乏症、性早熟症など)の診断に用いられることができる。
本開示の多様な実施例によれば、歯科での矯正又は歯科治療中に撮影された歯のパノラミックビュー(panoramic view)を基礎として歯の骨年齢が評価されることができ、骨年齢に異常がある場合、小児内分泌課と連係して当該患者に関する小児内分泌疾患の診断が行われることができる。
図1は、本開示の一実施例による装置がニューラルネットワークモデルを学習させる過程を示した図面である。 図2は、本開示の一実施例による装置が、入力された1つのイメージから当該歯の骨年齢を導き出す過程を示した図面である。 図3は、本開示の多様な実施例による装置のブロック図を示した図面である。 図4は、本開示の一実施例による、判断フィルタを導き出す過程を示した図面である。 図5は、本開示の一実施例による、フィルタが1つのイメージでマッチングされる領域を有するか否かを判断する過程を示した図面である。 図6は、本開示の一実施例による、歯を示す領域以外の領域を除去することによって前処理を行う過程を示した図面である。 図7は、本開示の一実施例による、歯の治療跡に該当する部分を除去することによって前処理を行う過程を示した図面である。 図8は、本開示の一実施例による、第1歯イメージから前処理イメージを生成する過程の例示を示した図面である。 図9は、本開示による装置によって行われ得る、歯の骨年齢を決定するための方法の一実施例を示した図面である。
本開示に記載された多様な実施例は、本開示の技術的思想を明確に説明する目的で例示されたものであり、これを特定の実施形態に限定しようとするものではない。本開示の技術的思想は、本開示に記載された各実施例の多様な変更(modifications)、均等物(equivalents)、代替物(alternatives)及び各実施例の全て又は一部から選択的に組み合わせられた実施例を含む。また、本開示の技術的思想の権利範囲は、以下に提示される多様な実施例やこれに関する具体的説明に限定されない。
技術的や科学的な用語を含め、本開示で用いられる用語は、特に定義されない限り、本開示が属する技術分野で通常の知識を有する者に一般に理解される意味を有し得る。
本開示で用いられる「含む」、「含み得る」、「備える」、「備え得る」、「有する」、「有し得る」等のような表現は、対象となる特徴(例:機能、動作又は構成要素など)が存在することを意味し、他の追加の特徴の存在を排除しない。即ち、このような表現は、他の実施例を含む可能性を内包する開放型用語(open‐ended terms)と理解されるべきである。
本開示で用いられる単数型の表現は、文脈上異なって意味しない限り、複数型の意味を含み得、これは請求項に記載された単数型の表現にも同様に適用される。
本開示で用いられる「第1」、「第2」、又は「1番目」、「2番目」等の表現は、文脈上異なって意味しない限り、複数の同種対象を指すにおいて、ある対象を他の対象と区分するために用いられ、当該対象の間の順序又は重要度を限定するわけではない。
本開示で用いられる「A、B、及びC」、「A、B、又はC」、「A、B、及び/又はC」又は「A、B、及びCのうちの少なくとも1つ」、「A、B、又は、Cのうちの少なくとも1つ」、「A、B、及び/又はCのうちの少なくとも1つ」、「A、B、及びCのうちから選択された少なくとも1つ」、「A、B、又はCのうちから選択された少なくとも1つ」、「A、B、及び/又はCのうちから選択された少なくとも1つ」等の表現は、各々の羅列された項目又は羅列された項目の可能な全ての組合わせを意味し得る。例えば、「A及びBのうちから選択された少なくとも1つ」は、(1)A、(2)Aのうちの少なくとも1つ、(3)B、(4)Bのうちの少なくとも1つ、(5)Aのうちの少なくとも1つ及びBのうちの少なくとも1つ、(6)Aのうちの少なくとも1つ及びB、(7)Bのうちの少なくとも1つ及びA、(8)A及びBをいずれも指し得る。
本開示で用いられる「~に基づいて」という表現は、当該表現が含まれる語句又は文章で記述される、決定、判断の行為又は動作に影響を与える1つ以上の因子を記述するのに用いられ、この表現は、当該決定、判断の行為又は動作に影響を与える追加の因子を排除しない。
本開示で用いられる、ある構成要素(例:第1構成要素)が他の構成要素(例:第2構成要素)に「連結されて」いるとか「接続されて」いるという表現は、上記ある構成要素が上記他の構成要素に直接的に連結又は接続されることだけでなく、新たな他の構成要素(例:第3構成要素)を媒介として連結又は接続されることを意味し得る。
本開示で用いられた「~するように構成された(configured to)」という表現は、文脈によって「~するように設定された」、「~する能力を有する」、「~するように変更された」、「~するように作られた」、「~ができる」等の意味を有し得る。当該表現は、「ハードウェア的に特に設計された」という意味に制限されず、例えば、特定の動作を行うように構成されたプロセッサとは、ソフトウェアを実行することによってその特定の動作を行うことができる汎用プロセッサ(generic‐purpose processor)を意味し得る。
以下、添付の図面を参照して、本開示の多様な実施例を説明する。添付の図面及び図面に関する説明において、同一又は実質的に同等の(substantially equivalent)構成要素には同一の参照符号が付与され得る。また、以下の多様な実施例の説明において、同一又は対応する構成要素を重複して記述することが省略され得るが、これは当該構成要素がその実施例に含まれないことを意味するわけではない。
図1は、本開示の一実施例による装置(100)がニューラルネットワーク(Neural Network)モデル(140)を学習させる過程を示した図面である。本開示の一実施例による装置(100)は、歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、ニューラルネットワークモデルを用いて対象歯の骨年齢を決定することができる。
具体的には、装置(100)は、歯の骨年齢を決定するためのニューラルネットワークモデル(140)を格納することができる。装置(100)は、ディープラーニング(Deep Learning)アルゴリズムによって、学習データ(110)を用いてニューラルネットワークモデル(140)を学習させることができる。本開示において、ディープラーニングは、データ及びデータを処理した経験を用いた学習を通じて、コンピュータのソフトウェアがデータ処理能力を向上させることを意味し得る。ニューラルネットワークモデルは、データ間の相関関係をモデリングして構築されたものであって、ニューラルネットワークモデルの相関関係は複数のパラメータによって表現され得る。
ニューラルネットワークモデルは、与えられたデータから特徴を抽出して分析し、データ間の相関関係を導き出すが、このような過程を繰り返してパラメータを最適化していくことがディープラーニング又は機械学習といえる。
装置(100)は、学習データ(110)の入力を受け得る。学習データ(110)は、複数の人体の歯の各々を撮影した複数の歯イメージを含み得る。複数の歯イメージの各々は、当該歯の人体が有する性別(例:男、女)に関する情報及び当該歯の実際の骨年齢(例:5.24歳)に関する情報と連係し得る。一実施例において、装置(100)は、学習データ(110)として、ある性別(以下、第1性別)の人体に該当し、ある骨年齢(以下、第1骨年齢)を有する歯を撮影した複数の歯イメージ(以下、第1歯イメージ(120))の入力を受け得る。即ち、装置(100)は、第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージ(120)を取得し得る。本開示において、他の性別及び他の骨年齢による複数の歯イメージも装置(100)に入力され、ニューラルネットワークモデル(140)を学習させるのに用いられるが、第1性別及び第1骨年齢に該当する複数の第1歯イメージ(120)と類似の方式で装置(100)により処理されることができるので、以下、本開示の技術は複数の第1歯イメージ(120)を基準として説明する。
装置(100)は、複数の第1歯イメージ(120)の各々に前処理(pre‐processing)を行って、複数の前処理されたイメージ(以下、前処理イメージ(130))の各々を生成し得る。前処理過程で装置(100)は、複数の第1歯イメージ(120)の各々を回転させたり、拡大/縮小したり、不必要な領域を除去したりするなどの動作を行い得る。具体的な前処理過程については後述する。多様な方式に従って前処理された複数の前処理イメージ(130)がニューラルネットワークモデル(140)に入力されることによって、歯の骨年齢を決定するためのニューラルネットワークモデル(140)の学習効率が高くなり得る。
装置(100)は、複数の前処理イメージ(130)を用いてニューラルネットワークモデル(140)を学習させ、第1性別及び第1骨年齢に該当する判断フィルタ(150)を導き出し得る。当該判断フィルタ(150)は、第1性別を有する人体が、第1骨年齢に該当する歯を有した時、当該歯が有する基準形態を示し得る。装置(100)は、判断フィルタ(150)を用いて、ある歯イメージが第1性別及び第1骨年齢による歯形態を示すか否かを決定し得る。具体的な判断フィルタ(150)の導出過程については後述する。前述した通り、多様な性別及び骨年齢による歯イメージが学習されることによって、他の性別及び骨年齢による判断フィルタも導き出され得る。
図2は、本開示の一実施例による装置(100)が、入力されたあるイメージから当該歯の骨年齢を導き出す過程を示した図面である。本開示による装置(100)は、ニューラルネットワークモデル(140)の学習過程で導き出された判断フィルタ(150)を用いて、装置(100)に入力される対象歯イメージ(以下、第2歯イメージ(210))から、第2歯イメージ(210)が示す対象歯の骨年齢(以下、第2骨年齢)を導出(決定)し得る。
具体的には、装置(100)は、第2歯イメージ(210)及び性別情報の入力を受け得る。第2歯イメージ(210)は、ある性別(以下、第2性別)による人体の歯を撮影した歯イメージであり得る。第2歯イメージ(210)は、歯の骨年齢を評価しようとする対象歯を撮影したイメージであり得る。性別情報は、第2歯イメージ(210)に該当する人体の性別(即ち、第2性別)を示す情報であり得る。
装置(100)は、判断フィルタ(150)に基づいて第2歯イメージ(210)及び性別情報から、第2歯イメージ(210)に該当する歯の第2骨年齢を導き出し得る。具体的には、装置(100)は、第2性別が第1性別と一致するか否かを決定し得る。第2性別が第1性別と一致する場合、前述した第1性別による判断フィルタ(150)が骨年齢の導出に用いられるが、そうではない場合、他の判断フィルタが骨年齢の導出に用いられなければならないこともある。第2性別が第1性別と一致するという決定に従って、装置(100)は第2歯イメージ(210)と判断フィルタ(150)を比較し得る。装置(100)は、第2歯イメージ(210)のうち、判断フィルタ(150)とマッチングされる領域が存在するか否かを決定し得る。マッチングの有無の判断は、判断フィルタ(150)が示す領域のピクセル値と一致するピクセル値を有する領域が第2歯イメージ(210)中にあるか否かを判断することによって行われ得る。一実施例において、マッチングの有無の判断は、判断フィルタ(150)のピクセル値を基準として予め設定された範囲内のピクセル値を有する領域が、第2歯イメージ(210)中にあるか判断することによって行われることもできる。
判断フィルタ(150)が示す特定の歯形態と一致する領域が第2歯イメージ(210)中に発見されるならば、即ち、判断フィルタ(150)にマッチングされる領域が第2歯イメージ(210)中に存在すると決定されれば、装置(100)は第1骨年齢を第2歯イメージ(210)の第2骨年齢として導き出すことができる。判断フィルタ(150)にマッチングされる領域が存在しない場合、装置(100)は、第2歯イメージ(210)が第1骨年齢を有しないと判断し、他の骨年齢による判断フィルタと第2歯イメージ(210)を対比することができる。
図3は、本開示の多様な実施例による装置(100)のブロック図を示した図面である。一実施例において、装置(100)は、1つ以上のプロセッサ(310)及び/又は1つ以上のメモリを含み得る。一実施例において、装置(100)のこのような構成要素のうち少なくとも1つが省略されるか、他の構成要素が装置(100)に追加され得る。一実施例において、追加で(additionally)又は代替で(alternatively)、一部の構成要素が統合されて具現されるか、単数又は複数の個体として具現され得る。本開示において、1つ以上のプロセッサ(310)はプロセッサ(310)と表現され得る。プロセッサ(310)という表現は、文脈上、明確に異なって表現しない以上、1つ又はそれ以上のプロセッサの集合を意味し得る。本開示において、1つ以上のメモリ(320)はメモリ(320)と表現され得る。メモリ(320)という表現は、文脈上、明確に異なって表現しない以上、1つ又はそれ以上のメモリの集合を意味し得る。一実施例において、装置(100)内/外部の構成要素のうち少なくとも一部の構成要素は、バス、GPIO(general purpose input/output)、SPI(serial peripheral interface)又はMIPI(mobile industry processor interface)等を通して互いに連結され、データ及び/又はシグナルをやり取りすることができる。
プロセッサ(310)は、ソフトウェア(例:命令、プログラムなど)を駆動してプロセッサ(310)に連結された装置(100)の少なくとも1つの構成要素を制御し得る。また、プロセッサ(310)は、本開示と関連した多様な演算、処理、データの生成、加工などの動作を行い得る。また、プロセッサ(310)は、データなどをメモリ(320)からロードしたり、メモリ(320)に格納し得る。プロセッサ(310)は、複数の第1歯イメージ(120)を取得し、複数の第1歯イメージ(120)の各々に前処理を行って複数の前処理イメージ(130)の各々を生成し得る。プロセッサ(310)は、複数の前処理イメージ(130)を用いてニューラルネットワークモデル(140)を学習させ、上述の判断フィルタ(150)を導き出し得る。プロセッサ(310)は、第2歯イメージ(210)及び第2歯イメージ(210)に該当する性別情報を取得し、判断フィルタ(150)に基づいて第2歯イメージ(210)に該当する対象歯の第2骨年齢を導き出し得る。
メモリ(320)は、多様なデータを格納し得る。メモリ(320)に格納されるデータは、装置(100)の少なくとも1つの構成要素によって取得されるか、処理されるか、用いられるデータであって、ソフトウェア(例:命令、プログラムなど)を含み得る。メモリ(320)は、揮発性及び/又は非揮発性メモリを含み得る。本開示において、命令又はプログラムは、メモリ(320)に格納されるソフトウェアであって、装置(100)のリソースを制御するためのオペレーションシステム、アプリケーション及び/又はアプリケーションが装置のリソースを活用できるように多様な機能をアプリケーションに提供するミドルウェアなどを含み得る。メモリ(320)は、歯の骨年齢を決定するためのニューラルネットワークモデル(140)を格納し得る。また、メモリ(320)は、プロセッサ(310)による実行時に、プロセッサ(310)が動作(演算)を行うようにする命令を格納し得る。一実施例において、メモリ(320)は、複数の第1歯イメージ(120)、複数の前処理イメージ(130)、1つ以上のディープラーニングアルゴリズム、第2歯イメージ(210)及び/又は第2歯イメージ(210)に該当する性別情報などを格納し得る。
一実施例において、装置(100)は、送受信機(330)をさらに含み得る。送受信機(330)は、装置(100)とサーバー又は装置(100)と他の装置間の無線又は有線通信を行い得る。例えば、送受信機(330)は、eMBB(enhanced Mobile Broadband)、URLLC(Ultra Reliable Low‐Latency Communications)、MMTC(Massive Machine Type Communications)、LTE(long‐term evolution)、LTE‐A(LTE Advance)、UMTS(Universal Mobile Telecommunications System)、GSM(Global System for Mobile communications)、CDMA(code division multiple access)、WCDMA(wideband CDMA)(登録商標)、WiBro(Wireless Broadband)、WiFi(wireless fidelity)、ブルートゥース(Bluetooth)(登録商標)、NFC(near field communication)、GPS(Global Positioning System)又はGNSS(global navigation satellite system)等の方式による無線通信を行い得る。例えば、送受信機(330)は、USB(universal serial bus)、HDMI(high definition multimedia interface)(登録商標)、RS‐232(recommended standard232)又はPOTS(plain old telephone service)等の方式による有線通信を行い得る。
一実施例において、プロセッサ(310)は、送受信機(330)を制御してサーバーから情報を取得し得る。サーバーから取得された情報はメモリ(320)に格納され得る。一実施例において、サーバーから取得される情報は、歯の骨年齢を決定するためのニューラルネットワークモデル(140)、複数の第1歯イメージ(120)、1つ以上のディープラーニングアルゴリズム、第2歯イメージ(210)及び/又は第2歯イメージ(210)に該当する性別情報などを含み得る。
一実施例において、装置(100)は、入力装置(図示せず)をさらに含み得る。入力装置は、外部から装置(100)の少なくとも1つの構成要素に伝達するためのデータ(例:学習データ(110)、第2歯イメージ(210)及び/又は第2歯イメージ(210)に該当する性別情報など)の入力を受ける装置であり得る。例えば、入力装置は、マウス、キーボード、タッチパッドなどを含み得る。一実施例において、装置(100)は、出力装置(図示せず)をさらに含み得る。出力装置は、装置(100)の動作による多様なデータ(例:第2骨年齢など)を使用者に視覚的形態で提供する装置であり得る。例えば、出力装置は、ディスプレイ、プロジェクターなどを含み得る。
一実施例において、装置(100)は、多様な形態の装置になり得る。例えば、装置(100)は、携帯用通信装置、コンピュータ装置、携帯用マルチメディア装置、ウェアラブル(wearable)装置又は上述の装置のうちの1つ又はそれ以上の組合わせによる装置であり得る。本開示の装置(100)は、前述した装置に限定されない。
本開示による装置(100)の多様な実施例は互いに組み合わせられ得る。各実施例はケースに応じて組み合わせられ得、組み合わせられて作られた装置(100)の実施例も本開示の範囲に属する。また、前述した本開示による装置(100)の内/外部の構成要素は、実施例によって追加、変更、代替又は削除され得る。また、前述した装置(100)の内/外部の構成要素は、ハードウェアコンポーネントで具現され得る。
図4は、本開示の一実施例による、判断フィルタ(150)を導き出す過程を示した図面である。一実施例において、装置(100)は、ピクセル値をランダムで有する複数のフィルタを生成し、このうち複数の前処理イメージ(130)にマッチングされるフィルタを選別し、選別されたフィルタを組み合わせて新たなフィルタを生成し、その組み合わせられたフィルタのうち再び複数の前処理イメージ(130)にマッチングされるフィルタを選別する過程を繰り返し得る。装置(100)が当該過程を予め設定された回数繰り返した後に導き出されるフィルタが判断フィルタ(150)に決定され得る。
具体的には、プロセッサ(310)は、複数の初期フィルタ(410)を生成し得る。初期フィルタ(410)は、2つ以上のピクセルを含み得る。初期フィルタ(410)の各ピクセルは、任意に(ランダムで)設定されたピクセル値を有し得る。示された初期フィルタ(410)は、各9つのピクセルを有するものとして例示された。各ピクセルは、任意に設定されたピクセル値に応じて明暗を有するものとして示された。本開示において、ピクセル値は0~255の間の値を有し得、0は黒色、255は白色、0~255の間の値は当該値に応じた明度を有する灰色を意味し得る。
プロセッサ(310)は、複数の初期フィルタ(410)のうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つの初期フィルタ(420)を選別し得る。マッチングの有無の判断は、前述した通り行われ得る。即ち、ある初期フィルタが示す領域と、複数の前処理イメージ(130)のある領域が有するピクセル値を比較し、各ピクセル値が一致したり、一定の範囲内に存在するならば、当該前処理イメージには当該初期フィルタがマッチングされる領域が存在すると判断することができる。例えば、このマッチング過程で、示された初期フィルタ(421,422,423,424,425,426)等が選別されることができる。
その後、プロセッサ(310)は、選別された初期フィルタ(410)のうち少なくとも2つの初期フィルタを1番目(first)のフィルタとして学習演算を行い得る。具体的には、プロセッサ(310)は、1番目のフィルタとした少なくとも2つの初期フィルタを組み合わせることによって、組み合わせられたフィルタ(430)を生成し得る。
一実施例において、プロセッサ(310)は、少なくとも2つの初期フィルタの各々を左右又は上下に連結することによって、組み合わせられたフィルタ(430)を生成し得る。例えば、プロセッサ(310)は、初期フィルタ(424)及び初期フィルタ(426)を上下に連結することによって、組み合わせられたフィルタ(432)を生成し得る。また、プロセッサ(310)は、初期フィルタ(421)、初期フィルタ(422)及び初期フィルタ(423)を上下又は左右に連結することによって、組み合わせられたフィルタ(434)を生成し得る。また、プロセッサ(310)は、初期フィルタ(421)及び初期フィルタ(423)を上下に連結することによって、組み合わせられたフィルタ(436)を生成し得る。
プロセッサ(310)は、組み合わせられたフィルタ(430)を複数の前処理イメージ(130)と比較し、組み合わせられたフィルタ(430)のうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタ(440)を選別し得る。マッチングの有無の判断は前述した通りである。例えば、組み合わせられたフィルタ(432,434,436)のうち、フィルタ(432,434)が複数の前処理イメージ(130)とマッチングされるものとして選別され得る。
プロセッサ(310)は、マッチング過程で選別されたフィルタ(440)を再び組み合わせることによって、再び組み合わせられたフィルタを生成し得る。例えば、フィルタ(432)及びフィルタ(434)が組み合わせられ、新たに組み合わせられたフィルタが生成され得る。プロセッサ(310)は、新たに生成された組み合わせられたフィルタを用いて、再び学習演算を行い得る。即ち、プロセッサ(310)は、新たに組み合わせられたフィルタのうち複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタを再び選別し得る。選別されたフィルタは再び組み合わせられ、複数の前処理イメージ(130)とマッチング過程を経ることができる。プロセッサ(310)は、上述の方式に従って学習演算を予め設定された回数(N)繰り返し行い得る。
即ち、学習演算は、プロセッサ(310)が少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、組み合わせられたフィルタのうち複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタを選別し、選別されたフィルタをk+1番目((k+1)-th)のフィルタに決定する演算であり得る。k+1番目((k+1)-th)のフィルタは、次に行われる学習演算で、互いに組み合わせられるフィルタとして用いられ得る。
前述した通り、プロセッサ(310)が学習演算をN回繰り返すと、N+1番目のフィルタが少なくとも2つ以上決定され得る。プロセッサ(310)は、生成された少なくとも2つのN+1番目のフィルタのうちの1つを判断フィルタ(150)に決定し得る。前述した通り、当該判断フィルタ(150)は、第1性別を有する人体が、第1骨年齢に該当する歯を有した時、当該歯が有する基準形態を示し得る。
図5は、本開示の一実施例による、フィルタがあるイメージでマッチングされる領域を有するか否かを判断する過程を示した図面である。プロセッサ(310)は、あるフィルタ(例:初期フィルタ(410)、組み合わせられたフィルタ(430)、判断フィルタ(150)等)があるイメージでマッチングされる領域を有するか判断することができる。本開示において、フィルタ及びイメージの種類と関係なく、マッチングの有無の判断は同一の方法で行われ得る。以下、前述した学習演算で、組み合わせられたフィルタ(432)が複数の前処理イメージ(130)でマッチングされる領域を有するか否かを判断することを基準として、マッチングの有無の判断過程を説明する。
プロセッサ(310)は、前述した組み合わせられたフィルタのうちの1つ(432)と、複数の前処理イメージ(130)の各々を段階的又は並列的に比較することができる。プロセッサ(310)は、複数の前処理イメージ(130)のうちある前処理イメージ(510)の各一部領域と当該フィルタ(432)を比較していくことができる。前処理イメージ(510)でフィルタ(432)と比較される一部領域は、フィルタ(432)が有するピクセル数と同じピクセル数を有し得る。
プロセッサ(310)は、前処理イメージ(510)の各一部領域のピクセル値及び組み合わせられたフィルタ(432)のピクセル値の間で計算を行うことができる。例えば、前処理イメージ(510)のある一部領域が有するピクセルのピクセル値は、示された表(520)のように示され得る。また、組み合わせられたフィルタ(432)が有するピクセルのピクセル値は、示された表(530)のように示され得る。一実施例において、プロセッサ(310)は、2つの領域の対応する各ピクセルのピクセル値が互いに一致するか否かを判断し得る。ピクセル値が一致する場合、プロセッサ(310)は2つの領域がマッチングされると決定することができる。一実施例において、プロセッサ(310)は、2つの領域の対応する各ピクセルのピクセル値が予め設定されたピクセル値の範囲内にあるか否かを判断し得る。予め設定されたピクセル値の範囲内に対応するピクセルのピクセル値が含まれることになる場合、プロセッサ(310)は2つの領域がマッチングされると決定することができる。例えば、予め設定されたピクセル値の範囲が30であれば、前処理イメージ(510)のある一部領域のピクセルのピクセル値の各々と、それに対応する組み合わせられたフィルタ(432)のピクセルのピクセル値の各々が30以下の差の値を有する場合、プロセッサ(310)は2つの領域がマッチングされると決定することができる。
一実施例において、プロセッサ(310)は、前処理イメージ(510)のある一部領域と組み合わせられたフィルタ(432)の間のピクセル値の偏差の平均値を計算し、計算された平均値が予め設定された基準以下である場合、2つの領域がマッチングされると決定することができる。
図6は、本開示の一実施例による、歯を示す領域以外の領域を除去することによって前処理を行う過程を示した図面である。前述した通り、プロセッサ(310)は、複数の第1歯イメージ(120)の各々を前処理し、複数の前処理イメージ(130)の各々を生成することができる。前処理過程は多様な方法で行われ得る。
一実施例において、プロセッサ(310)は、複数の第1歯イメージ(120)の各々において歯を示す領域(610)以外の領域を除去して複数の前処理イメージ(130)の各々を生成し得る。歯を示す領域(610)とは、第1歯イメージの下端の中央点(620)を基準として、予め設定された幅(630)及び予め設定された高さ(640)と定義される領域(610)であり得る。一般に、歯を撮影したX‐rayイメージなどは、歯の形態が中央下端に示され得る。歯の形態を有する領域を残し、残りの領域を除去することによって、イメージ内で初期フィルタ(410)又は組み合わせられたフィルタ(430)と対比すべき領域を減らすことができ、これによりプロセッサ(310)の演算負担を減らすことができる。予め設定された幅(630)及び予め設定された高さ(640)に関する情報は、メモリ(320)に格納されていることができる。
一実施例において、プロセッサ(310)は、複数の第1歯イメージ(120)の各々を回転させることによって複数の前処理イメージ(130)の各々を生成し得る。一実施例において、プロセッサ(310)は、1つの第1歯イメージを予め設定された少なくとも2つ以上の角度で回転させることによって、複数の前処理イメージ(130)を生成し得る。例えば、プロセッサ(310)は、1つの第1歯イメージを時計方向に、1、3、5度それぞれ回転させ、反時計方向に1、3、5度それぞれ回転させ、計7つの前処理イメージを生成し得る(回転させなかった場合を含む)。予め設定された少なくとも2つ以上の角度に関する情報は、メモリ(320)に格納されていることができる。
また、一実施例において、プロセッサ(310)は、複数の第1歯イメージ(120)の各々を拡大又は縮小することによって、複数の前処理イメージ(130)の各々を生成し得る。一実施例において、プロセッサ(310)は、1つの第1歯イメージを予め設定された比率の範囲で拡大したり縮小して複数の前処理イメージ(130)の各々を生成し得る。例えば、プロセッサ(310)は、1つの第1歯イメージを3%又は5%だけ拡大したり縮小して、計5つの前処理イメージを生成し得る(拡大又は縮小しなかった場合を含む)。予め設定された比率に関する情報は、メモリ(320)に格納されていることができる。
上述の方法を通じて、プロセッサ(310)は、複数の第1歯イメージ(120)から、複数の第1歯イメージ(120)の個数より多くの個数の前処理イメージ(130)の各々を生成することができる。ニューラルネットワークモデル(140)の学習に用いられる母集団である複数の前処理イメージ(130)の個数を増やすことによって、プロセッサ(310)は学習過程で導き出される判断フィルタ(150)の精度をより高めることができる。
図7は、本開示の一実施例による、歯の治療跡に該当する部分を除去することによって前処理を行う過程を示した図面である。歯を撮影した歯イメージには、当該歯を治療(補綴治療、虫歯治療、人工クラウン(artificial crown)治療など)した跡に該当する部分も示され得る。治療跡に該当する部分は、当該歯の骨年齢又は骨成熟度とは関係なく示される特徴であり得る。即ち、当該跡は歯の特定の骨年齢のみで示される特徴であると見難く、すべての骨年齢にわたって示される特徴であり得る。このような部分まで含めてニューラルネットワークモデル(140)を学習させる場合、骨年齢を決定するのに精度が落ちることがある。これにより、学習演算を行うのに先立ち、学習データで治療跡に該当する部分を除去することができる。
具体的には、メモリ(320)は、複数の第1歯イメージ(120)又は歯を示す何れか1つのイメージで、予め設定された特徴(即ち、治療跡)を識別するための基準ピクセル値(710)を指す情報を格納することができる。一般に、補綴治療、人工クラウン治療などの跡は、一般の歯に比べてX‐rayイメージ上で均一の白色で示され得る。従って、均一の白色などで示される当該特徴を識別するための基準ピクセル値(710)が予め定義され得る。一実施例において、基準ピクセル値(710)は、白色を意味する255であり得る。一実施例において、基準ピクセル値(710)は、「220以上」のように範囲の形態で定義されることもできる。
プロセッサ(310)は、基準ピクセル値(710)に基づいて、基準フィルタ(720)を生成し得る。基準フィルタ(720)は、1つ以上のピクセルを含み得、各ピクセルは基準ピクセル値(710)(例:a)を有し得る。プロセッサ(310)は、複数の第1歯イメージ(120)の各々において基準フィルタ(720)にマッチングされる領域を識別し得る。マッチングの有無の判断は、前述した通り行われ得る。プロセッサ(310)は、複数の第1歯イメージ(120)の各々において識別された領域を除去し、複数の前処理イメージ(130)の各々を生成し得る。
図8は、本開示の一実施例による、第1歯イメージ(120)から前処理イメージ(130)を生成する過程の例示を示した図面である。歯の撮影環境に応じて、第1歯イメージ(120)は傾いた状態で撮影されることがある。また、撮影環境に応じて、第1歯イメージ(120)は対象歯を大きく又は小さく示すように撮影されることがある。このような差を補完するために、前処理過程で、プロセッサ(310)は第1歯イメージ(120)を予め設定された基準に従って、調整し得る。また、実施例によって、前述した前処理過程のうち一部が、本例示による前処理過程に含まれて行われ得る。
具体的には、メモリ(320)は、複数の前処理イメージ(130)の各々が示す歯形状の基準傾き及び基準大きさを指す情報を格納し得る。即ち、効率のよい学習演算を行うために、複数の前処理イメージ(130)の各々が有するべき基準傾き及び基準大きさを示す情報がメモリ(320)に格納されていることがある。また、メモリ(320)は、予め設定された特徴(前述した歯の治療跡)を識別するための基準ピクセル値(710)を指す情報をさらに含み得る。
プロセッサ(310)は、複数の第1歯イメージ(120)の各々が示す歯形状が、メモリ(320)に格納された基準傾きを有するように、複数の第1歯イメージ(120)の各々を回転させ得る(810)。これを通じて、プロセッサ(310)は、傾いたまま撮影された歯形状を、基準傾き(例:垂直)に合わせて回転させ得る。
プロセッサ(310)は、回転した複数のイメージの各々が示す歯形状が、メモリ(320)に格納された基準大きさを有するように、回転した複数のイメージの各々を拡大又は縮小し得る(820)。本例示において、回転した複数のイメージは基準大きさに合うように拡大され得る。
プロセッサ(310)は、拡大又は縮小された複数のイメージの各々において、歯を示す領域(610)以外の領域を除去し得る(830)。前述した通り、歯を示す領域(610)は、拡大又は縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
プロセッサ(310)は、歯を示す領域(610)以外の領域が除去された複数のイメージの各々において、基準フィルタ(720)にマッチングされる領域を除去し得る(840)。前述した通り、基準ピクセル値(710)に基づいて基準フィルタ(720)が生成され得る。プロセッサ(310)は、基準フィルタ(720)により識別される領域を、歯を示す領域(610)以外の領域が除去された複数のイメージの各々において除去し得る。
図9は、本開示による装置(100)により行われ得る、歯の骨年齢を決定するための方法の一実施例を示した図面である。本開示による歯の骨年齢を決定するための方法は、コンピュータで具現された方法であり得る。示されたフローチャートにおいて、本開示による方法又はアルゴリズムの各段階は、順次的な順序で説明されたが、各段階は順次行われること以外に、本開示によって任意に組み合わせられることができる順序に従って行われることもできる。本フローチャートによる説明は、方法又はアルゴリズムに変化又は修正を加えることを除外せず、任意の段階が必須であるか望ましいということを意味しない。一実施例において、少なくとも一部の段階が並列的に、繰り返し行われ得る。一実施例において、少なくとも一部の段階が省略されるか、他の段階が追加され得る。
本開示による装置(100)は、本開示の多様な実施例による歯の骨年齢を決定するための方法を行い得る。本開示の一実施例による歯の骨年齢を決定するための方法は、複数の第1歯イメージを取得する段階(S910)、複数の前処理イメージの各々を生成する段階(S920)、判断フィルタを導き出す段階(S930)、第2歯イメージ及び性別情報を取得する段階(S940)及び/又は第2骨年齢を導き出す段階(S950)を含み得る。
段階S910で、装置(100)のプロセッサ(310)は第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージ(120)を取得し得る。段階S920で、プロセッサ(310)は複数の第1歯イメージ(120)の各々に前処理を行い、複数の前処理イメージ(130)の各々を生成し得る。段階S930で、プロセッサ(310)は、複数の前処理イメージ(130)を用いて、歯の骨年齢を決定するためのニューラルネットワークモデル(140)を学習させ、第1性別による人体が有する第1骨年齢の歯形態を決定する判断フィルタ(150)を導き出し得る。段階S940で、プロセッサ(310)は、第2性別による人体の歯を撮影した第2歯イメージ(210)及び第2性別を示す性別情報を取得し得る。段階S950で、プロセッサ(310)は、判断フィルタ(150)に基づいて、第2歯イメージ(210)及び性別情報から第2歯イメージ(210)に該当する歯の第2骨年齢を導き出し得る。
一実施例において、段階S950は、プロセッサ(310)が、第2性別が第1性別と一致するか否かを決定する段階;第2性別が第1性別と一致するという決定に従って、第2歯イメージ(210)のうち判断フィルタ(150)にマッチングされる領域が存在するか否かを決定する段階;及び/又は判断フィルタ(150)にマッチングされる領域が存在するという決定に従って、第1骨年齢を第2骨年齢として導き出す段階を含み得る。
一実施例において、段階S930は、プロセッサ(310)がそれぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタ(410)を生成する段階;複数の初期フィルタ(410)のうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つの初期フィルタを選別する段階;少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行う段階;及び/又は学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを判断フィルタ(150)に決定する段階を含み得る。学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、組み合わせられたフィルタのうち、複数の前処理イメージ(130)でマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算であり得る。Nは、予め設定された定数であり得る。
一実施例において、プロセッサ(310)は、学習演算で、少なくとも2つのk番目のフィルタの各々を左右又は上下に連結して組み合わせられたフィルタを生成し得る。
一実施例において、プロセッサ(310)は、学習演算で、複数の前処理イメージ(130)の各々の一部領域のピクセル値及び組み合わせられたフィルタのピクセル値の間の計算結果に基づいて、組み合わせられたフィルタが複数の前処理イメージ(130)でマッチングされる領域が存在するか否かを決定し得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々において歯を示す領域(610)以外の領域を除去し、複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々を予め設定された少なくとも2つ以上の角度で回転させ、複数の第1歯イメージ(120)の個数より多くの個数の複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々を予め設定された比率の範囲で拡大及び縮小し、複数の第1歯イメージ(120)の個数より多くの個数の複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が基準ピクセル値(710)を有する1つ以上のピクセルを含む基準フィルタ(720)を生成する段階;複数の第1歯イメージ(120)の各々において基準フィルタ(720)にマッチングされる領域を識別する段階;及び/又は複数の第1歯イメージ(120)の各々において識別された領域を除去し、複数の前処理イメージ(130)の各々を生成する段階を含み得る。
一実施例において、段階S920は、プロセッサ(310)が複数の第1歯イメージ(120)の各々が示す歯形状が基準傾きを有するように複数の第1歯イメージ(120)の各々を回転させる段階;回転した複数のイメージの各々が示す歯形状が基準大きさを有するように回転した複数のイメージの各々を拡大したり縮小する段階;拡大されたり縮小された複数のイメージの各々において、歯を示す領域(610)以外の領域を除去する段階;及び/又は歯を示す領域(610)以外の領域が除去された複数のイメージの各々において、基準ピクセル値(710)を有する1つ以上のピクセルを含む基準フィルタ(720)にマッチングされる領域を除去し、複数の前処理イメージ(130)の各々を生成する段階を含み得る。歯を示す領域(610)は、拡大されたり縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域であり得る。
本開示の多様な実施例は、機器(machine)が読み取ることができる記録媒体(machine‐readable recording medium)に記録されたソフトウェアで具現され得る。ソフトウェアは、上述の本開示の多様な実施例を実現するためのソフトウェアであり得る。ソフトウェアは、本開示が属する技術分野のプログラマーによって本開示の多様な実施例から推論され得る。例えば、ソフトウェアは、機器が読み取ることができる命令(例:コード又はコードセグメント)又はプログラムであり得る。機器は、記録媒体から呼び出された命令語によって動作が可能な装置であって、例えばコンピュータであり得る。一実施例において、機器は、本開示の実施例による装置(100)であり得る。一実施例において、機器のプロセッサは、呼び出された命令を実行し、機器の構成要素が当該命令に該当する機能を行うようにすることができる。一実施例において、プロセッサは、本開示の実施例による1つ以上のプロセッサ(310)であり得る。記録媒体は、機器によって読み取られることができる、データが格納される全ての種類の記録媒体(recording medium)を意味し得る。記録媒体は、例えば、ROM、RAM、CD‐ROM、磁気テープ、フロッピーディスク、光データ格納装置などを含み得る。一実施例において、記録媒体は、1つ以上のメモリ(320)であり得る。一実施例において、記録媒体は、ネットワークで連結されたコンピュータシステムなどに分散した形態として具現されることもできる。ソフトウェアは、コンピュータシステムなどに分散して格納され、実行され得る。記録媒体は、非一時的(non‐transitory)記録媒体であり得る。非一時的記録媒体は、データが半永久的又は臨時に格納されることと関係なく実在する媒体(tangible medium)を意味し、一時的(transitory)に伝播される信号(signal)を含まない。
以上、多様な実施例によって本開示の技術的思想が説明されたが、本開示の技術的思想は、本開示が属する技術分野で通常の知識を有する者が理解できる範囲でなされる多様な置換、変形及び変更を含む。また、そのような置換、変形及び変更は、添付の請求の範囲内に含まれ得ると理解されなければならない。

Claims (20)

  1. 1つ以上のプロセッサ;及び
    上記1つ以上のプロセッサによる実行時に上記1つ以上のプロセッサが動作を行うようにする命令及び歯の骨年齢を決定するためのニューラルネットワークモデルが格納された1つ以上のメモリを含み、
    上記1つ以上のプロセッサは、
    第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、
    上記複数の第1歯イメージの各々に前処理を行い、複数の前処理イメージの各々を生成し、
    上記複数の前処理イメージを用いて上記ニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、
    第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、
    上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出す、装置。
  2. 第1項において、
    上記1つ以上のプロセッサは、
    上記第2性別が上記第1性別と一致するか否かを決定し、
    上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定し、
    上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出す、装置。
  3. 第2項において、
    上記1つ以上のプロセッサは、
    それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成し、
    上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別し、
    上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行い-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-、
    上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定し、上記Nは予め設定された定数である、装置。
  4. 第3項において、
    上記1つ以上のプロセッサは、
    上記学習演算で、上記少なくとも2つのk番目のフィルタの各々を左右又は上下に連結して上記組み合わせられたフィルタを生成する、装置。
  5. 第3項において、
    上記1つ以上のプロセッサは、
    上記学習演算で、上記複数の前処理イメージの各々の一部領域のピクセル値及び上記組み合わせられたフィルタのピクセル値の間の計算結果に基づいて、上記組み合わせられたフィルタが上記複数の前処理イメージでマッチングされる領域が存在するか否かを決定する、装置。
  6. 第1項において、
    上記1つ以上のプロセッサは、
    上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成し、
    上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域である、装置。
  7. 第1項において、
    上記1つ以上のプロセッサは、
    上記複数の第1歯イメージの各々を予め設定された少なくとも2つ以上の角度で回転させ、上記複数の第1歯イメージの個数より多くの個数の上記複数の前処理イメージの各々を生成する、装置。
  8. 第1項において、
    上記1つ以上のプロセッサは、
    上記複数の第1歯イメージの各々を予め設定された比率の範囲で拡大及び縮小して、上記複数の第1歯イメージの個数より多くの個数の上記複数の前処理イメージの各々を生成する、装置。
  9. 第1項において、
    上記1つ以上のメモリは、上記複数の第1歯イメージで予め設定された特徴を識別するための基準ピクセル値を指す情報を含み、
    上記1つ以上のプロセッサは、
    上記基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成し、
    上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別し、
    上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成する、装置。
  10. 第1項において、
    上記1つ以上のメモリは、上記複数の前処理イメージの各々が示す歯形状の基準傾き及び基準大きさを指す情報、及び予め設定された特徴を識別するための基準ピクセル値を指す情報を含み、
    上記1つ以上のプロセッサは、
    上記複数の第1歯イメージの各々が示す歯形状が上記基準傾きを有するように上記複数の第1歯イメージの各々を回転させ、
    上記回転した複数のイメージの各々が示す歯形状が上記基準大きさを有するように上記回転した複数のイメージの各々を拡大したり縮小し、
    上記拡大されたり縮小された複数のイメージの各々において、歯を示す領域以外の領域を除去し-上記歯を示す領域は、上記拡大されたり縮小された複数のイメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域である-、
    上記歯を示す領域以外の領域が除去された複数のイメージの各々において、上記基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタにマッチングされる領域を除去して、上記複数の前処理イメージの各々を生成する、装置。
  11. 1つ以上のプロセッサ及び上記1つ以上のプロセッサによって実行されるための命令が格納された1つ以上のメモリを含むコンピュータで行われる方法において、上記1つ以上のプロセッサが、
    第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得する段階;
    上記複数の第1歯イメージの各々に前処理を行って、複数の前処理イメージの各々を生成する段階;
    上記複数の前処理イメージを用いて、歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出す段階;
    第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得する段階;及び
    上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出す段階を含む、方法。
  12. 第11項において、
    上記第2骨年齢を導き出す段階は、
    上記第2性別が上記第1性別と一致するか否かを決定する段階;
    上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定する段階;及び
    上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出す段階を含む、方法。
  13. 第12項において、
    上記判断フィルタを導き出す段階は、
    それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成する段階;
    上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別する段階; 上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行う段階-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-;及び
    上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定する段階を含み、
    上記Nは予め設定された定数である、方法。
  14. 第11項において、
    上記複数の前処理イメージの各々を生成する段階は、
    上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成する段階を含み、
    上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域である、方法。
  15. 第11項において、
    上記複数の前処理イメージの各々を生成する段階は、
    基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成する段階;
    上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別する段階;及び
    上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成する段階を含み、
    上記基準ピクセル値は、上記複数の第1歯イメージで予め設定された特徴を識別するためのピクセル値である、方法。
  16. 1つ以上のプロセッサによる実行時に、上記1つ以上のプロセッサが動作を行うようにする命令を記録した非一時的コンピュータ読み出し可能記録媒体において、
    上記命令は、上記1つ以上のプロセッサが、
    第1性別に該当し、第1骨年齢を有する複数の歯の各々を撮影した複数の第1歯イメージを取得し、
    上記複数の第1歯イメージの各々に前処理を行って、複数の前処理イメージの各々を生成し、
    上記複数の前処理イメージを用いて歯の骨年齢を決定するためのニューラルネットワークモデルを学習させ、上記第1性別による人体が有する上記第1骨年齢の歯形態を決定する判断フィルタを導き出し、
    第2性別による人体の歯を撮影した第2歯イメージ及び上記第2性別を示す性別情報を取得し、
    上記判断フィルタに基づいて、上記第2歯イメージ及び上記性別情報から上記第2歯イメージに該当する歯の第2骨年齢を導き出すようにする、コンピュータ読み出し可能な記録媒体。
  17. 第16項において、
    上記命令は、上記1つ以上のプロセッサが、
    上記第2性別が上記第1性別と一致するか否かを決定し、
    上記第2性別が上記第1性別と一致するという決定に従って、上記第2歯イメージのうち、上記判断フィルタにマッチングされる領域が存在するか否かを決定し、
    上記判断フィルタにマッチングされる領域が存在するという決定に従って、上記第1骨年齢を上記第2骨年齢として導き出すようにする、コンピュータ読み出し可能な記録媒体。
  18. 第17項において、
    上記命令は、上記1つ以上のプロセッサが、
    それぞれ任意に設定されたピクセル値を有する2つ以上のピクセルを含む複数の初期フィルタを生成し、
    上記複数の初期フィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つの初期フィルタを選別し、
    上記少なくとも2つの初期フィルタを1番目(first)のフィルタとして、学習演算をN回繰り返し行い-上記学習演算は、少なくとも2つのk番目(k-th)のフィルタを連結して組み合わせられたフィルタを生成し、上記組み合わせられたフィルタのうち、上記複数の前処理イメージでマッチングされる領域が存在する少なくとも2つのフィルタを選別してk+1番目((k+1)-th)のフィルタに決定する演算である-、
    上記学習演算の繰り返し実行により決定された少なくとも2つのN+1番目のフィルタのうちの1つを上記判断フィルタに決定するようにし、
    上記Nは予め設定された定数である、コンピュータ読み出し可能な記録媒体。
  19. 第16項において、
    上記命令は、上記1つ以上のプロセッサが、
    上記複数の第1歯イメージの各々において歯を示す領域以外の領域を除去して、上記複数の前処理イメージの各々を生成するようにし、
    上記歯を示す領域は、上記複数の第1歯イメージの各々の下端の中央点を基準として予め設定された幅及び高さを有する領域である、コンピュータ読み出し可能な記録媒体。
  20. 第16項において、
    上記命令は、上記1つ以上のプロセッサが、
    基準ピクセル値を有する1つ以上のピクセルを含む基準フィルタを生成し、
    上記複数の第1歯イメージの各々において上記基準フィルタにマッチングされる領域を識別し、
    上記複数の第1歯イメージの各々において上記識別された領域を除去して、上記複数の前処理イメージの各々を生成するようにし、
    上記基準ピクセル値は、上記複数の第1歯イメージで予め設定された特徴を識別するためのピクセル値である、コンピュータ読み出し可能な記録媒体。
JP2021541242A 2019-03-25 2019-03-25 歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体 Active JP7202739B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003422 WO2020196939A1 (ko) 2019-03-25 2019-03-25 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Publications (2)

Publication Number Publication Date
JP2022521136A true JP2022521136A (ja) 2022-04-06
JP7202739B2 JP7202739B2 (ja) 2023-01-12

Family

ID=72611610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541242A Active JP7202739B2 (ja) 2019-03-25 2019-03-25 歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体

Country Status (5)

Country Link
US (1) US11961235B2 (ja)
EP (1) EP3967235A4 (ja)
JP (1) JP7202739B2 (ja)
CN (1) CN113573642A (ja)
WO (1) WO2020196939A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414210B2 (ja) 2021-10-08 2024-01-16 朝日レントゲン工業株式会社 歯牙年齢算定装置及び歯牙年齢算定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11707344B2 (en) * 2019-03-29 2023-07-25 Align Technology, Inc. Segmentation quality assessment

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527882A (ja) * 2003-06-17 2006-12-07 三菱電機株式会社 画像内の特定のオブジェクトを検出する方法及びシステム
US20090129639A1 (en) * 2006-08-11 2009-05-21 Visionary Technologies Inc. System and method for object identification and anomaly detection
JP2013541085A (ja) * 2010-09-08 2013-11-07 インスティチュート テレコム−テレコム パリステック オブジェクトにスコアを提供する方法及び意思決定支援システム
US20130308843A1 (en) * 2011-02-10 2013-11-21 Straumann Holding Ag Method and analysis system for the geometrical analysis of scan data from oral structures
JP2014509908A (ja) * 2011-03-21 2014-04-24 ケアストリーム ヘルス インク 歯の表面の分類のための方法
US20160124920A1 (en) * 2014-10-31 2016-05-05 Douglas A. Golay Combination web browser based dental practice management software system with embedded web browser based dental imaging software
JP2016067532A (ja) * 2014-09-29 2016-05-09 メディア株式会社 歯科画像処理装置
WO2016194996A1 (ja) * 2015-06-05 2016-12-08 日本電信電話株式会社 ユーザ推定装置、ユーザ推定方法、および、ユーザ推定プログラム
KR20170135572A (ko) * 2016-05-31 2017-12-08 (주)이너웨이브 딥러닝 알고리즘을 이용한 구강 건강 관리 시스템 및 방법
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
WO2018127949A1 (ja) * 2017-01-05 2018-07-12 佳知 高石 骨質評価装置,方法およびプログラムならびに骨折リスク評価装置,方法およびプログラム
KR20190023003A (ko) * 2017-08-25 2019-03-07 남정림 영상 처리 및 기계 학습에 기초한 뼈 나이 판독 장치 및 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6350120B1 (en) * 1999-11-30 2002-02-26 Orametrix, Inc. Method and apparatus for designing an orthodontic apparatus to provide tooth movement
US7987099B2 (en) * 2004-02-27 2011-07-26 Align Technology, Inc. Dental data mining
US20080172386A1 (en) * 2007-01-17 2008-07-17 Ammar Hany H Automated dental identification system
US20140227655A1 (en) * 2013-02-12 2014-08-14 Ormco Corporation Integration of model data, surface data, and volumetric data
US10242293B2 (en) * 2015-08-04 2019-03-26 The Asan Foundation Method and program for computing bone age by deep neural network
WO2017222489A1 (en) * 2016-06-21 2017-12-28 Goncu Serap Determination of cattle age with photography
KR101779800B1 (ko) 2016-09-27 2017-09-19 이재준 기계학습 기반 다면적 성장 평가 방법 및 시스템
CN110998602B (zh) * 2017-06-30 2023-12-01 普罗马顿控股有限责任公司 使用深度学习方法对3d牙颌面结构的分类和3d建模
FR3069360B1 (fr) * 2017-07-21 2022-11-04 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
FR3069359B1 (fr) * 2017-07-21 2019-08-23 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
CN107591200B (zh) * 2017-08-25 2020-08-14 卫宁健康科技集团股份有限公司 基于深度学习及影像组学的骨龄标记识别评估方法及系统
CN107767376B (zh) 2017-11-02 2021-03-26 西安邮电大学 基于深度学习的x线片骨龄预测方法及系统
EP3503038A1 (en) * 2017-12-22 2019-06-26 Promaton Holding B.V. Automated 3d root shape prediction using deep learning methods
EP3591616A1 (en) * 2018-07-03 2020-01-08 Promaton Holding B.V. Automated determination of a canonical pose of a 3d dental structure and superimposition of 3d dental structures using deep learning
EP3620130A1 (en) * 2018-09-04 2020-03-11 Promaton Holding B.V. Automated orthodontic treatment planning using deep learning
CN109363786B (zh) * 2018-11-06 2021-03-05 上海牙典软件科技有限公司 一种牙齿正畸矫治数据获取方法及装置
KR102128997B1 (ko) 2019-03-25 2020-07-02 본와이즈 주식회사 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527882A (ja) * 2003-06-17 2006-12-07 三菱電機株式会社 画像内の特定のオブジェクトを検出する方法及びシステム
US20090129639A1 (en) * 2006-08-11 2009-05-21 Visionary Technologies Inc. System and method for object identification and anomaly detection
JP2013541085A (ja) * 2010-09-08 2013-11-07 インスティチュート テレコム−テレコム パリステック オブジェクトにスコアを提供する方法及び意思決定支援システム
US20130308843A1 (en) * 2011-02-10 2013-11-21 Straumann Holding Ag Method and analysis system for the geometrical analysis of scan data from oral structures
JP2014509908A (ja) * 2011-03-21 2014-04-24 ケアストリーム ヘルス インク 歯の表面の分類のための方法
JP2016067532A (ja) * 2014-09-29 2016-05-09 メディア株式会社 歯科画像処理装置
US20160124920A1 (en) * 2014-10-31 2016-05-05 Douglas A. Golay Combination web browser based dental practice management software system with embedded web browser based dental imaging software
WO2016194996A1 (ja) * 2015-06-05 2016-12-08 日本電信電話株式会社 ユーザ推定装置、ユーザ推定方法、および、ユーザ推定プログラム
KR20170135572A (ko) * 2016-05-31 2017-12-08 (주)이너웨이브 딥러닝 알고리즘을 이용한 구강 건강 관리 시스템 및 방법
WO2018057714A1 (en) * 2016-09-21 2018-03-29 The General Hospital Corporation Systems, methods and media for automatically generating a bone age assessment from a radiograph
WO2018127949A1 (ja) * 2017-01-05 2018-07-12 佳知 高石 骨質評価装置,方法およびプログラムならびに骨折リスク評価装置,方法およびプログラム
KR20190023003A (ko) * 2017-08-25 2019-03-07 남정림 영상 처리 및 기계 학습에 기초한 뼈 나이 판독 장치 및 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CULAR, LUKA ET AL.: "Dental age estimation from panoramic X-ray images using statistical models", PROCEEDINGS OF THE 10TH INTERNATIONAL SYMPOSIUM ON IMAGE AND SIGNAL PROCESSING AND ANALYSIS, JPN7022005601, 2017, pages 25 - 30, XP033228591, ISSN: 0004939294, DOI: 10.1109/ISPA.2017.8073563 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414210B2 (ja) 2021-10-08 2024-01-16 朝日レントゲン工業株式会社 歯牙年齢算定装置及び歯牙年齢算定プログラム

Also Published As

Publication number Publication date
EP3967235A1 (en) 2022-03-16
EP3967235A4 (en) 2022-11-30
CN113573642A (zh) 2021-10-29
JP7202739B2 (ja) 2023-01-12
WO2020196939A1 (ko) 2020-10-01
US20220084205A1 (en) 2022-03-17
US11961235B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
US20220218449A1 (en) Dental cad automation using deep learning
KR101839789B1 (ko) 치과 영상의 판독 데이터 생성 시스템
KR20130136519A (ko) 파노라마 엑스선 사진을 이용한 진단 지원 시스템, 및 파노라마 엑스선 사진을 이용한 진단 지원 프로그램
KR102128997B1 (ko) 치아의 골 연령을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체
KR102289610B1 (ko) 치아 부가정보 제공 방법 및 그 장치
JP2022521136A (ja) 歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体
Zhang et al. Learning-based coronal spine alignment prediction using smartphone-acquired scoliosis radiograph images
JP2017524404A (ja) 画像をセグメント化するためのパラメータの最適化
US20220378548A1 (en) Method for generating a dental image
KR102346199B1 (ko) 파노라믹 영상 생성 방법 및 이를 위한 영상 처리장치
WO2023216720A1 (zh) 图像重建模型的训练方法、装置、设备、介质及程序产品
CN108765413B (zh) 用于图像分类的方法、装置及计算机可读介质
CN108257202B (zh) 一种基于使用场景的医学图像容积重建优化方法
KR20210015834A (ko) 진단 지원 시스템, 진단 지원 방법 및 진단 지원 프로그램
CN115937153A (zh) 模型训练方法、装置、电子设备及计算机存储介质
CN114359296A (zh) 基于深度学习的图像元素及下牙槽神经分割方法与装置
KR102200060B1 (ko) 치아의 정밀 진단 모듈로의 간편한 이동 방법 및 그 장치
JP7275961B2 (ja) 教師画像生成プログラム、教師画像生成方法、および教師画像生成システム
CN112638238A (zh) 骨龄评估装置、方法以及用于记录程序的记录介质
US20240023812A1 (en) Photographing system that enables efficient medical examination, photographing control method, and storage medium
KR102596666B1 (ko) 의료 영상 기반 통합 의료 서비스 제공 시스템 및 방법
US20220036105A1 (en) Identification Process of a Dental Implant Visible on an Input Image by Means of at Least One Convolutional Neural Network
US20240070810A1 (en) Image processing apparatus, operation method of image processing apparatus, and endoscope system
US20240122463A1 (en) Image quality assessment and multi mode dynamic camera for dental images
WO2023279201A1 (en) System and method for determining an orthodontic occlusion class

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7202739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150