JP2022168622A - プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 - Google Patents
プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 Download PDFInfo
- Publication number
- JP2022168622A JP2022168622A JP2021074213A JP2021074213A JP2022168622A JP 2022168622 A JP2022168622 A JP 2022168622A JP 2021074213 A JP2021074213 A JP 2021074213A JP 2021074213 A JP2021074213 A JP 2021074213A JP 2022168622 A JP2022168622 A JP 2022168622A
- Authority
- JP
- Japan
- Prior art keywords
- maxillary
- images
- alveolar
- landmarks
- landmark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 60
- 238000000034 method Methods 0.000 title claims description 58
- 238000003672 processing method Methods 0.000 title claims description 4
- 208000028169 periodontal disease Diseases 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims description 43
- 238000003384 imaging method Methods 0.000 claims description 39
- 241000228740 Procrustes Species 0.000 claims description 13
- 241000282465 Canis Species 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 description 38
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 17
- 238000007689 inspection Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 11
- 210000004357 third molar Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 210000000988 bone and bone Anatomy 0.000 description 8
- 210000002050 maxilla Anatomy 0.000 description 5
- 230000032683 aging Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 239000007943 implant Substances 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 208000006386 Bone Resorption Diseases 0.000 description 3
- 230000024279 bone resorption Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000002542 deteriorative effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004283 incisor Anatomy 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 208000005888 Periodontal Pocket Diseases 0.000 description 2
- 210000003464 cuspid Anatomy 0.000 description 2
- 210000001847 jaw Anatomy 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 201000001245 periodontitis Diseases 0.000 description 2
- 208000008312 Tooth Loss Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000004763 bicuspid Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 230000005750 disease progression Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 235000006694 eating habits Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 208000007565 gingivitis Diseases 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Abstract
【課題】歯周疾患検査における客観的な精度を向上させることが可能なプログラム等を提供する。【解決手段】コンピュータは、対象者の上下顎画像を時系列で取得する。そして、コンピュータは、取得した上下顎画像のそれぞれに対して、歯槽頂及び歯槽底を含む複数のランドマークの座標群を特定する。更に、コンピュータは、それぞれの上下顎画像に対して特定した複数のランドマークの座標群に基づいて、歯周疾患の進行に関する情報を出力する。【選択図】図1
Description
本開示は、プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法に関する。
歯周疾患の検査方法として、歯周ポケット(歯と歯ぐきの隙間)の深さを測るプロ―ビング検査、X線画像上で歯槽骨の吸収状態を検査するX線検査等が行われている。特許文献1では、被検者の頭部位置づけを容易に行うことができる歯科用X線撮影装置が開示されている。
上述したような検査では、検査者の検査技術によって検査結果にばらつきが生じる。例えばプロービング検査では、検査者がプローブを用いて手動で歯周ポケットの深さを測るので、検査者によって検査結果が異なる可能性があり、また、わずかな力加減で測定値が変化する。X線検査も、目視によって歯槽骨の吸収状態を判断するので、検査者の読影技術によって検査結果が異なる可能性がある。よって、上述したような検査では、客観的な検査精度に欠けるという問題がある。
本開示は、このような事情に鑑みてなされたものであり、その目的とするところは、歯周疾患の検査における客観的な精度を向上させることが可能なプログラム等を提供することにある。
本開示の一態様に係るプログラムは、対象者の上下顎画像を時系列で取得し、取得した上下顎画像のそれぞれに対して、歯槽頂及び歯槽底を含む複数のランドマークの座標群を特定し、前記上下顎画像のそれぞれに対して特定した前記ランドマークの座標群に基づいて、歯周疾患の進行に関する情報を出力する処理をコンピュータに実行させる。
本開示の一態様にあっては、歯周疾患の検査における客観的な精度を向上させることができる。
以下に、本開示のプログラム、情報処理装置、情報処理方法及び学習モデルの生成方法について、その実施形態を示す図面に基づいて説明する。
(実施形態1)
患者(対象者)の上下顎画像に基づいて歯周疾患の進行状態を判定する情報処理装置について説明する。本実施形態の情報処理装置は、X線撮影装置で撮影した2次元のパノラマX線画像(以下では単にX線画像という)に基づいて歯周疾患の進行状態を判定し、判定結果に応じた情報を出力する。なお、X線画像は、レントゲン撮影によって撮影したレントゲン画像であってもよく、コンピュータ断層撮影(CT:Computed Tomography)によって撮影したCT画像であってもよい。また、上下顎画像は、X線画像に限定されず、磁気共鳴画像法(MRI:Magnetic Resonance Imaging)によって撮影したMRI画像を用いてもよい。また歯周疾患は、歯肉炎、歯周炎、歯槽膿漏等の歯周病を含む。
患者(対象者)の上下顎画像に基づいて歯周疾患の進行状態を判定する情報処理装置について説明する。本実施形態の情報処理装置は、X線撮影装置で撮影した2次元のパノラマX線画像(以下では単にX線画像という)に基づいて歯周疾患の進行状態を判定し、判定結果に応じた情報を出力する。なお、X線画像は、レントゲン撮影によって撮影したレントゲン画像であってもよく、コンピュータ断層撮影(CT:Computed Tomography)によって撮影したCT画像であってもよい。また、上下顎画像は、X線画像に限定されず、磁気共鳴画像法(MRI:Magnetic Resonance Imaging)によって撮影したMRI画像を用いてもよい。また歯周疾患は、歯肉炎、歯周炎、歯槽膿漏等の歯周病を含む。
図1は情報処理装置の構成例を示すブロック図である。情報処理装置10は、種々の情報処理及び情報の送受信が可能であり、例えばパーソナルコンピュータ、ワークステーション又はタブレット端末等で構成される。情報処理装置10は、例えば医療機関に設置され、歯科医師又は医師等によって使用される。本実施形態において、情報処理装置10は、単一のコンピュータに限らず、複数のコンピュータ及び周辺機器からなるコンピュータシステムであってもよい。また情報処理装置10は、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
情報処理装置10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを有する。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、情報処理装置10が行うべき種々の情報処理及び制御処理等を行う。
記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。制御プログラム12Pは、情報処理装置10の製造段階において記憶部12に書き込まれてもよく、遠隔のサーバ装置が配信するものを情報処理装置10が通信にて取得して記憶部12に記憶させてもよい。また記憶部12は、後述する患者DB(データベース)12a、判定結果DB12b及びアドバイスDB12cを記憶している。患者DB12a、判定結果DB12b及びアドバイスDB12cは、情報処理装置10に接続された他の記憶装置に記憶されていてもよく、情報処理装置10が通信可能な他の記憶装置に記憶されていてもよい。
通信部13は、有線通信又は無線通信によって、インターネット等のネットワークに接続するための通信モジュールであり、ネットワークを介して他の装置との間で情報の送受信を行う。入力部14は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。
読み取り部16は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体10aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部16を介して可搬型記憶媒体10aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部13を介して他の装置からダウンロードして記憶部12に記憶してもよい。
図2は情報処理装置10が記憶するDB12a~12cの構成例を示す模式図である。図2Aは患者DB12aを、図2Bは判定結果DB12bを、図2CはアドバイスDB12cをそれぞれ示す。患者DB12aは、例えば情報処理装置10が設定されている医療機関の患者に関する情報を記憶する。図2Aに示す患者DB12aは、患者ID列、患者情報列、検査情報列等を含み、患者IDに対応付けて患者の情報を記憶する。患者ID列は、各患者を識別するための識別情報(患者ID)を記憶する。患者IDは、例えば医療機関で発行された診察券の診察券番号であってもよい。患者情報列は、患者の氏名及び連絡先の情報等の個人情報、患者の年齢及び性別等の属性情報等を含む患者情報を記憶する。なお、患者情報は、患者の既往歴、治療履歴、服薬履歴、医療機関等で行った各種の検査結果等を含んでもよい。検査情報列は、X線検査に関する情報を記憶し、具体的には、撮影日時列、X線画像列、ランドマーク情報列、初回との変化率列を含む。撮影日時列は、X線画像の撮影日時(撮影時期)を記憶し、X線画像は、撮影したX線画像を記憶し、ランドマーク情報列は、X線画像から特定されたランドマーク情報を記憶する。なお、X線画像は、患者DB12aに記憶されるほかに、記憶部12の所定領域又は他の記憶装置に記憶されてもよく、この場合、X線画像列は、X線画像を読み出すための情報(例えば画像データの記憶場所を示すファイル名)を記憶する。ランドマーク情報は、詳細については後述するが、X線画像中に設定された複数のランドマークの座標値を含むランドマーク座標群である。初回との変化率列は、最初に撮影されたX線画像と、各撮影日時に撮影されたX線画像とに基づいて算出される、歯槽骨の吸収状態の変化を示す変化率を記憶する。変化率の詳細については後述するが、変化率は、初回との変化率のほかに、任意の2つの撮影日時における変化率であってもよい。また、変化率を算出する際にランドマークを複数の領域に分割するが、各領域における2つの撮影日時における変化率が患者DB12aに記憶されてもよい。患者DB12aの記憶内容は図2Aに示す例に限定されない。
判定結果DB12bは、歯周疾患の進行状態の判定結果に関する情報を記憶する。図2Bに示す判定結果DB12bは、判定結果ID列、判定結果列、判定条件列等を含み、判定結果IDに対応付けて判定結果の情報を記憶する。判定結果ID列は、予め用意された判定結果を識別するための識別情報(判定結果ID)を記憶する。判定結果列は、歯周疾患の進行状態に関する判定結果を記憶する。判定結果は、歯科医師、歯科衛生士、歯科技工士、医師等の専門家が歯周疾患の進行状態を、歯槽骨の吸収度合に応じて判定したものである。判定条件列は、各判定結果であると判定する際の条件を記憶する。本実施形態では、歯周疾患の進行状態を、歯槽骨の吸収度合に基づいて判定しており、判定条件は、歯槽骨の吸収状態の経年変化を示す変化率を用いて設定される。判定結果DB12bの記憶内容は図2Bに示す例に限定されない。
アドバイスDB12cは、歯周疾患の進行状態の判定結果に応じて患者に提供するアドバイスに関する情報を記憶する。図2Cに示すアドバイスDB12cは、アドバイスID列、アドバイス内容列、提供条件列等を含み、アドバイスIDに対応付けてアドバイスの情報を記憶する。アドバイスID列は、予め用意されたアドバイスを識別するための識別情報(アドバイスID)を記憶する。アドバイス内容列は、歯周疾患の進行状態に応じて患者に提供すべきアドバイスの内容を記憶する。アドバイスは、歯周疾患の進行状態の判定結果に応じて歯周疾患の進行を防止するためのアドバイス等を含み、専門家によって設定される。またアドバイスは、歯周疾患の予防方法、治療方法、食生活及び歯磨き等の生活習慣等に関する情報を含んでもよい。提供条件列は、各アドバイスを提供する条件を記憶する。提供条件は、判定結果及び歯槽骨の吸収状態の経年変化を示す変化率を用いて設定される。アドバイスDB12cの記憶内容は図2Cに示す例に限定されない。
以下に、患者のX線画像から歯周疾患の進行状態を判定する処理について説明する。図3は歯周疾患の進行状態の判定処理手順の一例を示すフローチャート、図4は結果画面の生成処理手順の一例を示すフローチャート、図5及び図6は画面例を示す模式図、図7及び図8は歯周疾患の進行状態の判定処理の説明図である。以下の処理は、情報処理装置10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。なお、以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態の情報処理装置10の制御部11は、患者の上下顎骨を撮影したX線画像(上下顎画像)を取得する(S11)。例えば情報処理装置10がX線撮影装置に接続されている場合、制御部11は、X線撮影装置からX線画像を取得する。また情報処理装置10がX線撮影装置に搭載されている場合、制御部11は、X線撮影装置の撮影部からX線画像を取得する。またX線画像が可搬型記憶媒体10aに記憶されている場合、制御部11は、読み取り部16によって可搬型記憶媒体10aから読み取ってもよい。更に制御部11は、X線撮影装置からX線画像を取得した他の情報処理装置からX線画像を取得してもよい。X線画像には撮影日時が付加されており、制御部11は、患者IDと共にX線画像を取得し、取得したX線画像及び撮影日時を患者IDに対応付けて患者DB12aに記憶する。そして制御部11は、X線画像を含む操作画面を表示部15に表示する(S12)。
図5Aは操作画面例を示し、操作画面は、患者ID及び患者の氏名、撮影日時、X線画像等を表示している。また操作画面はメニューバー15aを有しており、メニューバー15aは、X線画像中の上下顎骨に対して所定のランドマークを設定するためのランドマーク設定ボタンと、歯周疾患の進行状態(歯槽骨の吸収状態の経年変化)を判定する歯周疾患検査の実行を指示するための歯周疾患検査ボタンと、表示されるX線画像の切替を指示するための画像切替ボタンとを有する。歯周疾患検査ボタンには、表示中のX線画像と比較すべき比較対象のX線画像を指定(選択)するための入力欄15bが対応付けて設けてあり、画像切替ボタンには、操作画面に表示すべきX線画像を指定(選択)するための入力欄15cが対応付けて設けてある。入力欄15b,15cには、これまでに撮影したX線画像の撮影日のいずれかを選択するためのプルダウンメニューが設けられている。具体的には、患者DB12aに記憶してある当該患者の検査情報に含まれる撮影日の一覧を表示し、いずれかの撮影日を選択できるプルダウンメニューが設定されている。
図5Aに示す操作画面においてユーザ(例えば歯科医師)はまず、ランドマーク設定ボタンを操作して、表示中のX線画像に対してランドマークの設定を行う。制御部11は、ランドマーク設定ボタンが操作されたか否かを判断しており(S13)、操作されていないと判断した場合(S13:NO)、操作されるまで待機する。このとき、画像切替ボタンが操作された場合、制御部11は、入力欄15cを介して選択された撮影日のX線画像を患者DB12aから読み出し、読み出したX線画像の表示に切り替える処理を行う。ランドマーク設定ボタンが操作されたと判断した場合(S13:YES)、制御部11は、操作画面を介してX線画像に対するランドマークの位置を受け付ける(S14)。ランドマーク設定ボタンが操作された場合、制御部11は、図5Bに示すように、ランドマーク設定ボタンを、ランドマークの設定中であることを示す態様で表示し、表示中のX線画像上にカーソル15dを表示する。ユーザは、カーソル15dで所望の位置を指し示した状態でダブルクリック等の操作を行うことによって、ランドマークの設定を行う。よって、制御部11は、入力部14を介したユーザの操作に従って、表示中のX線画像に対するランドマークの位置を受け付ける。なお、制御部11は、受け付けたランドマークを表示中のX線画像上にプロットする。
図7Aはランドマークの説明図であり、本実施形態では、各歯の歯槽において遠心側の歯槽頂及び歯槽底をランドマークに用いる。具体的には、図7Aに示すように、上顎及び下顎のそれぞれにおいて、左側の各歯の歯槽については左側の歯槽頂LH及び歯槽底LLをランドマークに用い、右側の各歯の歯槽については右側の歯槽頂RH及び歯槽底RLをランドマークに用いる。なお、X線画像中の天然歯の歯槽(天然歯槽)における歯槽頂及び歯槽底をランドマートに使用し、人工歯(インプラント等)、第三大臼歯(親知らず)の歯槽における歯槽頂及び歯槽底はランドマークに使用しない。また、欠損歯、矯正治療の際に抜歯した歯等は、歯槽が残存している場合、当該歯槽の歯槽頂及び歯槽底をランドマークに使用してもよい。ランドマークの設定は、上述したようにユーザが手動で行うほかに、ルールベースで行うように構成されていてもよい。例えば、歯又は歯槽の形状を示す画像を予め用意しておき、この画像を用いたパターンマッチングによってX線画像中の歯槽を特定し、特定した歯槽に対する歯槽頂及び歯槽底をランドマークに設定してもよい。またこのとき、設定されたランドマークをプロットしたX線画像を表示し、ユーザによる修正を行った後に、最終的なランドマークに設定してもよい。
ユーザは、表示中のX線画像に対して、全ての天然歯槽に対して歯槽頂及び歯槽底の2つのランドマークの印を付けた後、設定ボタンを操作する。制御部11は、操作画面中の設定ボタンが操作されたか否かを判断しており(S15)、操作されていないと判断した場合(S15:NO)、ステップS14の処理に戻り、ランドマークの受付を繰り返す。設定ボタンが操作されたと判断した場合(S15:YES)、制御部11は、受け付けた各ランドマークの座標値を取得する(S16)。例えば制御部11は、X線画像中の所定位置(例えば左上位置)を原点とし、原点から右方向をX軸とし、原点から下方向をY軸として、全てのランドマークの座標値(x,y)を取得する。これにより、制御部11(特定部)は、X線画像に対して複数のランドマークの座標値(座標群)を特定し、各ランドマークの座標値を取得できる。制御部11は、全てのランドマークの座標値をランドマーク情報(ランドマークの座標群)として、患者IDに対応付けて患者DB12aに記憶する(S17)。
ユーザは、歯周疾患の進行状態を判定するために、表示中のX線画像と比較すべき比較対象のX線画像の撮影日を入力欄15bに入力した後、歯周疾患検査ボタンを操作する。制御部11は、操作画面中の歯周疾患検査ボタンが操作されたか否かを判断しており(S18)、操作されていないと判断した場合(S18:NO)、操作されるまで待機する。このとき、画像切替ボタンが操作された場合、制御部11は、入力欄15cを介して選択された撮影日のX線画像を患者DB12aから読み出し、読み出したX線画像の表示に切り替える処理を行う。歯周疾患検査ボタンが操作されたと判断した場合(S18:YES)、制御部11は、入力欄15bを介して選択された比較対象のX線画像のランドマーク情報を患者DB12aから読み出す(S19)。なお、比較対象のX線画像のランドマーク情報が患者DB12aに記憶されておらず、比較対象のX線画像のみが患者DB12aに記憶されている場合、制御部11は、比較対象のX線画像を患者DB12aから読み出し、読み出したX線画像に対してステップS14~S17の処理を行ってランドマーク情報を生成してもよい。これにより、制御部11(取得部)は、異なる撮影日に撮影した患者(対象者)の上下顎画像(時系列の上下顎画像)を取得することができる。
制御部11は、表示中のX線画像のランドマーク情報及び比較対象のランドマーク情報を取得した後、それぞれのランドマーク情報に対して6つの領域に分割する処理を行う(S20)。例えば図7Bに一点鎖線で示すように、上下それぞれの歯(歯槽)について、左右の犬歯部位を含み、左右の犬歯部位間の各歯槽のランドマークを含む領域、左の犬歯部位から左の第二大臼歯部位までの各歯槽のランドマークを含む領域、右の犬歯部位から右の第二大臼歯部位までの各歯槽のランドマークを含む領域に分割する。犬歯は、他の永久歯と比べて歯根が長いので残存している可能性が高く、犬歯の歯槽を含む各領域に分割することにより、各歯の歯槽を適切な領域に分割することができる。また、このような領域に分割されるランドマークに基づいて歯周疾患の進行状態を判定することにより、判定処理の信頼性の向上が期待できる。なお、ランドマークを分割する領域の数は6つに限定されない。例えば上下の歯をそれぞれ2つの領域に分割してもよく、4つの領域に分割してもよい。
制御部11は、表示中のX線画像のランドマークと、比較対象のX線画像のランドマークとにおいて、分割した領域毎に、領域に含まれるランドマークの類似度を算出する(S21)。例えば制御部11は、プロクラステス解析によって領域内のランドマーク間の類似度(プロクラステス距離)を算出する。プロクラステス解析では、2つの形状の類似度を算出する際に、一方の形状を拡大又は縮小、平行移動、あるいは回転させることによって、他方の形状との誤差の二乗和が最小となる形状に変形し、変形後の形状と他方の形状との誤差の二乗和を類似度(プロクラステス距離)として算出する。なお、プロクラステス距離(類似度)は、値が小さいほど類似していることを意味する。図8上側は比較対象のX線画像における各領域のランドマークを結んで生成した閉領域を示し、図8中央は検査対象(表示中)のX線画像における各領域のランドマークを結んで生成した閉領域を示す。図8下側は2つのX線画像における各領域の閉領域の比較結果を示しており、制御部11は、図8下側に示すように、比較対象のX線画像及び検査対象のX線画像において、各領域について、ランドマークによる閉領域間の類似度を算出する。なお、制御部11は、2つのX線画像における各領域のランドマークの類似度として、プロクラステス解析によるプロクラステス距離の代わりに、相関係数を算出する構成でもよい。また、制御部11は、機械学習によって構築された学習モデルを用いて、2つのX線画像における各領域のランドマークから、2つのランドマークの類似度を推定するように構成されていてもよい。例えばCNN(Convolution Neural Network)で構成され、各領域のランドマークがプロットされた画像が入力された場合に、各領域のランドマーク間の類似度を出力するように学習された学習モデルを用いてもよい。この場合、制御部11は、各領域のランドマークをプロットした画像を学習済みの学習モデルに入力し、学習モデルからの出力情報に基づいて、2つのランドマークの類似度を推定できる。
次に制御部11は、各領域について算出した類似度(プロクラステス距離)に基づいて、各領域の変化率を算出する(S22)。本実施形態では、制御部11は、プロクラステス距離を100倍することにより変化率を算出する。制御部11は、算出した各領域の変化率を記憶部12に記憶しておく。また制御部11は、ステップS21で算出した各領域の類似度の平均値(平均類似度)を算出し(S23)、算出した平均類似度に基づいて総合変化率を算出する(S24)。ここでも、制御部11は、平均類似度を100倍することにより総合変化率を算出する。
制御部11は、ステップS22で算出した各領域の変化率と、ステップS24で算出した総合変化率とに基づいて、歯周疾患の進行状態を判定する(S25)。例えば制御部11は、判定結果DB12bに記憶してある判定条件から、各領域の変化率及び総合変化率に合致する判定条件を特定し、特定した判定条件に対応する判定結果を判定結果DB12bから読み出す。なお、各領域の変化率及び総合変化率に合致する判定条件がない場合、各領域の変化率及び総合変化率に近い判定条件に対応する判定結果を特定してもよい。また制御部11は、ステップS22で算出した各領域の変化率と、ステップS24で算出した総合変化率と、ステップS25で判定した進行状態とに基づいて、アドバイスを特定する(S26)。例えば制御部11は、アドバイスDB12cに記憶してある提供条件から、各領域の変化率、総合変化率、又は判定結果(進行状態)に合致する提供条件を特定し、特定した提供条件に対応するアドバイスをアドバイスDB12cから読み出す。なお、各領域の変化率、総合変化率、又は判定結果に合致する提供条件がない場合、各領域の変化率、総合変化率、又は判定結果に近い提供条件に対応するアドバイスを特定してもよい。
制御部11は、各領域の変化率及び総合変化率、判定した進行状態及び特定したアドバイス等に基づいて、歯周疾患の検査結果を表示する結果画面の生成処理を行う(S27)。図6は結果画面例を示しており、制御部11は、図6に示すような結果画面を生成する。具体的には、図4に示す結果画面の生成処理において、制御部11は、検査対象のX線画像の撮影日、及び比較対象のX線画像の撮影日を特定する(S31)。例えば、制御部11は、図5Bに示す操作画面に表示された撮影日(検査対象のX線画像の撮影日)と、入力欄15bに入力された比較対象のX線画像の撮影日とを取得する。また制御部11は、ステップS20で分割した各領域のランドマーク情報を取得する(S32)。ここでは、制御部11は、比較対象の撮影日(第1時期)のX線画像における各領域のランドマーク情報と、検査対象の撮影日(第2時期)のX線画像における各領域のランドマーク情報とを取得する。また制御部11は、ステップS21で算出した各領域の類似度と、ステップS22で算出した各領域の変化率とを取得する(S33)。更に制御部11は、ステップS23で算出した平均類似度と、ステップS24で算出した総合変化率とを取得し(S34)、ステップS25で判定した進行状態(判定結果)と、ステップS26で特定したアドバイスとを取得する(S35)。
制御部11は、ステップS32で取得した各領域のランドマーク情報に基づいて、図8下側の比較結果に示すように、各領域のランドマークによる閉領域を重ね合わせる(S36)。即ち、制御部11は、各領域において、比較対象の撮影日(第1時期)のX線画像におけるランドマークによる閉領域と、検査対象の撮影日(第2時期)のX線画像におけるランドマークによる閉領域とを重畳させて、2つの閉領域を重ねた状態で表示する表示情報を生成する。そして、制御部11は、ステップS31,S34~S35で取得した各情報を表示し、ステップS36で重ね合わせた各領域のランドマークの閉領域に、ステップS33で取得した各領域の類似度及び変化率を対応付けて表示し、更に、歯科医師等のユーザが検査結果に対する所見を入力するための入力欄15eを有する結果画面を生成する(S37)。
これにより、図6に示すように、検査対象のX線画像の撮影日、比較対象のX線画像の撮影日、2つのX線画像において各領域のランドマークの比較結果(6つの領域のランドマークをそれぞれ重ねたもの、各領域の類似度及び変化率)、総合評価として平均類似度及び総合変化率、判定結果の進行状態、アドバイス、及び所見の入力欄15eを表示する結果画面が生成される。
制御部11は、結果画面に表示される各領域の比較結果に基づいて、ユーザにアラートを出すべき領域があるか否かを判断する(S38)。例えば、ランドマークの比較結果の類似度及び変化率が他の領域よりも大きい領域がある場合、制御部11は、当該領域(図6中では右下領域)を、ユーザにアラートを出すべき領域であると判断する。制御部11は、アラートを出すべき領域があると判断した場合(S38:YES)、当該領域をハイライトで表示する(S39)。このように、例えば変化率が大きく、歯周疾患が進行している可能性のある領域をハイライト表示することにより、ユーザに注意を促すべき領域に対するアラートを出力することができる。
アラートを出すべき領域がないと判断した場合(S38:NO)、制御部11は、ステップS39の処理をスキップして、図3の処理に戻る。そして、制御部11(出力部)は、生成した結果画面を表示部15に出力し、表示部15に表示する(S28)。これにより、図6に示すような結果画面が表示部15に表示され、検査結果がユーザに提示される。なお、結果画面は印刷ボタンを有しており、印刷ボタンが操作された場合、制御部11は、通信部13を介して通信可能なプリンタに結果画面のデータを送信し印刷を行うことができる。また結果画面は、表示の終了を指示するための閉じるボタンを有しており、閉じるボタンが操作された場合、制御部11は、結果画面の表示を終了する。このとき、制御部11は、結果画面に表示された検査結果及び入力欄15eに入力されたユーザの所見を検査結果の情報として、患者IDに対応付けて患者DB12aに格納しておく。これにより、情報処理装置10によって判定された検査結果(2つのX線画像の撮影日間における歯周疾患の進行状態、具体的には、各領域の類似度及び変化率)に加えて、ユーザによって入力された所見を検査結果の情報として患者DB12aに蓄積することができる。
上述した処理により、時系列で取得した2つのX線画像に基づいて、2つのX線画像の撮影日間における歯槽骨の吸収状態の変化(経年変化率)を特定し、経年変化率に基づいて歯周疾患の進行状態を判定し、判定した検査結果を提示することができる。よって、歯周疾患の進行状態が、歯槽骨の吸収状態の経年変化率という客観的な数値で判定されるので、歯周疾患検査における客観的な精度を向上させることができ、検査者による検査結果のバラツキが抑制できる。歯科医師又は歯科衛生士等の医療従事者は、患者の上下顎のレントゲン写真を撮影すればよいので、プロービング検査又はX線画像の読影を行う必要がなくなり、作業負担の軽減が可能となる。また、客観的な数値で歯周疾患の進行状態が表されるので、患者に対して歯周疾患の進行状態を明確に示すことができる。更に、治療方針を決定する際の指標が明確となるので、適切な治療方針の決定が可能となり、また、決定した治療方針に対する説得力が向上する。
本実施形態では、2つのX線画像の撮影日間における歯周疾患の進行状態を判定できるので、任意の2つの撮影日が指定されることにより、指定された撮影日間における進行状態を判定できる。よって、例えば第1撮影日~第10撮影日の10枚のX線画像を撮影した患者については、第1撮影日と、第2撮影日~第10撮影日のそれぞれとの間における進行状態を判断することにより、第1撮影日からの歯周疾患の進行状態を経時的に観察することができる。例えば図2Aに示すように患者DB12aに、各X線画像について、初回撮影日からの変化率が蓄積されている場合、変化率の推移を提示することができ、経時的な観察を行うことができる。図9は経時的な観察結果を示す説明図である。図9上側には、43歳から79歳までに10枚のX線画像を撮影した患者において、2回目以降のX線画像のそれぞれを、初回撮影時(43歳時点)のX線画像と比較した検査結果(類似度及び変化率)を示している。なお、初回のX線画像との変化率が患者DB12aに蓄積されている場合、制御部11は、初回撮影時のX線画像と比較した検査結果(初回との変化率)を患者DB12aから読み出すことができる。また、制御部11は、各X線画像の撮影日と、例えば患者DB12aに記憶してある患者の生年月日とに基づいて、各X線画像の撮影日における患者の年齢を算出する。各X線画像について、撮影日における年齢と、初回との変化率(又は類似度)とを算出した場合、制御部11は、図9下側に示すようなグラフを生成し、表示部15に表示することができる。図9下側のグラフは、横軸を年齢とし、縦軸を変化率(総合変化率)として、初回(43歳)からの経過年数に対応する変化率の推移を示している。このようなグラフによれば、歯周疾患の進行状態を判定するための変化率の変化を明確に提示することができ、例えば歯周疾患が悪化したタイミング等を容易に把握することができる。図9下側のグラフは、図6に示す結果画面に表示されてもよい。またこの場合、グラフに含まれる複数年における変化率の推移に応じたアドバイスを提示してもよい。例えば、徐々に悪化しているのか、若干悪化しているが問題ない状態であるのか、悪化していたが回復傾向にあるのか等のアドバイスを提示することができる。これらのアドバイスもアドバイスDB12cに登録しておくことにより、各提供条件に合致した場合にユーザに提示することができる。
本実施形態において、初回との比較を行うほかに、時系列の撮影日において直近の撮影日のX線画像との比較結果を経時的に観察した検査結果を提示することもできる。この場合、情報処理装置10の制御部11は、患者DB12aに蓄積されている各X線画像のランドマーク情報に基づいて、時系列に前後する撮影日のX線画像間の類似度又は変化率を算出し、それぞれ算出した類似度又は変化率の推移を示すグラフを生成してもよい。また、情報処理装置10において、制御部11は、患者DB12aに蓄積してある複数枚のX線画像を読み出して、撮影日時の順に順次表示部15に表示させることにより、複数のX線画像が時系列に切り替えて表示されるアニメーションを生成することができる。
本実施形態によれば、例えば1年に1回X線画像を撮影している場合、1年毎の進行状態を把握することができ、長期的な観察が可能となる。歯周疾患は徐々に進行する病気であり、進行状態を正確に診断するためには継続した観察が必要である。従って、本実施形態の情報処理装置10を用いることにより、経年変化率による客観的な評価(検査結果)を長期的に継続することが可能であり、長期的な進行状態を適切に診断することができる。このように長期的な観察を行うことにより、歯槽骨の吸収による歯牙脱落の可能性を評価及び予想することができ、将来の歯周疾患の進行状態を予測することが可能となる。
本実施形態では、図6の結果画面に示すように、総合評価のほかに、領域毎の評価(検査結果)を提示できる。よって、患者によっては、歯磨きが苦手な箇所等を把握することができ、歯磨き習慣を改善することが可能となる。
本実施形態において、上下顎画像は、少なくとも患者の顎骨の画像を2次元に展開したパノラマ画像であればよく、パノラマX線画像のほかに、MRI画像から生成された上下顎骨のパノラマ画像を用いてもよく、その他の撮影方法で撮影されたパノラマ画像を用いてもよい。また、2つの上下顎画像間におけるランドマークの類似度として、プロクラステス解析によるプロクラステス距離が算出される構成の代わりに、相関係数が算出される構成であってもよい。
本実施形態では、患者のX線画像から歯周疾患の進行状態を判定する処理を情報処理装置10がローカルで行う構成であるが、この構成に限定されない。例えば、X線画像から歯周疾患の進行状態を判定する処理を行うサーバを設けてもよい。この場合、情報処理装置10は、比較すべき複数(具体的には2つ)のX線画像又はX線画像から特定されたランドマーク情報(ランドマークの座標群)をサーバへ送信し、サーバで判定された判定結果を取得するように構成されていてもよい。なお、サーバは、情報処理装置10からX線画像を取得した場合、X線画像に対してランドマークの特定を行い、比較すべき複数のX線画像において、ランドマークに基づく比較処理を行い、比較結果である類似度又は変化率を判定結果として情報処理装置10へ送信する。このような構成とした場合であっても、本実施形態と同様の処理が可能であり、同様の効果が得られる。なお、上述したようにサーバを設ける場合、サーバは、複数台設けられて分散処理する構成でもよく、1台のサーバ内に設けられた複数の仮想マシンによって実現されてもよく、クラウドサーバを用いて実現されてもよい。
本実施形態では、各患者の上下顎骨を撮影する都度、X線画像が情報処理装置10に蓄積される。このように蓄積されたX線画像は、例えば身元確認用の情報として有効活用が可能である。よって、各医療機関に設置された情報処理装置10をインターネット等のネットワークで接続することにより、または、各医療機関で撮影されたX線画像を例えばクラウドサーバにアップロードして管理することにより、身元確認を行う際に、蓄積されたX線画像を用いることが可能となる。これにより、歯周疾患の治療においては複数のX線画像に基づいて進行状態を判定することができ、更に身元確認用情報の確保が可能となる。
(実施形態2)
患者(対象者)の上下顎画像(X線画像)に対して、学習モデルを用いて上下顎画像中のランドマークの位置を特定する情報処理装置について説明する。本実施形態の情報処理装置10は、実施形態1の情報処理装置10と同様の構成を有するので、同様の構成については説明を省略する。なお、本実施形態の情報処理装置10は、図1に示す構成に加えて、記憶部12に学習モデル12Mを記憶している。学習モデル12Mは、所定の訓練データを学習済みの機械学習モデルである。学習モデル12Mは、人工知能ソフトウェアを構成するプログラムモジュールとしての利用が想定される。なお、記憶部12には、学習モデル12Mを定義する情報として、学習モデル12Mが備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスの情報等が記憶される。本実施形態の情報処理装置10は、患者のX線画像に対して、歯槽頂及び歯槽底を含むランドマークを特定する際に学習モデル12Mを用いる。なお、本実施形態では、情報処理装置10が学習モデル12Mを記憶部12に記憶している構成であるが、学習モデル12Mは、情報処理装置10がアクセス可能な外部装置に記憶される構成でもよい。
患者(対象者)の上下顎画像(X線画像)に対して、学習モデルを用いて上下顎画像中のランドマークの位置を特定する情報処理装置について説明する。本実施形態の情報処理装置10は、実施形態1の情報処理装置10と同様の構成を有するので、同様の構成については説明を省略する。なお、本実施形態の情報処理装置10は、図1に示す構成に加えて、記憶部12に学習モデル12Mを記憶している。学習モデル12Mは、所定の訓練データを学習済みの機械学習モデルである。学習モデル12Mは、人工知能ソフトウェアを構成するプログラムモジュールとしての利用が想定される。なお、記憶部12には、学習モデル12Mを定義する情報として、学習モデル12Mが備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスの情報等が記憶される。本実施形態の情報処理装置10は、患者のX線画像に対して、歯槽頂及び歯槽底を含むランドマークを特定する際に学習モデル12Mを用いる。なお、本実施形態では、情報処理装置10が学習モデル12Mを記憶部12に記憶している構成であるが、学習モデル12Mは、情報処理装置10がアクセス可能な外部装置に記憶される構成でもよい。
図10は学習モデル12Mの構成例を示す模式図である。学習モデル12Mは、X線画像に含まれる特定のオブジェクト(本実施形態では各歯の歯槽の歯槽頂及び歯槽底によるランドマーク)を検出するための学習モデルである。学習モデル12Mは、例えばセマンティックセグメンテーション技術により、画像中のオブジェクトを画素単位で分類することができるモデルである。学習モデル12Mは、患者の上下顎骨を撮影したX線画像を入力とし、入力されたX線画像に含まれるランドマークを検出し、検出したランドマークの位置に関する情報を出力するモデルである。具体的には、学習モデル12Mは、入力されたX線画像の各画素をランドマークの領域、及びその他の領域にそれぞれ分類し、各画素に領域毎のラベルを対応付けた分類済みのX線画像(以下ではラベル画像という)を出力する。本実施形態においても実施形態1と同様に、X線画像にはパノラマX線画像を用い、ランドマークには各歯の歯槽における遠心側の歯槽頂及び歯槽底を用いる。
学習モデル12Mは、例えばU-Net、FCN(Fully Convolutional Network )、SegNet等で構成することができる。なお、学習モデル12Mは、R-CNN(Regions with CNN)、Fast R-CNN、SSD(Single Shot Multibook Detector)、Mask R-CNN、YOLO(You Only Look Once)等で構成されてもよく、複数のアルゴリズムを組み合わせて構成されてもよい。情報処理装置10は、所定の訓練データを学習する機械学習を行って学習モデル12Mを事前に生成しておく。そして情報処理装置10は、患者のX線画像を学習モデル12Mに入力し、学習モデル12Mからの出力情報に基づいて、X線画像中のランドマークの位置を特定する。
学習モデル12Mは、入力層、中間層、及び出力層を有する。入力層には、処理対象のX線画像が入力される。中間層は、畳み込み層及びプーリング層と、逆畳み込み層とを有する。畳み込み層は、入力層を介して入力された画像の画素情報から画像の特徴量を抽出して特徴量マップを生成し、プーリング層は、生成された特徴量マップを圧縮する。逆畳み込み層は、畳み込み層及びプーリング層によって生成された特徴量マップを元の画像サイズに拡大(マッピング)する。なお、逆畳み込み層は、畳み込み層で抽出された特徴量に基づいて画像内にどのオブジェクトがどの位置に存在するかを画素単位で識別し、各画素がどのオブジェクトに対応するかを示したラベル画像を生成する。図10右側に示すように、学習モデル12Mから出力されるラベル画像は、X線画像の各画素が、ランドマークの画素(ランドマークの領域)と、その他の領域とに分類され、各領域に応じた画素値が割り当てられた画像となる。図10では、ランドマークの領域に分類された画素を黒丸で示している。このような構成により、中間層は、入力されたX線画像に含まれるオブジェクト(ここではランドマーク)を検出するための演算及びX線画像から抽出される特徴量に基づきオブジェクトを識別するための演算等を実行する。出力層は、中間層の演算結果を基にオブジェクトの検出結果を出力する。よって、学習モデル12Mは、入力層へのX線画像の入力に応じて、中間層にて演算を行い、ランドマークとして検出された画素の位置情報(例えばX線画像中の座標値)を出力層から出力するように構成される。なお、学習モデル12Mは、それぞれ検出したランドマークに対して、ランドマークと判断すべき判別確率を対応付けて出力する構成でもよい。
学習モデル12Mは、訓練用のX線画像と、このX線画像に対して判別すべきランドマークを示すデータがラベリングされたラベル画像とを含む訓練データを用意し、この訓練データを用いて未学習の学習モデルを機械学習させることにより生成することができる。なお、訓練用のラベル画像では、訓練用のX線画像に対して、ランドマークに判別すべき画素の座標値(ランドマークの座標群)が付与されている。学習モデル12Mは、訓練データに含まれるX線画像が入力された場合に、訓練データに含まれるラベル画像を出力するように学習する。具体的には、学習モデル12Mは、入力されたX線画像に基づいて中間層での演算を行い、X線画像中のランドマークを検出した検出結果を取得する。より具体的には、学習モデル12Mは、X線画像中の各画素に対して、分類されたオブジェクトの種類(ランドマーク又はそれ以外)を示す値がラベリングされたラベル画像を出力として取得する。そして学習モデル12Mは、取得した検出結果(ラベル画像)を、訓練データが示す正解のランドマークの座標値と比較し、両者が近似するように、ノード間の重み係数及びバイアス等のパラメータを最適化する。パラメータの最適化の方法は特に限定されないが、最急降下法、誤差逆伝播法等を用いることができる。これにより、X線画像が入力された場合に、X線画像中のランドマークを示すラベル画像を出力する学習モデル12Mが得られる。
学習モデル12Mの学習は他の学習装置で行われてもよい。他の学習装置で学習が行われて生成された学習済みの学習モデル12Mは、例えばネットワーク経由又は可搬型記憶媒体10a経由で学習装置から情報処理装置10にダウンロードされて記憶部12に記憶される。
以下に、訓練データを学習して学習モデル12Mを生成する処理について説明する。図11は学習モデル12Mの生成処理手順の一例を示すフローチャート、図12は画面例を示す模式図である。以下の処理は、情報処理装置10の制御部11が、記憶部12に記憶してある制御プログラム12Pに従って行うが、他の学習装置で行われてもよい。以下の処理では、制御部11はまず、学習に用いる訓練データを生成し、生成した訓練データを用いて学習処理を行う。
情報処理装置10の制御部11は、訓練用のX線画像を取得して表示部15に表示する(S51)。訓練用のX線画像は、患者DB12aに蓄積してあるX線画像を用いることができる。制御部11は、例えば図12Aに示すような操作画面によってX線画像を表示する。次に制御部11は、表示中のX線画像に対して、ランドマークの位置の指定を受け付ける(S52)。制御部11は、図12Aに示すように、表示中のX線画像上にカーソル15dを表示し、カーソル15dを介してダブルクリック等の操作によってランドマークの位置の指定を受け付ける。制御部11は、指定されたランドマークの位置が不適切な位置であるか否かを判断する(S53)。不適切な位置は、例えば人工歯槽(インプラント等)、第三大臼歯(親知らず)の歯槽、部位が不明な歯槽における歯槽頂及び歯槽底とすることができる。インプラントは人工歯根がX線画像に写るため、制御部11は、ランドマークが指定された位置の近傍(歯槽に相当する位置)に人工歯根が写っているか否かを判断し、写っている場合、インプラントと判断し、当該ランドマークは不適切な位置であると判断する。なお、例えば人工歯根の画像を予め記憶部12に記憶しておき、制御部11は、パターンマッチングによってX線画像中に人工歯根があるか否かを判断できる。また例えば第三大臼歯(親知らず)の画像を予め記憶部12に記憶しておき、制御部11は、パターンマッチングによって、ランドマークが指定された位置の近傍(歯槽に相当する位置)に第三大臼歯があるか否かを判断し、第三大臼歯がある場合、当該ランドマークは不適切な位置であると判断する。また、制御部11は、歯の配置位置に基づいて、X線画像中の各歯が中切歯、側切歯、犬歯、第1~第2小臼歯、第1~第3大臼歯のいずれであるかを特定し、ランドマークが指定された位置に対応する歯の種類を特定し、特定した種類が第三大臼歯である場合、当該ランドマークは不適切な位置であると判断してもよい。また、ランドマークが指定された位置に対応する歯の種類を特定できない場合、部位が不明な歯槽として、当該ランドマークは不適切な位置であると判断してもよい。なお、不適切な位置は上述した位置に限定されず、不適切な位置であるか否かの判断は上述した処理に限定されない。
指定されたランドマークの位置が不適切な位置でないと判断した場合(S53:NO)、制御部11は、指定されたランドマークを表示中のX線画像上にプロットする(S54)。指定されたランドマークの位置が不適切な位置であると判断した場合(S53:YES)、制御部11は、アラートを出力する(S55)。例えば制御部11は、図12Bに示すような警告画面を表示部15に表示してユーザに警告する。図12Bに示す警告画面には、ランドマークは天然歯槽の歯槽頂及び歯槽底に設定することと、ランドマークを設定できない歯槽の情報とが表示されている。
制御部11は、操作画面中の設定ボタンが操作されたか否かを判断しており(S56)、操作されていないと判断した場合(S56:NO)、ステップS52の処理に戻り、ランドマークの受付、受け付けたランドマークが不適切な位置であるか否かの判断を繰り返す。設定ボタンが操作されたと判断した場合(S56:YES)、制御部11は、受け付けた各ランドマークの座標値を取得する(S57)。制御部11は、表示中のX線画像に対して、取得した各ランドマークの座標値に対応する画素に、ランドマークを示すデータをラベリングしてラベル画像を生成する(S58)。そして、制御部11は、表示中のX線画像と、生成したラベル画像とを対応付けて訓練データとして記憶部12に記憶する(S59)。なお、制御部11は、生成した訓練データを、記憶部12に用意された訓練データDBに登録しておく。
制御部11は、未処理のX線画像があるか否かを判断する(S60)。例えば制御部11は、患者DB12aに蓄積してあるX線画像において、未処理のX線画像があるか否かを判断する。未処理のX線画像があると判断した場合(S60:YES)、制御部11はステップS51の処理に戻り、訓練データの生成が未処理のX線画像を取得して、ステップS51~S59の処理を行う。
未処理のX線画像がないと判断した場合(S60:NO)、制御部11は、ステップS61の処理に移行し、訓練データDBに蓄積した訓練データを用いた学習処理を実行する。具体的には、制御部11は、訓練データDBから訓練データを取得する(S61)。そして、制御部11は、取得した訓練データを用いて学習モデル12Mの学習処理を行う(S62)。ここでは、制御部11は、訓練データに含まれるX線画像を学習モデル12Mに入力し、X線画像に基づいて検出されたランドマークを示す値がラベリングされたラベル画像を学習モデル12Mからの出力情報として取得する。制御部11は、出力されたラベル画像を、訓練データに含まれるラベル画像(正解のラベル画像)と比較し、両者が近似するように、中間層での演算処理に用いるパラメータを最適化する。具体的には、制御部11は、中間層におけるノード間の重み係数及びバイアス等のパラメータを、学習モデル12Mの出力層から入力層に向かって順次更新する誤差逆伝播法を用いて最適化する。
制御部11は、訓練データDBに記憶してある訓練データにおいて、未処理の訓練データがあるか否かを判断する(S63)。未処理の訓練データがあると判断した場合(S63:YES)、制御部11はステップS61の処理に戻り、学習処理が未処理の訓練データに基づいて、ステップS61~S62の処理を行う。未処理の訓練データがないと判断した場合(S63:NO)、制御部11は一連の処理を終了する。
上述した処理により、X線画像を入力することによって、X線画像中のランドマークを示すラベル画像を出力する学習モデル12Mが得られる。なお、上述したような訓練データを用いた学習処理を繰り返し行うことにより、学習モデル12Mを更に最適化することができる。また、既に学習済みの学習モデル12Mについても、上述した処理を行うことによって再学習させることができ、この場合、判別精度がより高い学習モデル12Mが得られる。
本実施形態の情報処理装置10は、X線画像に基づいて歯周疾患の進行状態を判定する際に、学習モデル12Mを用いてX線画像中のランドマークを特定する。よって、情報処理装置10は、学習モデル12Mを用いて特定されたX線画像中のランドマークに基づいて、歯周疾患の進行状態の判定処理を行うことができる。
図13は実施形態2における歯周疾患の進行状態の判定処理手順の一例を示すフローチャート、図14は画面例を示す模式図である。図13に示す処理は、図3に示す処理において、ステップS14の代わりにステップS71~S73を追加し、ステップS17,S18の間にステップS74~S75を追加したものである。図3と同じステップについては説明を省略する。本実施形態の情報処理装置10では、制御部11は、図3に示すステップS11~S13の処理を行う。そして、ランドマーク設定ボタンが操作されたと判断した場合(S13:YES)、制御部11は、学習モデル12Mを用いて、操作画面に表示中のX線画像に対してランドマークを特定する(S71)。ここでは、制御部11は、X線画像を学習モデル12Mに入力し、学習モデル12Mからの出力情報に基づいて、X線画像中のランドマークの位置を特定する。X線画像中のランドマークの位置を特定した場合、制御部11は、図14に示すように、表示中のX線画像上に、特定したランドマークをプロットして表示する(S72)。
図14に示す操作画面では、表示中のX線画像上にカーソル15dが表示されており、ユーザは、カーソル15dによるドラッグ操作を行うことにより、X線画像上にプロットされた任意のランドマークの位置を変更(修正)することができる。制御部11は、入力部14を介したカーソル15dのドラッグ操作に従って、X線画像中のランドマークの位置の修正指示を受け付ける(S73)。制御部11は、ランドマークの位置の修正指示を受け付けた場合、修正後(移動後)のランドマークをX線画像上に表示する。図14に示す操作画面では、下の歯の左側の側切歯、犬歯、第一小臼歯の歯槽における歯槽底によるランドマークの位置が適切ではなく、ユーザは、ドラッグ操作によって、これらのランドマークの位置を適切な位置に修正する。
制御部11は、操作画面中の設定ボタンが操作されたか否かを判断し(S15)、操作されていないと判断した場合(S15:NO)、ステップS73の処理に戻り、X線画像中のランドマークに対する修正指示の受付を継続する。設定ボタンが操作されたと判断した場合(S15:YES)、制御部11は、ステップS16以降の処理を実行する。また制御部11は、ステップS17の処理後、ステップS11で取得したX線画像に対して、ステップS16で取得した各ランドマークの座標値に対応する画素に、ランドマークを示すデータをラベリングしてラベル画像を生成する(S74)。そして、制御部11は、ステップS11で取得したX線画像と、生成したラベル画像とを対応付けて訓練データとして記憶部12に記憶する(S75)。ここで生成した訓練データは、例えば学習モデル12Mの再学習に使用できるものであり、制御部11は、生成した訓練データを、記憶部12に用意した再学習用の訓練データDBに登録しておく。
その後、制御部11は、ステップS18以降の処理を行い、操作画面中の歯周疾患検査ボタンが操作された場合、比較対象のX線画像及び検査対象のX線画像に設定されたランドマークに基づく歯周疾患検査を実行し、検査結果を提示する。なお、制御部11は、ステップS75で再学習用の訓練データDBに訓練データを登録することにより、再学習用の訓練データを収集することができ、所定のタイミングで又は所定量の訓練データが蓄積された後に、この訓練データを用いて学習モデル12Mの再学習を行う。具体的には、制御部11は、図11中のステップS61~S63の処理を実行する。これにより、患者の歯周疾患検査を行う際に蓄積される訓練データを用いて学習モデル12Mを再学習させることができるので、より精度が高い学習モデル12Mを実現することができる。
本実施形態では、上述した実施形態1と同様の処理が可能であるので、同様の効果が得られる。また本実施形態では、学習モデル12Mを用いてX線画像中のランドマークが特定されるので、歯科医師及び歯科衛生士等のユーザがランドマークを設定する際の作業負担が軽減される。また、学習モデル12Mを用いて特定されたランドマークに対してユーザが位置の修正を行うことができるので、適切に修正されたランドマークに基づいて歯周疾患の進行状態を適切に判定することが可能である。
本実施形態では、学習モデル12Mを用いて患者のX線画像からランドマークを特定する処理を情報処理装置10がローカルで行う構成であるが、この構成に限定されない。例えば、学習モデル12Mを用いたランドマークの特定処理を行うサーバを設けてもよい。この場合、情報処理装置10は、患者のX線画像をサーバへ送信し、サーバで特定されたランドマーク情報(ランドマークの座標群)を取得するように構成されていてもよい。このような構成とした場合であっても、本実施形態と同様の処理が可能であり、同様の効果が得られる。なお、上述したようにサーバを設ける場合、サーバは、複数台設けられて分散処理する構成でもよく、1台のサーバ内に設けられた複数の仮想マシンによって実現されてもよく、クラウドサーバを用いて実現されてもよい。
上述した各実施形態において、X線画像中のランドマークに基づく歯周疾患の進行状態の判定結果に基づいて歯科医師が診断を行う医療行為(歯周疾患検査)に対して、保険点数が設定されている場合、情報処理装置10は、例えば図3のステップS28の処理後、当該歯周疾患検査に対する保険点数を、患者IDに対応付けて患者DB12aに記憶しておく。これにより、歯科医師が電子カルテに各種の情報を入力する際に、X線画像中のランドマークに基づく歯周疾患検査の実行実績及び保険点数を患者DB12aから読み出して使用することができ、歯科医師の作業負担を軽減できる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
10 情報処理装置
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
12M 学習モデル
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
12M 学習モデル
Claims (14)
- 対象者の上下顎画像を時系列で取得し、
取得した上下顎画像のそれぞれに対して、歯槽頂及び歯槽底を含む複数のランドマークの座標群を特定し、
前記上下顎画像のそれぞれに対して特定した前記ランドマークの座標群に基づいて、歯周疾患の進行に関する情報を出力する
処理をコンピュータに実行させるプログラム。 - 前記上下顎画像のそれぞれに対して、前記ランドマークの座標群を複数領域に分割し、
前記領域毎に、複数の上下顎画像間の類似度をプロクラステス解析により算出し、
前記領域毎に算出した類似度に基づいて平均類似度を算出し、
算出した平均類似度に基づいて歯周疾患の進行状態を特定する
処理を前記コンピュータに実行させる請求項1に記載のプログラム。 - 前記上下顎画像のそれぞれに対して、前記ランドマークの座標群を複数領域に分割し、
前記領域毎に、複数の上下顎画像間の類似度をプロクラステス解析により算出し、
前記領域毎に算出した類似度に基づいて、領域毎に歯周疾患の進行状態を特定する
処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。 - 前記領域毎に特定した歯周疾患の進行状態を、それぞれの進行状態に応じた態様で出力する
処理を前記コンピュータに実行させる請求項3に記載のプログラム。 - 前記領域毎に、異なる2つの撮影時期に撮影した上下顎画像におけるランドマークを重畳して表示する表示情報を生成し、
生成した表示情報を出力する
処理を前記コンピュータに実行させる請求項2から4までのいずれかひとつに記載のプログラム。 - 前記ランドマークの座標群を、上顎及び下顎のそれぞれについて、左右の犬歯部位を含み左右の犬歯部位間の領域と、左の犬歯部位から左の第二大臼歯部位までの領域と、右の犬歯部位から右の第二大臼歯部位までの領域とに分割する
請求項2から5までのいずれかひとつに記載のプログラム。 - 取得した前記上下顎画像のそれぞれの撮影時期から2つの撮影時期の選択を受け付け、
選択を受け付けた2つの撮影時期の上下顎画像に基づいて、前記2つの撮影時期間における歯周疾患の進行に関する情報を出力する
処理を前記コンピュータに実行させる請求項1から6までのいずれかひとつに記載のプログラム。 - 出力した歯周疾患の進行に関する情報に対する所見を受け付ける
処理を前記コンピュータに実行させる請求項1から7までのいずれかひとつに記載のプログラム。 - 上下顎画像が入力された場合に前記上下顎画像中の歯槽頂及び歯槽底を含む複数のランドマークの座標群を出力するように学習された学習モデルに、取得した前記上下顎画像を入力し、前記上下顎画像中の前記複数のランドマークの座標群を特定する
請求項1から8までのいずれかひとつに記載のプログラム。 - 特定した前記複数のランドマークの座標群に対する修正指示を受け付け、
修正指示を受け付けたランドマークの座標を修正する
処理を前記コンピュータに実行させる請求項9に記載のプログラム。 - 対象者の上下顎画像を時系列で取得する取得部と、
取得した上下顎画像のそれぞれに対して、歯槽頂及び歯槽底を含む複数のランドマークの座標群を特定する特定部と、
前記上下顎画像のそれぞれに対して特定した前記ランドマークの座標群に基づいて、歯周疾患の進行に関する情報を出力する出力部と
を備える情報処理装置。 - 対象者の上下顎画像を時系列で取得し、
取得した上下顎画像のそれぞれに対して、歯槽頂及び歯槽底を含む複数のランドマークの座標群を特定し、
前記上下顎画像のそれぞれに対して特定した前記ランドマークの座標群に基づいて、歯周疾患の進行に関する情報を出力する
処理をコンピュータが実行する情報処理方法。 - 対象者の上下顎画像と、前記上下顎画像中の歯槽頂及び歯槽底を含む複数のランドマークの座標群とを含む訓練データを取得し、
取得した訓練データを用いて、上下顎画像が入力された場合に前記上下顎画像中の歯槽頂及び歯槽底を含む複数のランドマークの座標群を出力する学習モデルを生成する
処理をコンピュータが実行する学習モデルの生成方法。 - 前記対象者の上下顎画像と、前記上下顎画像中の天然歯槽の歯槽頂及び歯槽底を含む複数のランドマークの座標群とを含む訓練データを取得する
請求項13に記載の学習モデルの生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021074213A JP2022168622A (ja) | 2021-04-26 | 2021-04-26 | プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021074213A JP2022168622A (ja) | 2021-04-26 | 2021-04-26 | プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022168622A true JP2022168622A (ja) | 2022-11-08 |
Family
ID=83933619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021074213A Pending JP2022168622A (ja) | 2021-04-26 | 2021-04-26 | プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022168622A (ja) |
-
2021
- 2021-04-26 JP JP2021074213A patent/JP2022168622A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10984529B2 (en) | Systems and methods for automated medical image annotation | |
US11676701B2 (en) | Systems and methods for automated medical image analysis | |
US11553874B2 (en) | Dental image feature detection | |
US11389131B2 (en) | Systems and methods for processing of dental images | |
Agrawal et al. | Artificial intelligence in dentistry: past, present, and future | |
US9788917B2 (en) | Methods and systems for employing artificial intelligence in automated orthodontic diagnosis and treatment planning | |
US20160038092A1 (en) | Applying non-real time and non-user attended algorithms to stored non-imaging data and existing imaging data for obtaining a dental diagnosis | |
AU2020342539A1 (en) | Automated medical image annotation and analysis | |
US11189028B1 (en) | AI platform for pixel spacing, distance, and volumetric predictions from dental images | |
US20210118132A1 (en) | Artificial Intelligence System For Orthodontic Measurement, Treatment Planning, And Risk Assessment | |
US20200100724A1 (en) | Applying non-real time and non-user attended algorithms to stored non-imaging data and existing imaging data for obtaining a dental diagnosis | |
US20210357688A1 (en) | Artificial Intelligence System For Automated Extraction And Processing Of Dental Claim Forms | |
US20210134440A1 (en) | Dental image analysis and treatment planning using an artificial intelligence engine | |
KR102462185B1 (ko) | 딥러닝 인공지능 알고리즘을 이용한 치열 교정에 대한 정보 제공 방법 및 이를 이용한 디바이스 | |
US20210358604A1 (en) | Interface For Generating Workflows Operating On Processing Dental Information From Artificial Intelligence | |
Choi et al. | Possibilities of artificial intelligence use in orthodontic diagnosis and treatment planning: Image recognition and three-dimensional VTO | |
KR102392312B1 (ko) | 치과 의무 기록 장치 및 그 치과 의무 기록 방법 | |
JP2022168622A (ja) | プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法 | |
Bodhe et al. | Design and Development of Deep Learning Approach for Dental Implant Planning | |
US20230039451A1 (en) | Dental medical record device and dental medical record method thereof | |
Sornam | Artificial Intelligence in Orthodontics-An exposition | |
KR102496565B1 (ko) | Cbct를 포함한 구강 영상의 원격 판독에 기반한 구강 건강 분석 서비스 제공 장치 및 방법 | |
US20240029901A1 (en) | Systems and Methods to generate a personalized medical summary (PMS) from a practitioner-patient conversation. | |
US20220351813A1 (en) | Method and apparatus for training automatic tooth charting systems | |
US20240136036A1 (en) | Method and system for providing medical service for clinical diagnosis and prescription |