JP2022073148A - コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法 - Google Patents

コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法 Download PDF

Info

Publication number
JP2022073148A
JP2022073148A JP2020182948A JP2020182948A JP2022073148A JP 2022073148 A JP2022073148 A JP 2022073148A JP 2020182948 A JP2020182948 A JP 2020182948A JP 2020182948 A JP2020182948 A JP 2020182948A JP 2022073148 A JP2022073148 A JP 2022073148A
Authority
JP
Japan
Prior art keywords
periodontal
image
learning model
region
intraoral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020182948A
Other languages
English (en)
Inventor
陽一郎 柏木
Yoichiro Kashiwagi
雄介 森山
Yusuke Moriyama
由貴 生川
Yuki Ubukawa
天鎬 李
Chonho LEE
進 伊達
Susumu Date
一徳 野▲崎▼
Kazunori Nozaki
伸也 村上
Shinya Murakami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2020182948A priority Critical patent/JP2022073148A/ja
Publication of JP2022073148A publication Critical patent/JP2022073148A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

【課題】コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法の提供。【解決手段】コンピュータに、ユーザの口腔内を撮像して得られる口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成し、歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、ユーザの口腔内画像から生成した歯周領域画像を入力することにより、ユーザの口腔内における歯周病の有無を推定し、推定結果に応じた情報を出力する処理を実行させる。【選択図】図9

Description

特許法第30条第2項適用申請有り 令和 1年12月 5日に、6th Annual Conf.on Computational Science & Computational Intelligence(CSCI’19),Symposium on Health Informatics and Medical Systems(CSCI-ISHI)+Symposium on Signal and Image Processing,Computer Vision and Pattern Recognition(CSCI-ISPC)にて公開 令和 1年12月16日に、ソーシャル・スマートデンタルホスピタル シンポジウム(第3回)にて公開 令和 2年 1月22日に、Hello!Doctorのウェブサイトにて公開(https://www.hellodoctor.jp/2020/01/22/画像認証/) 令和 2年 4月20日に、Proceedings of the 2019 International Conference on Computational Science&Computational Intelligence(CSCI),924頁-929頁が掲載されたIEEE Xploreのウェブサイトにて公開(https://ieeexplore.ieee.org/document/9071307)(https://ieeexplore.ieee.org/xpl/conhome/9052554/proceeding?pageNumber=8)
本発明は、コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法に関する。
口腔内を撮像して得られる口腔内画像に基づき、齲蝕などの疾患を診断することが行われている。疾患の診断は、例えば、医師による画像の目視及び画像解析等により行われる。例えば、特許文献1には、口腔内画像に基づいて、歯の表面を画像分析することにより、虫歯の有無を検出する技術が開示されている。
特表2014-509908号公報
特許文献1に開示された技術は、歯の表面の色や形状を分析することによって虫歯の有無を検出するものであり、歯周病の有無を推定するための技術に転用することはできない。
本発明は、歯周病の有無を推定できるコンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法を提供することを目的とする。
本発明の一態様に係るコンピュータプログラムは、コンピュータに、ユーザの口腔内を撮像して得られる口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成し、歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、前記ユーザの口腔内画像から生成した歯周領域画像を入力することにより、前記ユーザの口腔内における歯周病の有無を推定し、推定結果に応じた情報を出力する処理を実行させる。
本発明の一態様に係る学習モデルの生成方法は、コンピュータを用いて、患者の口腔内画像から個々の歯を認識し、認識した歯のうち特定の歯の歯周領域を前記口腔内画像から抽出して歯周領域画像を生成し、生成した歯周領域画像と、前記患者が歯周病に罹患しているか否かを示す正解データとを含む訓練データを取得し、取得した訓練データのセットに基づき、歯周領域画像を入力した場合、歯周病の有無に係る情報を出力する学習モデルを生成する。
本発明の一態様に係る情報出力装置は、ユーザの口腔内を撮像して得られる口腔内画像を取得する取得部と、取得した口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成する生成部と、歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、前記生成部が生成した歯周領域画像を入力することにより、前記ユーザの口腔内における歯周病の有無を推定する推定部と、推定結果に応じた情報を出力する出力部とを備える。
本発明の一態様に係る情報出力方法は、コンピュータを用いて、ユーザの口腔内を撮像して得られる口腔内画像を取得し、取得した口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成し、歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、前記ユーザの口腔内画像から生成した歯周領域画像を入力することにより、前記ユーザの口腔内における歯周病の有無を推定し、推定結果に応じた情報を出力する。
本願によれば、歯周病の有無を推定できる。
実施の形態1に係る情報出力装置の構成を説明するブロック図である。 学習モデルの構成例を示す模式図である。 口腔内画像群より選別される正面画像及び上顎噛合面画像の一例を示す模式図である。 学習モデルの構成例を示す模式図である。 オブジェクトの検出例を示す模式図である。 歯周領域の抽出手法を説明する説明図である。 学習モデルの構成例を示す模式図である。 学習モデルの変形例を示す模式図である。 情報処理装置が実行する処理の手順を説明するフローチャートである。 推定結果の表示例を示す模式図である。 サーバ装置の構成を説明するブロック図である。 サーバ装置が備える口腔内画像データベースの構成例を示す概念図である。 学習モデルの生成手順を説明するフローチャートである。 実施の形態2における歯周領域の抽出手法を説明する説明図である。 実施の形態3における学習モデルの構成例を示す模式図である。 実施の形態4における学習モデルの構成例を示す模式図である。 推定結果の表示例を示す模式図である。
以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
(実施の形態1)
図1は実施の形態1に係る情報処理装置の構成を説明するブロック図である。情報処理装置1は、例えば、ユーザによって使用される端末装置であり、スマートフォン、タブレット端末、パーソナルコンピュータなどを含む。代替的に、情報処理装置1は、医療機関(歯科)に設置されるコンピュータであってもよい。情報処理装置1は、制御部11、記憶部12、撮像部13、通信部14、操作部15、表示部16などを備えており、ユーザの口腔内を撮像して得られる口腔内画像から歯周領域画像を生成し、生成した歯周領域画像を学習モデルMD20へ入力することによって歯周病の有無を推定し、推定結果に応じた情報を出力する。
情報処理装置1が備える制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備える。制御部11が備えるROMには、情報処理装置1が備えるハードウェア各部の動作を制御する制御プログラム等が記憶される。制御部11内のCPUは、ROMに記憶されている制御プログラムや記憶部12に記憶されている各種コンピュータプログラムを読み込んで実行し、ハードウェア各部の動作を制御することによって、装置全体を本発明に係る情報出力装置として機能させる。制御部11が備えるRAMには、演算の実行中に利用されるデータが一時的に記憶される。
実施の形態1において、制御部11は、CPU、ROM、及びRAMを備える構成としたが、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、量子プロセッサ、揮発性又は不揮発性のメモリ等を備える1又は複数の演算回路であってもよい。また、制御部11は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部12は、EEPROM(Electronically Erasable Programmable Read Only Memory)、SSD(Solid State Drive)、HDD(Hard Disk Drive)などのストレージを備える。記憶部12には、制御部11によって実行される各種のコンピュータプログラムや制御部11によって利用される各種のデータが記憶される。
記憶部12に記憶されるコンピュータプログラムには、ユーザの口腔内画像に基づき、歯周病の有無を推定する処理をコンピュータに実行させるための推定処理プログラムPG1が含まれる。推定処理プログラムPG1は、単一のコンピュータプログラムであってもよく、複数のコンピュータプログラムにより構成されるものであってもよい。また、推定処理プログラムPG1は、既存のライブラリを部分的に用いるものであってもよい。
記憶部12に記憶されるコンピュータプログラムは、このコンピュータプログラムを読み取り可能に記録した非一時的な記録媒体M1により提供される。記録媒体M1は、例えば、CD-ROM、USBメモリ、SD(Secure Digital)カード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。制御部11は、図に示していない読取装置を用いて、記録媒体M1から各種コンピュータプログラムを読み取り、読み取った各種コンピュータプログラムを記憶部12に記憶させる。また、記憶部12に記憶されるコンピュータプログラムは、通信部14を介した通信により提供されてもよい。この場合、制御部11は、通信部14を通じてコンピュータプログラムを取得し、取得したコンピュータプログラムを記憶部12に記憶させればよい。
また、記憶部12は、学習モデルMD10,MD20,MD30を備える。学習モデルMD10は、口腔内画像の選別に用いられる学習モデルである。学習モデルMD10は、口腔内画像の入力に応じて、当該口腔内画像が撮像された撮像方向に関する情報を出力するように学習された学習済みの学習モデルである。記憶部12には、学習モデルMD10を定義する情報として、学習モデルMD10が備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスの情報などが記憶される。学習モデルMD10の詳細については後に詳述することとする。
学習モデルMD20は、画像内に含まれる特定のオブジェクト(歯)を検出するための学習モデルである。本実施の形態において、学習モデルMD20は、口腔内画像の入力に応じてオブジェクトの検出結果を出力するように学習された学習済みの学習モデルである。記憶部12には、学習モデルMD20を定義する情報として、学習モデルMD20が備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスの情報などが記憶される。学習モデルMD20の詳細については後に詳述することとする。
学習モデルMD30は、歯周病の有無を推定するための学習モデルである。本実施の形態において、学習モデルMD30は、歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するように学習される。ここで、歯周領域画像は、歯の少なくとも一部の領域と、歯を支える歯周組織の少なくとも一部の領域とを含む領域の画像である。本実施の形態では、学習モデルMD20を用いて検出されるオブジェクトに基づき、歯周領域画像が生成される。記憶部12には、学習モデルMD30を定義する情報として、学習モデルMD30が備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスの情報などが記憶される。学習モデルMD30の詳細については後に詳述することとする。
撮像部13は、撮像素子やドライバ回路などを備える。撮像素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)などにより構成される。ドライバ回路は、タイミングジェネレータ(TG)やアナログ処理回路(AFE)などを備える。ドライバ回路は、TGから出力されるクロック信号に同期して撮像素子から出力されるRGB各色の信号を取り込み、ノイズ除去、増幅、AD変換などの必要な処理をAFEにて施すことにより、デジタル形式の画像を生成する。ドライバ回路が生成する画像は、静止画であってもよく、動画であってもよい。以下では、静止画及び動画を区別することなく、単に画像と記載する。撮像部13は、撮像対象を撮像することにより得られる画像を制御部11へ出力する。本実施の形態において、撮像対象はユーザの口腔内である。すなわち、撮像部13は、ユーザの口腔内を撮像して得られる口腔内画像を制御部11へ出力する。
通信部14は、各種データを送受信する通信インタフェースを備える。通信部14が備える通信インタフェースは、例えば、WiFi(登録商標)やイーサネット(登録商標)で用いられるLAN(Local Area Network)の通信規格に準じた通信インタフェースである。通信部14は、送信すべきデータが制御部11から入力された場合、指定された宛先へ送信すべきデータを送信する。また、通信部14は、外部装置から送信されたデータを受信した場合、受信したデータを制御部11へ出力する。
操作部15は、タッチパネル、キーボード、スイッチなどの操作デバイスを備え、ユーザによる各種の操作及び設定を受付ける。制御部11は、操作部15より与えられる各種の操作情報に基づき適宜の制御を行い、必要に応じて設定情報を記憶部12に記憶させる。
表示部16は、液晶モニタや有機EL(Electro-Luminescence)などの表示デバイスを備え、制御部11からの指示に応じて医療従事者等に報知すべき情報を表示する。
なお、本実施の形態では、情報処理装置1が学習モデルMD10,MD20,MD30を備える構成としたが、学習モデルMD10,MD20,MD30は、情報処理装置1からアクセス可能な外部装置(例えば、図13に示すサーバ装置2)に記憶されるものであってもよい。
また、本実施の形態では、情報処理装置1が撮像部13を備える構成としたが、外部の撮像装置にて撮像された口腔内画像を通信部14や図に示していない読取装置を用いて取得する構成としてもよい。
更に、情報処理装置1は、単一のコンピュータに限らず、複数のコンピュータや周辺機器からなるコンピュータシステムであってもよい。また、情報処理装置1は、ソフトウェアによって仮想的に構築される仮想マシンであってもよい。
以下、情報処理装置1における処理内容について説明する。
(1)口腔内画像の選別
口腔内画像は、歯の表側(唇側)、上顎噛合面、下顎噛合面などを様々な撮像方向から撮像した画像を含む。情報処理装置1は、撮像方向が様々な口腔内画像を含む画像群から歯周病の推定に好適な口腔内画像を選別する。情報処理装置1は、歯周病の推定に好適な口腔内画像として、例えば、歯の表側を正面から撮像した口腔内画像(以下、正面画像とも記載する)と、上顎噛合面を下側から上向きに撮像し、前歯の裏側(舌側)や臼歯の噛合面を含む口腔内画像(以下、上顎噛合面画像とも記載する)とを口腔内画像群から選別する。以下、学習モデルMD10を用いて口腔内画像を選別する構成について説明する。
図2は学習モデルMD10の構成例を示す模式図である。学習モデルMD10は、画像認識に用いられる機械学習の学習モデルであり、VGGNet(Visual Geometry Group Network)、ResNet(Residual Network)、AlexNetなどを含むCNN(Convolutional Neural Network)によって構築される。学習モデルMD10は、口腔内画像の入力に応じて、口腔内画像の撮像方向(種別)に関する情報を出力するように構成される。
学習モデルMD10は、入力層、中間層(隠れ層)、及び出力層を備える。入力層には、撮像された口腔内画像の画像データが入力される。入力層に入力された口腔内画像の画像データは中間層へ送出される。中間層は、畳み込み層、プーリング層、及び全結合層により構成される。畳み込み層とプーリング層とは交互に複数設けられてもよい。畳み込み層及びプーリング層は、各層のノードを用いた演算によって、入力層より入力される口腔内画像の特徴を抽出する。全結合層は、畳み込み層及びプーリング層によって特徴部分が抽出されたデータを1つのノードに結合し、活性化関数によって変換された特徴変数を出力する。特徴変数は、全結合層を通じて出力層へ出力される。
出力層は、1つ又は複数のノードを備える。出力層は、中間層の全結合層から入力される特徴変数を基に、ソフトマックス関数を用いて確率に変換し、得られた確率を各ノードから出力する。例えば、第1のノードからは、入力された口腔内画像が正面画像である確率A1、第2ノードからは、入力された口腔内画像が上顎噛合面画像である確率A2、第3ノードからは、入力された口腔内画像がその他である確率A3を出力する。情報処理装置1の制御部11は、学習モデルMD10の出力層から出力される確率を参照することによって、口腔内画像を選別する。
このような学習モデルMD10は、撮像方向が既知の口腔内画像と、この口腔内画像に対する撮像方向を示す情報(正解ラベル)とを多数含んでなるセットを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。学習モデルMD10は、情報処理装置1の内部において生成されてもよく、外部サーバ(例えばサーバ装置2)において生成されてもよい。生成された学習モデルMD10は、情報処理装置1の記憶部12に記憶される。この場合、情報処理装置1の制御部11は、処理対象の口腔内画像を学習モデルMD10へ入力し、学習モデルMD10を用いた演算を実行することによって、口腔内画像の選別結果を取得する。代替的に、学習モデルMD10は外部サーバ(例えばサーバ装置2)に記憶されてもよい。この場合、情報処理装置1は、処理対象の口腔内画像を外部サーバへ送信し、外部サーバによる演算結果(口腔内画像の選別結果)を通信により取得する。
図3は口腔内画像群より選別される正面画像及び上顎噛合面画像の一例を示す模式図である。情報処理装置1の制御部11は、口腔内画像を学習モデルMD10に入力し、学習モデルMD10を用いた演算結果を実行することにより、口腔内画像の認識結果を取得する。制御部11は、学習モデルMD10から得られる認識結果を参照することによって、口腔内画像群より正面画像及び上顎噛合面画像を選別する。
本実施の形態では、口腔内画像から正面画像及び上顎噛合面画像を選別する構成としたが、選別する口腔内画像は、正面画像及び上顎噛合面画像に限らず、下顎噛合面を上側から下向きに撮像した口腔内画像(下顎噛合面画像)などを含んでもよい。
また、本実施の形態では、学習モデルMD10を用いて正面画像及び上顎噛合面画像を選別する構成としたが、情報処理装置1に入力される口腔内画像が正面画像及び上顎噛合面画像に限られる場合、上述した選別処理を省略してもよい。情報処理装置1は、取得する口腔内画像を正面画像又は上顎噛合面画像に限定するために、口腔内を撮像する際、ユーザに対して撮像方向を指示してもよい。例えば、歯を閉じた状態にて正面から口腔内を撮像するようにユーザに指示することにより、正面画像が得られる。また、上顎噛合面を下方から上向きに撮像するようにユーザに指示することにより、上顎噛合面画像が得られる。この結果、情報処理装置1に入力される口腔内画像は、正面画像及び上顎噛合面画像に限定されるので、上述の選別処理を省略してもよい。
以下の説明において、選別された正面画像及び上顎噛合面画像を区別して説明する必要がある場合を除き、単に口腔内画像と記載する。
(2)歯の検出
情報処理装置1は、選別された口腔内画像から特定の歯を検出する。本実施の形態では、口腔内画像に含まれる歯列から、上顎中切歯(上顎歯列で正中線の両側に並ぶ2本の歯)と、上顎側切歯(上顎歯列で中切歯の遠心側に隣接する2本の歯)とを検出する。以下、学習モデルMD20を用いて歯を検出する構成について説明する。
図4は学習モデルMD20の構成例を示す模式図である。学習モデルMD20は、画像内の特定のオブジェクト(本実施の形態では上顎中切歯と上顎側切歯)を検出するための学習モデルである。学習モデルMD20には、例えば、R-CNN(Region-based Convolutional Neural Network)、Fast R-CNN、SSD(Single Shot Detector)、Mask R-CNN、YOLO(You Only Look Once)、RetinaNetなどによる学習モデルが用いられる。ここで、オブジェクト検出とは、画像内のオブジェクトを囲むような矩形領域(バウンディングボックス)を検出し、その矩形領域内に含まれるオブジェクトをクラス識別することをいう。
学習モデルMD20は、入力層、中間層、及び出力層を備える。入力層には、処理対象の口腔内画像が入力される。中間層は、畳み込み層、プーリング層、及び全結合層などを備え、入力された口腔内画像に含まれるオブジェクトらしき領域の候補を選定するための演算や入力画像から抽出される特徴量に基づきオブジェクトを識別するための演算等を実行する。出力層は、中間層の演算結果を基に求めたオブジェクトの検出結果を出力する。学習モデルMD20は、入力層への口腔内画像の入力に応じて、中間層にて演算を行い、例えば、クラス名、クラスの予測信頼度、及びバウンディングボックスに関する情報を出力層から出力するように構成される。
モデルMD20は、既知のオブジェクトが含まれる多数の画像と、各画像に含まれるオブジェクトのクラス名と、オブジェクトを囲むバウンディングボックスの座標値とを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。学習モデルMD20は、情報処理装置1の内部で生成されてもよく、外部サーバ(例えばサーバ装置2)において生成されてもよい。生成された学習モデルMD20は情報処理装置1の記憶部12に記憶される。この場合、情報処理装置1の制御部11は、処理対象の口腔内画像を学習モデルMD20へ入力し、学習モデルMD20を用いた演算を実行することによって、オブジェクトの検出結果を取得する。代替的に、学習モデルMD20は外部サーバ(例えばサーバ装置2)に記憶されてもよい。この場合、情報処理装置1は、処理対象の口腔内画像を外部サーバへ送信し、外部サーバによる演算結果(オブジェクトの検出結果)を通信により取得する。
図5はオブジェクトの検出例を示す模式図である。図5Aは正面画像についての検出結果を示している。図5Aに示す正面画像には、検出対象のオブジェクトとして、上顎の左右の中切歯と側切歯とが含まれている。情報処理装置1は、上述したような学習モデルMD20を用いることによって、これらのオブジェクトを囲むバウンディングボックスB11~B14を検出し、バウンディングボックスB11~B14内のオブジェクトをそれぞれクラス識別する。例えば、バウンディングボックスB11は、領域内に存在するオブジェクトが上顎右側の中切歯(図5ではUR1と表記)であると識別され、その予測信頼度「100%」であることを示している。他のバウンディングボックスB12~B14についても図5Aに示す通りである。なお、図中のUL1は上顎左側の中切歯、UR2は上顎右側の側切歯、UL2は上顎左側の側切歯を表している。
図5Bは上顎噛合面画像についての検出結果を示している。図5Bに示す上顎噛合面画像には、図5Aと同様に、検出対象のオブジェクトとして、上顎右側及び上顎左側の中切歯と側切歯とが含まれている。情報処理装置1は、上述したような学習モデルMD20を用いることによって、これらのオブジェクトを囲むバウンディングボックスB21~B24を検出し、バウンディングボックスB21~B24内のオブジェクトをそれぞれクラス識別する。例えば、バウンディングボックスB21は、領域内に存在するオブジェクトがUR1(上顎右側の中切歯)であると識別され、その予測信頼度「100%」であることを示している。他のバウンディングボックスB22~B24についても図5Bに示す通りである。なお、図中のUL1は上顎左側の中切歯、UR2は上顎右側の側切歯、UL2は上顎左側の側切歯を表している。
本実施の形態では、上顎の左右の中切歯と側切歯とを検出対象として学習モデルMD20を用いて検出する構成としたが、検出対象はこれらに限定されるものではない。例えば、中切歯のみを検出対象としてもよく、側切歯のみを検出対象としてもよい。また、側切歯の遠心側に隣接する犬歯、更に遠心側にある小臼歯を検出対象に含めてもよい。
(3)歯周領域の抽出
情報処理装置1は、口腔内画像から検出した特定の歯の領域から歯周領域を抽出する。ここで、歯周領域とは、歯を支える歯周組織(歯茎)の少なくとも一部を含む領域のことである。図6は歯周領域の抽出手法を説明する説明図である。本実施の形態では、特定の歯を含む領域として検出されたバウンディングボックスの座標を考慮して、歯の周辺の歯茎部分(特に歯と歯茎の境界部分)を含むように歯周領域を抽出する。以下、前述のバウンディングボックスB11により検出された上顎右側の中切歯について歯周領域を抽出する手順を図6を用いて具体的に説明する。
図6の左側に上顎右側の中切歯を含む口腔内画像の部分拡大図を示す。この上顎右側の中切歯について検出されたバウンディングボックスB11の幅をW、高さをHとし、左上隅の座標を(x0,y0)とする。なお、座標系は図6に示すように設定される。情報処理装置1は、歯茎部分を含む歯周領域を抽出するために、バウンディングボックスB11を歯茎方向(図6の例では-y方向)へ平行移動させる。移動量hは、例えばバウンディングボックスB11の高さHの1/4~1/2程度に設定される。次いで、情報処理装置1は、平行移動させたバウンディングボックスB11に含まれる画像を抽出し、抽出した画像を歯列方向(図6の例ではx方向)の幅が同一(W/3)となるように3分割する。このような処理により、上顎右側の中切歯について、近心部の歯周領域を抽出した歯周領域画像UR1P1、中央部を抽出した歯周領域画像UR1P2、及び遠心部の歯周領域を抽出した歯周領域画像UR1P3が生成される。歯周領域画像は、歯の周囲に存在する歯周組織だけでなく、歯の少なくとも一部の領域を含む。
図6では上顎右側の中切歯における歯周領域画像の生成例について説明したが、その他の歯の歯周領域画像を生成する場合についても同様である。
本実施の形態では、バウンディングボックスB11を歯茎の方向(-y方向)へ移動させる構成としたが、必要に応じて歯列方向(x方向又は-x方向)へ移動させてもよい。また、本実施の形態では、バウンディングボックスB11の大きさを変更せずに移動させる構成としたが、バウンディングボックスB11の大きさを変更して移動させてもよい。更に、本実施の形態では、バウンディングボックスB11に含まれる画像を遠心部、中央部、及び近心部の3つの領域に均等に分割する構成としたが、分割数は3つに限らず、2分割若しくは4分割以上であってもよく、抽出する領域に応じて幅を異ならせてもよい。
(4)歯周病推定
情報処理装置1は、抽出した歯周領域画像に基づき、ユーザの口腔内における歯周病の有無を推定する。以下、学習モデルMD30を用いて歯周病の有無を推定する構成について説明する。
図7は学習モデルMD30の構成例を示す模式図である。学習モデルMD30は、画像認識に用いられる機械学習の学習モデルであり、InceptionV3、VGGNet、ResNet、AlexNetなどを含むCNNによって構築される。学習モデルMD30は、歯周領域画像の入力に応じて、ユーザの口腔内における歯周病の有無に関する情報を出力するように構成される。
学習モデルMD30は、入力層、中間層(隠れ層)、及び出力層を備える。入力層には、口腔内画像から生成される歯周領域画像の画像データが入力される。本実施の形態では、上顎右側中切歯の近心部を抽出して得られる歯周領域画像UR1P1、中央部を抽出して得られる歯周領域画像UR1P2、遠心部を抽出して得られる歯周領域画像UR1P3、…、上顎左側側切歯の遠心部を抽出して得られる歯周領域画像UL2P3といったように、複数の歯周領域画像が得られるので、これらの画像データを学習モデルMD30の入力層に順次入力すればよい。なお、情報処理装置1は、歯周領域画像を所定のサイズ(例えば128画素×128画素)にリサイズしてから学習モデルMD30に入力する構成としてもよい。
入力層に入力された歯周領域画像の画像データは中間層へ送出される。中間層は、畳み込み層、プーリング層、及び全結合層により構成される。畳み込み層とプーリング層とは交互に複数設けられてもよい。畳み込み層及びプーリング層は、各層のノードを用いた演算によって、入力層より入力される歯周領域画像の特徴を抽出する。全結合層は、畳み込み層及びプーリング層によって特徴部分が抽出されたデータを1つのノードに結合し、活性化関数によって変換された特徴変数を出力する。特徴変数は、全結合層を通じて出力層へ出力される。
出力層は、中間層の全結合層から入力される特徴変数を基に、ソフトマックス関数を用いて確率に変換し、得られた確率を出力する。学習モデルMD30の出力層は、ユーザが歯周病に罹患している確率P0を出力すればよい。情報処理装置1の制御部11は、学習モデルMD30の出力層から出力される確率に基づき、ユーザが歯周病に罹患しているか否かを推定する。制御部11は、入力した複数の歯周領域画像に対し、学習モデルMD30から出力される確率P0が閾値(例えば90%)を超える場合、ユーザが歯周病に罹患していると推定することができる。
なお、学習モデルMD30は、口腔内画像から生成される複数の歯周領域画像のうち、何れか1つが入力された場合、歯周病に罹患している確率P0を出力するものであってもよく、複数の歯周領域画像が同時に入力された場合、歯周病に罹患している確率P0を出力するものであってもよい。前者の場合、複数の歯周領域画像を個々に学習モデルMD30に入力し、出力される確率P0が閾値を超えるものがあれば、ユーザが歯周病に罹患していると推定すればよい。後者の場合、複数の歯周領域画像を同時に学習モデルMD30に入力し、出力される確率P0が閾値を超える場合、ユーザが歯周病に罹患していると推定すればよい。また、学習モデルMD30は、複数の歯周領域画像の合成画像が入力された場合、歯周病に罹患している確率P0を出力するものであってもよい。図8は学習モデルMD30の変形例を示す模式図である。図8に示す学習モデルMD30は、複数の歯周領域画像を合成して得られる1つの合成画像を入力層への入力とし、歯周病に罹患している確率P0を出力層からの出力とした学習モデルを示している。図8の例では、4つの歯周領域画像を横方向(x方向)に並べた合成画像を示しているが、縦方向(y方向)に合成してもよく、横方向及び縦方向に合成してもよい。また、合成する歯周領域画像の数は4つに限らず、2つ以上であればよい。更に、合成画像を所定のサイズ(例えば128画素×128画素)にリサイズしてもよい。
学習モデルMD30は、患者の口腔内画像から抽出された歯周領域画像と、前記患者が歯周病に罹患しているか否かを示す医師の診断結果(正解ラベル)とを多数含んでなるセットを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。訓練データに含まれる歯周領域画像は、個々の歯周領域画像であってもよく、複数の歯周領域画像のセットであってもよく、複数の歯周領域画像の合成画像であってもよい。学習モデルMD30は、情報処理装置1の内部において生成されてもよく、外部サーバ(例えばサーバ装置2)において生成されてもよい。生成された学習モデルMD30は、情報処理装置1の記憶部12に記憶される。この場合、情報処理装置1の制御部11は、ユーザの口腔内画像から抽出した歯周領域画像を学習モデルMD30へ入力し、学習モデルMD30を用いた演算を実行することによって、前記ユーザが歯周病に罹患しているか否かを推定する。代替的に、学習モデルMD30は外部サーバ(例えばサーバ装置2)に記憶されてもよい。この場合、情報処理装置1は、ユーザの口腔内画像から抽出した歯周領域画像を外部サーバへ送信し、外部サーバによる演算結果(歯周病の有無の判定結果)を通信により取得する。
以下、情報処理装置1の動作について説明する。
図9は情報処理装置1が実行する処理の手順を説明するフローチャートである。情報処理装置1の制御部11は、ユーザの口腔内を様々な方向から撮像して得られる複数の口腔内画像を取得する(ステップS101)。口腔内画像は、情報処理装置1の撮像部13によって撮像されたものであってもよく、外部の撮像装置によって撮像されたものであってもよい。後者の場合、制御部11は、通信部14を通じて口腔内画像を取得すればよい。
次いで、制御部11は、取得した口腔内画像を学習モデルMD10に入力することによって、口腔内画像を選別する(ステップS102)。制御部11は、学習モデルMD10の出力を参照することによって、様々な撮像方向から撮像された口腔内画像のうち、特定の撮像方向から撮像された口腔内画像(例えば、正面画像及び上顎噛合面画像)を処理対象として選択し、他の撮像方向から撮像された口腔内画像を処理対象から除外する。ステップS101において、特定の撮像方向から撮像された口腔内画像(処理対象の口腔内画像)のみを取得する構成としている場合、制御部11は、ステップS102の処理を省略してもよい。
次いで、制御部11は、選別した口腔内画像から歯周領域画像を生成する(ステップS103)。制御部11は、選別した口腔内画像を学習モデルMD20に入力することによって、特定の歯(中切歯や側切歯などの前歯)を囲むバウンディングボックスを検出し、検出したバウンディングボックスの座標を基に、特定の歯の歯周領域を含むような歯周領域画像を生成する。制御部11は、例えば、特定の歯の遠心部、中央部、及び近心部を含む歯周領域画像を生成することができる。
次いで、制御部11は、生成した歯周領域画像を学習モデルMD30に入力することによって、歯周病の有無を推定する(ステップS104)。制御部11は、ステップS103で生成した歯周領域画像を学習モデルMD30に入力して、学習モデルMD30から出力される確率P0を閾値と比較する。制御部11は、学習モデルMD30から出力される確率P0が閾値(例えば90%)を超える場合、ユーザは歯周病に罹患していると推定し、閾値を超えなければ、ユーザは歯周病に罹患していないと推定する。
次いで、制御部11は、歯周病の有無の推定結果に応じた情報を出力する(ステップS105)。制御部11は、ステップS104においてユーザが歯周病に罹患していると推定した場合、その旨を表す文字情報を表示部16に表示させる。代替的に、制御部11は、歯周病である確率を表示部16に表示させてもよく、歯科の受診を推奨する旨の文字情報を表示部16に表示させてもよい。更に、本実施の形態では、歯周領域毎に歯周病の有無を推定できるので、制御部11は、歯周病が発生してる場所の情報を口腔内画像に重畳して表示部16に表示させてもよい。なお、ステップS104においてユーザが歯周病に罹患していないと推定した場合、制御部11は、その旨の文字情報を表示部16に表示させてもよい。
図10は推定結果の表示例を示す模式図である。情報処理装置1の制御部11は、図10に示すような表示画面110を生成し、表示部16に表示させる。表示画面110は、例えば、文字情報111、歯周病の推定結果を示すテーブル112、歯周病の発生場所を示す画像113を含む。
文字情報111は、歯周病を発見した旨の文字情報と、歯科受診を推奨する旨の文字情報とを含んでいる。テーブル112は、歯周領域毎の推定結果を示しており、正常(歯周病なし)と推測される場合には「0」、異常(歯周病あり)と推測される場合には「1」が表示される。図10の例は、上顎右側の中切歯については全ての歯周領域において正常と推測されていることを示している。また、上顎左側の中切歯(UL1)及び上顎右側の側切歯(UR2)については遠心部の歯周領域において異常と推定され、上顎左側の側切歯(UL2)については近心部の歯周領域において異常と推測されていることを示している。
図10の画像113は口腔内の正面画像であり、歯周病の発生箇所をマークM11~M13によって示している。すなわち、上顎左側の中切歯(UL1)及び上顎右側の側切歯(UR2)については遠心部の歯周領域において異常と推定されているので、これに対応して、マークM11及びM12がそれぞれの領域に表示されている。また、上顎左側の側切歯(UL2)については近心部の歯周領域において異常と推測されているので、これに対応して、マークM13がその領域に表示されている。
以上のように、実施の形態1に係る情報処理装置1は、ユーザの口腔内画像を基に歯周病の有無を推定し、推定結果を出力する。ユーザは、情報処理装置1を用いることによって、歯周病に関するセルフチェックを実施することができる。また、様々な角度から撮像された口腔内画像から、より重点的に歯周病検査が必要な部位を抽出できるので、推定結果を歯科医師等に提供することによって、診断補助が可能となる。
(実施の形態2)
実施の形態2では、学習モデルMD30の生成方法について説明する。学習モデルMD30は、例えば、情報処理装置1と通信可能に接続されるサーバ装置2において生成される。
図11はサーバ装置2の構成を説明するブロック図である。サーバ装置2は、制御部21、記憶部22、入力部23、通信部24、操作部25、及び表示部26を備える。
制御部21は、例えば、CPU、ROM、RAMなどを備える。制御部21が備えるROMには、サーバ装置2が備えるハードウェア各部の動作を制御するための制御プログラム等が記憶される。制御部21内のCPUは、ROMに記憶された制御プログラム、及び記憶部22に記憶された各種プログラムを実行し、ハードウェア各部の動作を制御する。
制御部21は上述の構成に限定されない。制御部21は、CPU、ROM及びRAMを備えた構成に限定されない。制御部21は、例えば、GPU、FPGA、DSP、揮発性または不揮発性のメモリ等を含む1又は複数の制御回路または演算回路であってもよい。また、制御部21は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部22は、ハードディスクドライブなどの記憶装置を備える。記憶部22には、制御部21によって実行される各種コンピュータプログラム、当該コンピュータプログラムによって利用される各種データ、外部から取得したデータ等が記憶される。記憶部22に記憶されるコンピュータプログラムの一例は、学習モデルMD30を生成するためのモデル生成プログラムPG2である。また、記憶部22は、患者の口腔内画像と当該患者が歯周病に罹患しているか否かを示すラベル(正解データ)とを関連付けて記憶する口腔内画像データベースDB1を備える。
入力部23は、各種データ又はプログラムを記録した記録媒体M2から、データ及びプログラムを取得するための入力インタフェースを備える。入力部23を通じて入力された各種データ及びプログラムは、記憶部22に記憶される。
通信部24は、通信ネットワークに接続する通信インタフェースを備える。通信ネットワークNは、インターネット網、特定用途向けのLAN又はWANなどである。通信部24は、必要に応じてデータを外部装置へ送信すると共に、外部装置から送信されてくるデータを受信する。
操作部25は、キーボードやマウスなどの入力インタフェースを備えており、各種の操作情報や設定情報を受付ける。制御部21は、操作部25から入力される操作情報に基づき適宜の制御を行い、必要に応じて設定情報を記憶部22に記憶させる。
表示部26は、液晶表示パネル、有機EL表示パネル等の表示デバイスを備えており、制御部21から出力される制御信号に基づいて、サーバ装置2の管理者等に通知すべき情報を表示する。
なお、本実施の形態では、サーバ装置2が操作部25及び表示部26を備える構成としたが、操作部25及び表示部26は必須ではなく、外部に接続されたコンピュータを通じて操作を受付け、通知すべき情報を外部のコンピュータへ出力する構成であってもよい。
図12はサーバ装置2が備える口腔内画像データベースDB1の構成例を示す概念図である。口腔内画像データベースDB1では、患者の口腔内画像と、当該患者が歯周病に罹患しているか否かを示す診断結果とを患者毎に関連付けて記憶する。口腔内画像は、患者の口腔内を様々な方向から撮像した画像を含んでもよい。診断結果は、患者が歯周病に罹患しているか否かのラベル(正解データ)を示す。
図13は学習モデルMD30の生成手順を説明するフローチャートである。サーバ装置2の制御部21は、記憶部22の口腔内画像データベースDB1にアクセスし、特定の患者について得られた口腔内画像及び診断結果を取得する(ステップS201)。
次いで、制御部21は、実施の形態1と同様の手順により、処理対象の口腔内画像を選別する(ステップS202)。実施の形態2において、口腔内画像の選別に必要な学習モデルMD10は学習済みであり、記憶部22に記憶されているものとする。制御部21は、ステップS201で取得した口腔内画像を学習モデルMD10に入力し、学習モデルMD10による演算を実行する。制御部21は、学習モデルMD10による演算結果を参照することによって、様々な撮像方向から撮像された口腔内画像のうち、特定の撮像方向から撮像された口腔内画像(例えば、正面画像及び上顎噛合面画像)を処理対象として選択し、他の撮像方向から撮像された口腔内画像を処理対象から除外する。
次いで、制御部21は、実施の形態1と同様の手順により、歯周領域画像を生成する(ステップS203)。実施の形態2において、口腔内画像から特定の歯を検出するために必要な学習モデルMD20は学習済みであり、記憶部22に記憶されているものとする。制御部21は、選別した口腔内画像を学習モデルMD20に入力することによって、特定の歯(中切歯や側切歯などの前歯)を囲むバウンディングボックスを検出し、検出したバウンディングボックスの座標を基に、特定の歯の歯周領域を含むような歯周領域画像を生成する。制御部21は、例えば、特定の歯の遠心部、中央部、及び近心部を含む歯周領域画像を生成することができる。
制御部21は、生成した歯周領域画像とステップS201で取得した診断結果(患者が歯周病に罹患しているか否かを示す正解データ)との組を訓練データに用いて、学習用の学習モデルによる演算を実行する(ステップS204)。すなわち、制御部21は、ステップS203で生成した歯周領域画像を学習用の学習モデルに入力し、学習モデルの中間層による演算を実行して、出力層より演算結果を取得する。なお、学習が開始される前の段階では、学習用の学習モデルを記述する定義情報には、初期設定値が与えられているものとする。
次いで、制御部21は、学習モデルによる歯周病の有無の推定結果と、訓練データに含まれる正解データとを比較することによって、学習モデルによる演算結果を評価し(ステップS205)、学習が完了したか否かを判断する(ステップS206)。
学習が完了していないと判断した場合(S206:NO)、制御部21は、学習モデルのノード間の重み係数及びバイアスを更新する(ステップS207)。制御部21は、学習モデルの出力層から入力層に向かって、ノード間の重み係数及びバイアスを順次更新する誤差逆伝搬法を用いて、各ノード間の重み係数及びバイアスを更新することができる。制御部21は、重み係数及びバイアスを更新した後、処理をステップS201へ戻し、別の患者について得られた口腔内画像と診断結果とを用いて、学習を継続する。なお、ステップS203において生成される歯周領域画像のうち、学習に使用していない歯周領域画像が存在する場合、制御部21は、処理をステップS204へ戻し、他の歯周領域画像を用いた学習を継続すればよい。
学習が完了したと判断した場合(S206:YES)、制御部21は、学習済みの学習モデル(すなわち、実施の形態1において説明した学習モデルMD30)として記憶部22に記憶させ、本フローチャートによる処理を終了する。
以上のように、実施の形態2では、サーバ装置2において学習モデルMD30を生成することができる。サーバ装置2は、情報処理装置1からの要求に応じて、生成した学習モデルMD30を情報処理装置1へ送信する。情報処理装置1は、サーバ装置2から学習モデルMD30を受信し、記憶部12に記憶させた後、推定処理プログラムPG1を実行することによって、歯周病の有無の推定処理を実行することができる。
なお、ステップS203において歯周領域画像を生成する際、制御部21は、歯周領域の抽出位置をランダムに異ならせることによって、多数の歯周領域画像を生成してもよい。図14は実施の形態2における歯周領域の抽出手法を説明する説明図である。実施の形態2では、特定の歯を含む領域として検出されたバウンディングボックスの座標を考慮して、歯の周辺の歯茎部分を含むように歯周領域をランダムに抽出(ランダムクロップ)する。例えば、制御部21は、図14に示すバウンディングボックスB11の左上隅の座標を基準にして、抽出すべき歯周領域の位置(例えば領域の左上隅の座標)、幅、及び高さをランダムに設定する。なお、抽出すべき歯周領域の位置、幅、及び高さを完全にランダムにすると、歯の周辺の歯茎部分を含まない可能性があるため、予め設定した範囲内で歯周領域の位置、幅、及び高さをランダムに設定すればよい。制御部21は、設定した歯周領域を口腔内画像から抽出することにより、歯周領域画像を生成する。制御部21は、抽出すべき歯周領域の位置、幅、及び高さをランダムに変更しながら歯周領域を順次抽出することにより、多数の歯周領域画像を生成することができ、生成した多数の歯周領域画像を訓練データとして用いることができる。ランダムクロップにより得られる歯周領域画像のサイズは様々であるため、制御部21は、抽出した歯周領域画像を学習モデルMD30において要求される画像サイズにリサイズした後に、学習モデルMD30に入力してもよい。
本実施の形態では、学習モデルMD10,MD20は既に学習済みであるとし、学習済みの学習モデルMD10,MD20を用いて、学習モデルMD30を生成する構成について説明したが、学習モデルMD10,MD20についてもサーバ装置2において生成することが可能である。例えば、学習モデルMD10を生成する場合、制御部21は、撮像方向が既知の口腔内画像と、この口腔内画像に対する撮像方向を示す情報(正解ラベル)とを多数含んでなるセットを訓練データとして与え、前述と同様の手順の演算を実行することにより、学習モデルMD10を生成することができる。また、学習モデルMD20を生成する場合、制御部21は、既知のオブジェクトが含まれる多数の画像と、各画像に含まれるオブジェクトのクラス名と、オブジェクトを囲むバウンディングボックスの座標値とを訓練データとして与え、前述と同様の手順の演算を実行することにより、学習モデルMD20を生成することができる。
(実施の形態3)
実施の形態3では、歯肉炎及び歯周炎を判別する構成について説明する。
なお、情報処理装置1の内部構成は実施の形態1と同様であるため、その説明を省略することとする。
以下、学習モデルMD31を用いて歯肉炎及び歯周炎を推定する構成について説明する。図15は実施の形態3における学習モデルMD31の構成例を示す模式図である。学習モデルMD31は、画像認識に用いられる機械学習の学習モデルであり、InceptionV3、VGGNet、ResNet、AlexNetなどを含むCNNによって構築される。学習モデルMD31は、歯周領域画像の入力に応じて、歯肉炎及び歯周炎の判別結果に関する情報を出力するように構成される。学習モデルMD31が備える入力層、中間層(隠れ層)、及び出力層の構成は、実施の形態1において説明した学習モデルMD30と同様である。
学習モデルMD31の出力層は、歯周領域画像の入力に応じて、例えば、歯肉炎に罹患している確率P11、歯周炎に罹患している確率P12、正常である(歯周病に罹患していない)確率P13を出力する。情報処理装置1の制御部11は、学習モデルMD31の出力層から出力される確率に基づき、ユーザが歯肉炎に罹患しているか否か、歯周炎に罹患しているか否かを判別することができる。制御部11は、入力した歯周領域画像に対し、学習モデルMD31から出力される確率P1が第1閾値(例えば50%)を超える場合、ユーザが歯肉炎に罹患していると推定し、確率P2が第2閾値(例えば50%)を超える場合、ユーザが歯周炎に罹患していると推定する。また、確率P3が第3閾値(例えば50%)を超える場合、ユーザは歯周病に罹患しておらず、正常であると推定する。
なお、学習モデルMD31は、複数の歯周領域画像が個別に入力された場合に判別結果に関する情報を出力する構成であってもよく、複数の歯周領域画像が同時に入力された場合に判別結果に関する情報を出力する構成であってもよい。また、学習モデルMD31は、複数の歯周領域画像からなる合成画像が入力された場合に判別結果に関する情報を出力する構成であってもよい。
学習モデルMD31は、患者の口腔内画像から抽出された歯周領域画像と、前記患者が歯肉炎又は歯周炎に罹患しているか否かを示す医師の診断結果(正解ラベル)とを多数含んでなるセットを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。
以上のように、実施の形態3では、学習モデルMD31を用いることにより、歯周病の有無に加え、歯肉炎及び歯周炎の判別結果に係る情報をユーザに提供できる。
(実施の形態4)
実施の形態4では、歯周ポケットの深さ(PPD : Probing Pocket Depth)を推定する構成について説明する。
なお、情報処理装置1の内部構成は実施の形態1と同様であるため、その説明を省略することとする。
以下、学習モデルMD32を用いて歯周ポケットの深さを推定する構成について説明する。図16は実施の形態4における学習モデルMD32の構成例を示す模式図である。学習モデルMD32は、画像認識に用いられる機械学習の学習モデルであり、InceptionV3、VGGNet、ResNet、AlexNetなどを含むCNNによって構築される。学習モデルMD32は、歯周領域画像の入力に応じて、歯周ポケットの深さの推定結果に関する情報を出力するように構成される。実施の形態3では、歯周領域毎に歯周ポケットの深さを推定するために、複数の歯周領域画像を個別に学習モデルMD32に入力すればよい。学習モデルMD32が備える入力層、中間層(隠れ層)、及び出力層の構成は、実施の形態1において説明した学習モデルMD30と同様である。
学習モデルMD32の出力層は、歯周領域画像の入力に応じて、歯周ポケットの深さ(PPD)がKmmである確率P2K(Kは0以上の整数)を各ノードから出力する。情報処理装置1の制御部11は、学習モデルMD32は、学習モデルMD32の出力層から出力される確率を参照し、最も高い確率を出力するノードを決定することにより、歯周ポケットの深さを推定する。例えば、制御部11は、推定した確率P20,P21,P22,P23,…のうち、確率P22が最も高いと判断した場合、歯周ポケットの深さは2mmと推定することができる。
このような学習モデルMD32は、患者の口腔内画像から抽出された複数の歯周領域画像のそれぞれと、各歯周領域における歯周ポケットの深さの計測値(正解ラベル)とを多数含んでなるセットを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。なお、歯周ポケットの深さは、プローブという目盛りのついた針状の器具を用いて計測することが可能である。
また、制御部11は、歯周ポケットの深さの推定結果を基に、歯周病の進行度合いを推定してもよい。例えば、制御部11は、推定した歯周ポケットの深さが3mm未満である場合、正常(健康)若しくは歯肉炎と推定し、3mm以上5mm未満である場合、軽度歯周炎と推定し、5mm以上6mm未満である場合、中等度歯周炎と推定し、6mm以上である場合、重度歯周炎と推定することができる。
更に、制御部11は、歯周ポケットの深さの推定結果を基に、歯周外科処置の要否を判定してもよい。例えば、制御部11は、推定した歯周ポケットの深さが6mm以上である場合(すなわち重度歯周炎と推定される場合)、歯周外科処置を要と判定することができる。
図17は推定結果の表示例を示す模式図である。情報処理装置1の制御部11は、歯周ポケットの深さを推定することにより、重度歯周炎を検出した場合、図17に示すような表示画面120を生成し、表示部16に表示させる。表示画面120は、例えば、文字情報121、歯周ポケットチャート122、重度歯周炎の発生場所を示す画像123を含む。
文字情報121は、重度歯周炎の疑いがある旨の文字情報と、歯科外科処置を推奨する旨の文字情報とを含んでいる。歯周ポケットチャート122は、歯周領域毎に推定した歯周ポケットの深さの推定値を示している。図17の例では、表側(頬側)において、上顎右側の側切歯(UR2)の推定値は、遠心部、中央部、近心部の順に、2mm、3mm、6mmであることを示しており、上顎右側の中切歯(UR1)の推定値は、同様に、7mm、2mm、4mmであることを示している。他の歯周領域の推定値についても歯周ポケットチャート122に示す通りである。
図17の画像123は口腔内の正面画像であり、重度歯周炎の発生箇所をマークM21,M22によって示している。歯周ポケットの深さの推定値によれば、表側(頬側)において、上顎右側の側切歯(UR2)の近心部と、上顎右側の中切歯(UR1)の遠心部にて推定値が6mm以上となっているため、重度歯周炎と推定される。これに対応して、マークM21,M22が正面画像の該当する領域に重畳して表示される。
図17の例では、口腔内画像のうち正面画像を表示した例を示したが、上顎噛合面画像など他の口腔内画像を表示してもよい。また、図17の例は、重度歯周炎を検出した場合の例を示したが、歯肉炎、軽度歯周炎、中等度歯周炎を検出した場合、その旨を報知するための画面を生成して表示部16に表示してもよい。
以上のように、実施の形態4に係る情報処理装置1は、ユーザの口腔内画像を基に歯周ポケットの深さを推定し、推定結果を出力する。ユーザは、情報処理装置1を用いることによって、歯周病に関するセルフチェックを実施することができる。また、より重点的に処置すべき箇所を画像として表示できるので、歯科医師等に対する診断補助が可能となる。
実施の形態4では、歯周領域画像の入力に応じて、歯周ポケットの深さの推定値に関する情報を出力する学習モデルMD32について説明した。代替的に、学習モデルMD32は、歯周領域画像の入力に応じて、歯肉内縁上皮面積(PESA)の推定値に関する情報を出力する学習モデルであってもよい。このような学習モデルMD32は、患者の口腔内画像から抽出された複数の歯周領域画像のそれぞれと、各歯周領域における歯肉内縁上皮面積の実測値(正解ラベル)とを多数含んでなるセットを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。
更に、学習モデルMD32は、歯周領域画像の入力に応じて、炎症内縁上皮面積(PISA)の推定値に関する情報を出力する学習モデルであってもよい。このような学習モデルMD32は、患者の口腔内画像から抽出された複数の歯周領域画像のそれぞれと、各歯周領域における炎症内縁上皮面積の実測値(正解ラベル)とを多数含んでなるセットを訓練データとして与え、所定のアルゴリズムを用いて機械学習を行うことにより生成される。
本願発明者らにより、PESAとPISAとの間に相関が見られ、PESAと歯周外科処置との間の相関が高いとの知見が得られている。これは、歯周ポケットの内面積が広い患者は、歯周基本治療のみでは改善しないため、歯周外科処置を選択する可能性が高いことを表している。このため、情報処理装置1は、推定したPESA又はPISAの数値が設定した閾値以上であれば、歯周外科処置を推奨する旨の情報を表示部16に表示してもよい。
更に、本願発明者が口腔内の前歯部正面と上顎口蓋側(裏側)の部分的なPESAを計算したところ、上顎口蓋側のPESAは全顎のPESAと相関が高いとの知見が得られた。このため、情報処理装置1は、上顎噛合面画像のみを受付け、上顎噛合面画像から特定の歯(左右の中切歯及び側切歯)の裏側の歯周領域画像を抽出して学習モデルMD30に入力し、学習モデルMD30による演算を実行することにって歯周病の有無を推定してもよい。上顎口蓋側のPESAと、全顎のPESAとの間には高い相関が認められるため、上顎噛合面画像から抽出した裏面側の歯周領域画像を用いたとしても、全顎的な歯周病の有無を精度良く抽出することができる。
今回開示された実施形態は、全ての点において例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
1 情報処理装置
2 サーバ装置
11 制御部
12 記憶部
13 撮像部
14 通信部
15 操作部
16 表示部
21 制御部
22 記憶部
23 入力部
24 通信部
25 操作部
26 表示部
MD10,MD20,MD30,MD31,MD32 学習モデル
220 口腔画像データベース
PG1 推定処理プログラム
DB1 口腔内画像データベース

Claims (11)

  1. コンピュータに、
    ユーザの口腔内を撮像して得られる口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成し、
    歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、前記ユーザの口腔内画像から生成した歯周領域画像を入力することにより、前記ユーザの口腔内における歯周病の有無を推定し、
    推定結果に応じた情報を出力する
    処理を実行させるためのコンピュータプログラム。
  2. 前記コンピュータに、
    前記口腔内画像から、前記特定の歯の近心部、中央部、及び遠心部の少なくとも2つを含む複数の歯周領域画像を生成し、
    生成した複数の歯周領域画像のそれぞれを前記学習モデルに入力することにより、前記ユーザの口腔内における歯周病の有無を推定する
    処理を実行させるための請求項1に記載のコンピュータプログラム。
  3. 前記コンピュータに、
    前記口腔内画像から、前記特定の歯の近心部、中央部、及び遠心部の少なくとも2つを含む複数の歯周領域画像を生成し、
    生成した複数の歯周領域画像を合成して得られる合成画像を前記学習モデルに入力することにより、前記ユーザの口腔内における歯周病の有無を推定する
    処理を実行させるための請求項1に記載のコンピュータプログラム。
  4. 前記歯周領域画像は、上顎前歯の裏面側の歯周領域を抽出することにより得られる歯周領域画像である
    請求項1から請求項3の何れか1つに記載のコンピュータプログラム。
  5. 前記学習モデルは、歯周領域画像の入力に応じて、歯肉炎及び歯周炎の判別結果に係る情報を出力するよう学習してある
    請求項1から請求項4の何れか1つに記載のコンピュータプログラム。
  6. 前記学習モデルは、歯周領域画像の入力に応じて、歯周ポケットの深さ、歯肉内縁上皮面積(PESA : Periodontal Epithelial Surface Area)、又は炎症内縁上皮面積(PISA : Periodontal Inflamed Surface Area)の推定結果を更に出力するよう学習してある
    請求項1から請求項5の何れか1つに記載のコンピュータプログラム。
  7. 前記コンピュータに、
    前記学習モデルから出力される情報に基づき、歯周外科処置の要否を判定し、
    前記推定結果に応じた情報として、前記歯周外科処置の要否に係る情報を出力する
    処理を実行させるための請求項1から請求項6の何れか1つに記載のコンピュータプログラム。
  8. コンピュータを用いて、
    患者の口腔内画像から個々の歯を認識し、
    認識した歯のうち特定の歯の歯周領域を前記口腔内画像から抽出して歯周領域画像を生成し、
    生成した歯周領域画像と、前記患者が歯周病に罹患しているか否かを示す正解データとを含む訓練データを取得し、
    取得した訓練データのセットに基づき、歯周領域画像を入力した場合、歯周病の有無に係る情報を出力する学習モデルを生成する
    学習モデルの生成方法。
  9. 前記コンピュータを用いて、
    前記特定の歯について、抽出位置をランダムに異ならせた複数の歯周領域画像を生成し、
    生成した複数の歯周領域画像と、該歯周領域画像に対する正解データとを含む訓練データのセットに基づき、前記学習モデルを生成する
    請求項8に記載の学習モデルの生成方法。
  10. ユーザの口腔内を撮像して得られる口腔内画像を取得する取得部と、
    取得した口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成する生成部と、
    歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、前記生成部が生成した歯周領域画像を入力することにより、前記ユーザの口腔内における歯周病の有無を推定する推定部と、
    推定結果に応じた情報を出力する出力部と
    を備える情報出力装置。
  11. コンピュータを用いて、
    ユーザの口腔内を撮像して得られる口腔内画像を取得し、
    取得した口腔内画像から、特定の歯の歯周領域を抽出して歯周領域画像を生成し、
    歯周領域画像の入力に応じて歯周病の有無に係る情報を出力するよう構成された学習モデルに、前記ユーザの口腔内画像から生成した歯周領域画像を入力することにより、前記ユーザの口腔内における歯周病の有無を推定し、
    推定結果に応じた情報を出力する
    情報出力方法。
JP2020182948A 2020-10-30 2020-10-30 コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法 Pending JP2022073148A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020182948A JP2022073148A (ja) 2020-10-30 2020-10-30 コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020182948A JP2022073148A (ja) 2020-10-30 2020-10-30 コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法

Publications (1)

Publication Number Publication Date
JP2022073148A true JP2022073148A (ja) 2022-05-17

Family

ID=81604797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020182948A Pending JP2022073148A (ja) 2020-10-30 2020-10-30 コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法

Country Status (1)

Country Link
JP (1) JP2022073148A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116766A1 (ja) * 2022-11-28 2024-06-06 パナソニックIpマネジメント株式会社 歯周病検出システム、歯周病検出方法、及び歯周病検出プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116766A1 (ja) * 2022-11-28 2024-06-06 パナソニックIpマネジメント株式会社 歯周病検出システム、歯周病検出方法、及び歯周病検出プログラム

Similar Documents

Publication Publication Date Title
US20200364624A1 (en) Privacy Preserving Artificial Intelligence System For Dental Data From Disparate Sources
US20210118132A1 (en) Artificial Intelligence System For Orthodontic Measurement, Treatment Planning, And Risk Assessment
US11189028B1 (en) AI platform for pixel spacing, distance, and volumetric predictions from dental images
DK3050534T3 (en) TRACKING AND PREDICTING DENTAL CHANGES
JP2022122867A (ja) デジタル歯科カルテに記入するための歯部状態情報を導出する方法
US20210045859A1 (en) Detecting and monitoring development of a dental condition
KR102267197B1 (ko) 디지털 치아 영상에 치아 진료 데이터를 기록 및 표시하는 방법 및 장치
US11276151B2 (en) Inpainting dental images with missing anatomy
US20200411167A1 (en) Automated Dental Patient Identification And Duplicate Content Extraction Using Adversarial Learning
US20210357688A1 (en) Artificial Intelligence System For Automated Extraction And Processing Of Dental Claim Forms
US20200411201A1 (en) Systems And Method For Artificial-Intelligence-Based Dental Image To Text Generation
US20200405242A1 (en) System And Methods For Restorative Dentistry Treatment Planning Using Adversarial Learning
JP7220569B2 (ja) 撮像支援装置、スキャナシステム、および撮像支援方法
US20210358604A1 (en) Interface For Generating Workflows Operating On Processing Dental Information From Artificial Intelligence
KR102380166B1 (ko) 치주염 자동 판단 방법 및 이를 구현하는 프로그램
JP6042983B2 (ja) 歯周病検査装置及び歯周病検査装置に使用する画像処理プログラム
JP2022073148A (ja) コンピュータプログラム、学習モデルの生成方法、情報出力装置、及び情報出力方法
JP5336750B2 (ja) 医用画像診断支援装置及び医用画像診断支援プログラム
JP2023099629A (ja) 識別装置、スキャナシステム、識別方法、および識別用プログラム
JP7267974B2 (ja) 識別装置、スキャナシステム、識別方法、および識別用プログラム
KR102566311B1 (ko) 신경치료를 위한 엔도 가이드 생성 방법 및 시스템
JP7426757B1 (ja) 歯科矯正支援プログラムおよび歯科矯正支援装置
KR102496565B1 (ko) Cbct를 포함한 구강 영상의 원격 판독에 기반한 구강 건강 분석 서비스 제공 장치 및 방법
US20240161300A1 (en) Data processing apparatus, data processing method, and data processing system
US20240185520A1 (en) Intraoral image processing device and intraoral image processing method

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20201125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240627