JP7188826B1 - Ai画像診断装置および歯科用oct画像診断装置 - Google Patents

Ai画像診断装置および歯科用oct画像診断装置 Download PDF

Info

Publication number
JP7188826B1
JP7188826B1 JP2022011470A JP2022011470A JP7188826B1 JP 7188826 B1 JP7188826 B1 JP 7188826B1 JP 2022011470 A JP2022011470 A JP 2022011470A JP 2022011470 A JP2022011470 A JP 2022011470A JP 7188826 B1 JP7188826 B1 JP 7188826B1
Authority
JP
Japan
Prior art keywords
image data
injury
disease
data
tomographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022011470A
Other languages
English (en)
Other versions
JP2023110187A (ja
Inventor
隆信 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshida Dental Mfg Co Ltd
Original Assignee
Yoshida Dental Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Dental Mfg Co Ltd filed Critical Yoshida Dental Mfg Co Ltd
Priority to JP2022011470A priority Critical patent/JP7188826B1/ja
Priority to PCT/JP2022/044362 priority patent/WO2023145254A1/ja
Application granted granted Critical
Publication of JP7188826B1 publication Critical patent/JP7188826B1/ja
Publication of JP2023110187A publication Critical patent/JP2023110187A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】歯科医師がOCT画像を歯科診断・治療に有効に活用できるようにする。【解決手段】AI画像診断装置1は、歯科用OCT装置で撮影された3次元の歯牙画像データが入力され、入力された3次元の歯牙画像データを解析する装置であって、診断対象の3次元の歯牙画像データを構成する各2次元の断層画像データを学習済みモデル10に順次入力することで、当該学習済みモデル10の実行処理結果として、入力した断層画像データにおける傷病等の特徴部と特定される箇所に関するデータである傷病情報データを、3次元の歯牙画像データの各断層画像データについてそれぞれ取得し、取得した傷病情報データを用いて、入力された3次元の歯牙画像データ内から傷病を検出するモデル実行部11を備え、学習済みモデル10は、過去に歯科用OCT装置で撮影された複数の受診者の3次元の歯牙画像データの学習により構築されている。【選択図】図1

Description

本発明は、AI画像診断装置に係り、特に歯科用のOCT装置で撮影された画像を用いるAI画像診断装置および歯科用OCT画像診断装置に関する。
現在、歯科界では、2000年にFDI(国際歯科連盟)によって提唱されたM.I.の治療法が大きく浸透してきている。M.I.とは、ミニマルインターベンション(Minimal Intervention)の略であり、最小限の侵襲によるう蝕治療のことを意味する。歯科用OCT(Optical Coherence Tomography)装置は、X線被曝が無く、高分解能かつ高感度で歯牙の断層画像を得ることができるため、歯科用OCT画像診断装置は、M.I.を実践するための有効な診断装置であると考えられている。
例えば特許文献1に記載されたOCT装置は、高解像度の被写体画像の保存を前提とした計測撮影モードと、低解像度の被写体画像をリアルタイムの動画として表示装置に高速に表示するプレビュー撮影モードと、を備えている。また、特許文献2に記載されたOCT装置は、2次元走査機構によって、歯牙における光照射面において第1スキャンの方向を、水平方向(横)に走査させる横スキャンと、垂直方向(縦)に走査させる縦スキャンとを切り替えて撮影を行うことができる。
特許第5827024号公報 特許第6712106号公報
OCT装置は、高分解能かつ高感度で歯牙の内部を画像化できる特徴がある。反面、高感度であるため、う蝕以外の歯牙内部の性状変化も画像化されてしまい、歯牙の構造及び歯科用OCT画像の特徴を理解しないと、OCT画像での診断が難しい。つまり、OCT画像による診断の経験を積んだ歯科医師でなければ、OCT画像を、歯科診断・治療に有効活用することができない。一方、症状が悪化する前にまたは予防的に早期処置治療を行うことでM.I.の治療法を実現するため、OCT画像による診断の経験が浅い歯科医師を含めた、歯科医師が、OCT画像を、歯科診断・治療に有効活用できるようにすることが望まれている。
本発明は、前記した事情に鑑みてなされたものであり、歯科医師がOCT画像を歯科診断・治療に有効活用できるAI画像診断装置および歯科用OCT画像診断装置を提供することを課題とする。
前記課題を解決するために、本発明に係るAI画像診断装置は、歯科用OCT装置で撮影された3次元の歯牙画像データが入力され、入力された前記3次元の歯牙画像データを解析するAI画像診断装置であって、診断対象の3次元の歯牙画像データを構成する各2次元の断層画像データを学習済みモデルに順次入力することで、当該学習済みモデルの実行処理結果として、入力した前記断層画像データにおける傷病等の特徴部と特定される箇所に関するデータである傷病情報データを、前記3次元の歯牙画像データの各断層画像データについてそれぞれ取得し、取得した前記傷病情報データを用いて、入力された前記3次元の歯牙画像データ内から傷病を検出し、前記学習済みモデルは、過去に歯科用OCT装置で撮影された複数の受診者の3次元の歯牙画像データの学習により構築されていることを特徴とする。
本発明によれば、OCT画像による診断の経験が浅い歯科医師を含めた、歯科医師が、歯科診断・治療の際、有効に歯科用OCT画像診断装置を活用できるようになる。
また、本発明によれば、AI画像診断を使用して、衛生士が、事前に歯科用OCT画像診断装置でスクリーニングすることで、歯科医師の診察時間を減らすことができる。
本発明の実施形態に係るAI画像診断装置の機能ブロック図である。 学習に用いる教師データを生成する作業の概念図である。 学習段階において学習済みモデルを構築する作業の概念図である。 本発明の実施形態に係るAI画像診断装置の画像解析処理の流れを示すフローチャートである。 学習済みモデルの構築処理の流れを示すフローチャートである。 (a)~(c)は教師データの例をそれぞれ示している。 第1の学習済みモデルの利用段階を示す概念図であって、(a)は入力データ、(b)は解析された画像、(c)は出力データをそれぞれ示している。 第2の学習済みモデルの利用段階を示す概念図であって、入力データおよび2つの出力データをそれぞれ示している。 歯科用OCT装置で取得された3D画像データのA断面の断層画像データの例をそれぞれ示している。 歯科用OCT装置の動作の概念図であって、(a)は3D画像データの表示画面、(b)は横スキャンの場合の臼歯の模式図、(c)は縦スキャンの場合の臼歯の模式図をそれぞれ示している。 第1の学習済みモデルを備えるAI画像診断装置の動作例の概念図であって、(a)は傷病情報データ、(b)はグラフ化された類似度をそれぞれ示している。 第1の学習済みモデルを備えるAI画像診断装置の動作例の概念図であって、(a)は傷病のエリア、(b)はエリアの代表点をそれぞれ示している。 第1の学習済みモデルを備えるAI画像診断装置の動作例の概念図であって、(a)はエリア名と歯牙の初期表示画面、(b)は指定されたエリアの表示画面をそれぞれ示している。 第2の学習済みモデルを備えるAI画像診断装置の動作例の概念図であって、(a)は入力データおよび3つの出力データ、(b)は再構成された3D画像データをそれぞれ示している。 第2の学習済みモデルを備えるAI画像診断装置の動作例の概念図であって、(a)は傷病の名称と歯牙の初期表示画面、(b)は指定された傷病の再構成された3D画像が重畳された歯牙の表示画面をそれぞれ示している。 本発明の実施形態に係るAI画像診断装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。 本発明の実施形態に係る歯科用OCT画像診断装置の機能ブロック図である。
本発明に係るAI画像診断装置を実施するための形態について図面を参照して詳細に説明する。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするために誇張していることがある。
[AI画像診断装置の構成]
本発明の実施形態に係るAI画像診断装置の構成について図1を参照して説明する。
AI画像診断装置1は、歯科用OCT装置で撮影された3次元の歯牙画像データが入力され、入力された3次元の歯牙画像データを解析する装置である。以下、歯科用OCT装置で撮影された3次元の歯牙画像データ(ボリュームデータ)を、OCT3D画像と呼称する。AI画像診断装置1に入力するOCT3D画像は、診断画像である。
AI画像診断装置1は、モデル実行部11を備えている。モデル実行部11は、診断対象の3次元の歯牙画像データを構成する各2次元の断層画像データを学習済みモデル10に順次入力することで、当該学習済みモデル10の実行処理結果として、傷病情報データを、3次元の歯牙画像データの各断層画像データについてそれぞれ取得し、取得した傷病情報データを用いて、入力された3次元の歯牙画像データ内から傷病を検出する。傷病情報データは、入力した断層画像データにおける傷病等の特徴部と特定される箇所に関するデータである。
学習済みモデル10は、過去に歯科用OCT装置で撮影された複数の受診者の3次元の歯牙画像データの学習により構築されている。学習済みモデル10は、後記するように、教師データを用いた学習段階で構築される。AI画像診断装置1は、学習済みモデル10の利用段階において、入力されるOCT3D画像(診断画像)をもとに画像診断を行う。なお、詳細は後記するが、学習済みモデル10が傷病情報データを出力する方法としては、数値(傷病等の位置座標)を出力してもよいし、または、画像(傷病等の可視化された位置)を出力してもよい。
モデル実行部11は、OCT3D画像(診断画像)の1つの断層画像データを学習済みモデル10に入力し、解析結果として、その断層画像データの傷病情報データを取得する。モデル実行部11は、1つの断層画像データ中に複数の傷病を検出した場合、それぞれについて、傷病情報データを取得する。モデル実行部11は、1つの断層画像データ中に傷病を検出しなかった場合も、傷病を検出しなかったことを示す類似度0等の情報を有する傷病情報データを取得する。モデル実行部11は、OCT3D画像(診断画像)のすべての断層画像データを学習済みモデル10に入力し、解析結果として、それぞれの断層画像データに対応した傷病情報データを取得する。なお、診断画像は例えば数百の断層画像データから構成されている。図1に示す解析結果13Aは、このすべての断層画像データについての解析結果を指している。検出結果13Bは、モデル実行部11が、解析結果13Aに基づき、診断画像内から検出した傷病の情報である。なお、解析結果13Aや検出結果13Bは、学習済みモデル10の出力内容によって異なっており、学習済みモデルの具体例を説明するときに、そのモデルに応じた解析結果13Aや検出結果13Bを併せて説明する。
AI画像診断装置1は、OCT3D画像(診断画像)を、液晶ディスプレイ等の表示装置15に表示させるビューアとして機能する表示制御部12を備えていてもよい。表示制御部12は、ユーザが操作するマウスやキーボード等の入力装置14から、ユーザが決定または選択した情報(以下、選択情報という)を受け付け、OCT3D画像(診断画像)および検出結果13Bに基づいて所定の画像を、液晶ディスプレイ等の表示装置15に表示させるビューアとして機能する。なお、ユーザの操作による選択情報および表示装置15に表示される所定の画像は、学習済みモデル10の出力内容によって異なっており、学習済みモデル10の具体例を説明するときに、そのモデルに応じた選択情報や画像を併せて説明する。
[学習段階]
次に、学習段階として、教師データの生成、および、モデル構築について図2および図3を参照して説明する。
図2は、学習に用いる教師データを生成する作業の概念図である。図2に示すコンピュータ20は、CPU(Central Processing Unit)21と、記憶装置22と、を備えており、ビューアとして機能する。CPU21は、記憶装置22に記憶されたプログラムに基づき作動し、また、入力装置24、および、表示装置25を制御する。記憶装置22は、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等を備え、断層画像データにラベル付けするために必要なソフトウェア等の各種プログラムを記憶する。入力装置24は、ユーザの指示を入力するものであり、マウスやキーボード等で構成されている。表示装置25は、断層画像を表示するものであり、例えば液晶ディスプレイで構成されている。表示装置25の画面上には、ウィンドウ、アイコン、ボタン等が表示され、操作者(歯科医師)はそれらを入力装置24で選択する操作を行うことができる。
操作者(歯科医師)は、ビューア(コンピュータ20)を使用して、歯科用OCT装置で撮影された歯牙画像(OCT3D画像)の断層画像を確認しながら、傷病の画像(傷病の特徴部)を探す。操作者(歯科医師)は、傷病の特徴部を見つけた断層画像に、傷病の特徴部を分類するためにラベル付けを行う。すなわち、例えば傷病の名称等の入力操作を行って作成したラベル、または、予め用意された複数のラベルの中から選択したラベルを断層画像データに付加することで教師データを作成し、保存する。このようなラベル付けを行う作業をアノテーションという。図2および図3に示す教師データ30は、ラベル付けが済んだ断層画像の集合体、例えば1000個の断層画像の集合体を模式的に示している。
教師データは、A断面の断層画像データ、L断面の断層画像データ、S断面の断層画像データ、en-face画像データ、および、連続した数枚の断層画像データからなる3次元画像データのうちの少なくとも1つを含むことができる。ここで、A,L,Sは、互いに異なる断面の方向を表している。具体的には、A断面は、歯牙においてOCTのレーザ光が照射される照射方向であるA軸方向に対して直交するB軸方向と前記A軸方向との両方の軸方向で特定される平面に平行な断面である。L断面は、A軸方向およびB軸方向にそれぞれ直交するV軸方向と前記A軸方向との両方の軸方向で特定される平面に平行な断面である。S断面は、B軸方向とV軸方向との両方の軸方向で特定される平面に平行な断面である。en-face画像データは、OCTのレーザ光が照射された歯牙の表面の情報と、A軸方向の情報とを合成した画像データである。このen-face画像データには、外表面に本来表れない内部情報も合成されている。
また教師データは、A断面の断層画像データおよびL断面の断層画像データを少なくとも含むことが好ましい。傷病1箇所につき、断面は、A断面とL断面とS断面の3画像あるので、これら3つの断層画像データにラベル付けし、3つとも教師データとすることができる。
教師データに付加するラベルには、傷病の名称を入力する。断層画像における傷病の特徴部(以下、傷病特徴部という)は、傷病の画像のことであり、例えば、初期う蝕(Ce)、う蝕(C1以上)、2次う蝕、根面う蝕、亀裂、破折、咬耗のうちの少なくとも1つの傷病を示す画像である。
教師データに付加するラベルには、傷病の名称の他に、歯牙の種類を入力してもよい。歯牙の種類は、例えば、臼歯、切歯、犬歯に大別することができる。また、別の観点では永久歯と乳歯に分けることもできる。これら歯牙の種類として、歯式を用いることもできる。例えばFDI方式(Two-digit system)の歯式であれば、2桁の数字を入力するだけで、それが、永久歯なのか乳歯なのか識別され、かつ、臼歯なのか切歯なのか犬歯なのかが識別可能である。歯牙は、種類によって、外観形状、内部構造が異なっているので、教師データに付加するラベルに、歯牙の種類を入力することで、よりいっそう、傷病の有無等の適切な判断をすることが可能になる。
また、教師データに付加するラベルには、画像データの種類を入力してもよい。画像データの種類としては、A断面の断層画像、L断面の断層画像、S断面の断層画像、en-face画像、3D画像を挙げることができる。これらは、例えばA、L、S、en、3Dのように2文字以内で識別可能である。
さらに、教師データに付加するラベルに、傷病以外の名称を含めてもよい。この場合、操作者(歯科医師)は、断層画像中において傷病以外の特徴部(以下、非傷病特徴部という)として例えば歯垢の画像を見つけると、ラベルには、傷病以外の名称として歯垢を入力する。断層画像における非傷病特徴部は、傷病以外の画像のことであり、例えば、メタル、セラミック、レジン、歯垢(プラーク)、唾液による泡、の少なくとも1つを示す画像である。これらは傷病以外の画像であるが、教師データに付加するラベルに、傷病以外の名称を入力することで、よりいっそう、傷病の有無等の適切な判断をすることが可能になる。
図3は、学習段階において学習済みモデルを構築する作業の概念図である。図3に示すモデル構築器40は、CPU41と、記憶装置42と、を備えており、学習器として機能する。CPU41は、記憶装置42に記憶されたモデル構築処理プログラム43に基づき作動する。モデル構築処理プログラム43は、ニューラルネットワークなどの機械学習アルゴリズムを実行するプログラムを模式的に示している。モデル構築器40に教師データ30を入力して訓練することで、学習済みモデル10を構築することができる。
なお、教師データ30を作成する際、操作者(歯科医師)は、断層画像から、特徴部(傷病等の画像)を見つけ、そこにラベル付けを行った。これに対して、学習済みモデルは、入力された断層画像から、特徴部(傷病等の画像)を見つけ、傷病情報データを出力する。
[AI画像診断装置の動作]
次に、AI画像診断装置1による画像解析処理の流れについて図4を参照(適宜図1参照)して説明する。図4は、AI画像診断装置1の画像解析処理の流れを示すフローチャートである。図4に示すように、まず、図示しない歯科用OCT装置が、診断画像(ボリュームデータ)を取得する(ステップS1)。そして、AI画像診断装置1は、モデル実行部11によって、学習済みモデル10に診断画像の断層画像データを入力する(ステップS2)。なお、診断画像の断層画像データは、外部装置からその都度取得したものを入力してもよいし、AI画像診断装置1の記憶装置に格納しておいたものを入力してもよい。
そして、学習済みモデル10は、断層画像を解析し、断層画像内で見つかった傷病について、例えば傷病の名称、中心座標、類似度等を解析結果として出力し(ステップS3)、モデル実行部11は、解析結果を取得する(ステップS4)。そして、モデル実行部11は、全ての断層の解析が終了したか否かを判別する(ステップS5)。まだ解析していない断層がある場合(ステップS5:No)、モデル実行部11は、ステップS2へ戻る。一方、全ての断層の解析が終了した場合(ステップS5:Yes)、モデル実行部11は、これまでに取得した解析結果13Aを基に、診断画像(ボリュームデータ)中の、傷病の検出結果13Bを決定する(ステップS6)。そして、AI画像診断装置1は、表示制御部12を備えている場合、入力装置14からユーザの選択情報を受け付け、表示制御部12によって、検出結果13Bを基に、ユーザによって選択された傷病を診断画像(ボリュームデータ)から探索して、傷病のある断層画像を表示装置15に表示する(ステップS7)。
[学習済みモデル構築処理]
次に、一例として、教師データの生成と、学習済みモデル構築と、を一連の作業として行う場合の処理の流れについて図5を参照(適宜図2および図3参照)して説明する。図5は、学習済みモデルの構築処理の流れを示すフローチャートである。図5に示すように、まず、ビューアとして機能するコンピュータ20は、OCT画像を取得する(ステップS11)。このOCT画像は、教師用データを生成するために予め撮影されたOCT3D画像の断層画像の生データである。この断層画像データは、外部装置からその都度取得してもよいし、コンピュータ20の記憶装置22に格納しておいてもよい。そして、操作者(歯科医師)が、ビューアで、断層画像を確認しながら、傷病を探す(ステップS12)。そして、操作者(歯科医師)は、傷病を見つけた断層画像について、傷病毎に分類したラベルの入力、歯牙種類(歯式)の入力を行い、ラベル付けをした断層画像データを教師データ30として保存する(ステップS13)。そして、教師データ30をモデル構築器40に入力してモデルを訓練する(ステップS14)。モデルの構築が完了したら(ステップS15:Yse)、そのときのモデルが学習済みモデル10として構築されて処理を終了する。一方、モデルの構築が完了していなければ(ステップS15:No)、ステップS11に戻る。なお、ステップS14の処理は、例えは1000個のラベル付けがなされた断層画像に対する訓練が終わるまで繰り返される。
[学習済みモデルの出力方法]
以下、傷病情報データとして、数値(傷病等の位置座標)を出力する学習済みモデル10を、第1の学習済みモデルと呼称し、画像(傷病等の可視化された位置)を出力する学習済みモデル10を、第2の学習済みモデルと呼称し、順次説明する。
<第1の学習済みモデル>
第1の学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病特徴部が存在する断層画像データを第1の教師データとして用い、入力された断層画像データから、傷病特徴部を探索し、傷病情報データを出力するように機械学習を行って構築されたものである。
傷病情報データは、少なくとも、特徴部の名称、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度が最も高い点における座標を示す中心位置、および、前記中心位置を示す点に付与された類似度を含む。傷病情報データの「特徴部の名称」は、例えば初期う蝕やう蝕等であり、前記した教師データに付加するラベルに入力する名称と同様である。「類似度」は、傷病の画像と類似する度合いであって、傷病と一致する確率を示す。
学習段階において、モデル構築器40(図3)に教師データ30を入力し、訓練されることで第1の学習済みモデル(学習済みモデル10)が構築される。図6(a)~図6(c)は、学習段階で使用される教師データの例を示す。図6(a)に示す教師データは、断層画像に楕円形の印101と、印102とが付加されている。印101は、教師データの生成段階において、歯科医師が、臼歯の断層画像中に見つけた傷病を取り囲むように付加したもので、見つけた傷病に「う蝕」のラベルを入力したことを示している。印102は、同様に見つけた傷病に付加したもので、「初期う蝕」のラベルを入力したことを示している。図6(b)に示す教師データは、傷病以外の画像の例である。印103は、臼歯の断層画像中に見つけた傷病以外の画像に付加したもので、「レジン」のラベルを入力したことを示している。図6(c)に示す教師データの印104は、前歯の断層画像中に見つけた傷病に付加したもので、「根面う蝕」のラベルを入力したことを示している。
次に、利用段階における第1の学習済みモデルの入出力データについて図7を参照して説明する。図7(a)は、診断対象の断層画像データの一例を示している。この断層画像110を第1の学習済みモデルに入力して解析された画像の模式図を図7(b)に示し、このとき第1の学習済みモデルから出力される傷病情報データの例を図7(c)に示す。図7(b)の概念図は、図7(a)に示す断層画像110の拡大図であって、傷病と推定される画像が検出されたエリア111,112と、横軸(X軸)および縦軸(Y軸)と、が付加されている。縦軸および横軸の目盛りは位置座標を示す。一例として診断画像を構成する断層総数は400としている。図7(c)に示す傷病情報データは、エリア111の画像が、類似度70%で初期う蝕であると判定され、初期う蝕の類似度が最も高い点の座標(310,195)が中心位置として求められていることを示す。同様に、エリア112の画像は類似度90%でう蝕であると判定されていることを示す。
第1の学習済みモデルは、1つの断層画像データ内に、複数の傷病を発見した場合は、傷病それぞれについて、上記傷病情報データを出力する。
第1の学習済みモデルは、診断画像に同じ種類の傷病を発見した場合、区別が付く名称を付ける。例えばう蝕であれば、「う蝕_01」「う蝕_02」のように区別してもよい。
第1の学習済みモデルは、1枚の断層画像データ内を探索することで傷病を判定することが可能であるが、連続した前後数枚の断層画像データを用いて探索した結果から傷病を判定することもできる。
AI画像診断装置1のモデル実行部11は、傷病情報データを第1の学習済みモデルから取得する。
上記第1の学習済みモデルは、傷病特徴部が存在する断層画像データを第1の教師データとして用いた機械学習を行って構築されたものであると説明したが、傷病特徴部が存在する断層画像データと非傷病特徴部が存在する断層画像データとを教師データとして用いてもよい。この変形例の場合、第1の学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病特徴部が存在する断層画像データと非傷病特徴部が存在する断層画像データとを第2の教師データとして用い、入力された断層画像データから、傷病特徴部および非傷病特徴部を探索し、傷病情報データを出力するように機械学習を行って構築されたものとなる。
<第2の学習済みモデル>
第2の学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病特徴部が存在する断層画像データを第1の教師データとして用い、入力された断層画像データから、傷病特徴部を探索し、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度を画素値に置き換えた画像データである一致度を表した画像を生成することで、当該特徴部の位置を可視化して出力するように機械学習を行って構築されたものである。傷病情報データは、少なくとも、特徴部の名称、および、一致度を表した画像を含む。一致度を表した画像とは、傷病の類似度を画素値(明るさを表す数値)に置き換えた画像データである。第2の学習済みモデルは、類似度が高いほど画素値を大きくする(明るくする)。つまり、一致度を表した画像は、傷病と推定される部分が明るく、傷病と推定されない部分は暗い画像である。
学習段階において、モデル構築器40(図3)に教師データ30を入力し、訓練されることで第2の学習済みモデル(学習済みモデル10)が構築される。図6(a)~図6(c)は、学習段階で使用される教師データの例を示す。
次に、利用段階における第2の学習済みモデルの入出力データについて図8を参照して説明する。図8に示す断層画像120は、診断対象の断層画像データの一例を示している。この断層画像120を第2の学習済みモデルに入力したときに出力される一致度を表した画像は、断層画像120の右側に示す2枚の画像である。図8において上に配置された出力画像は、初期う蝕121の一致度を表した画像であり、下に配置された出力画像は、う蝕122の一致度を表した画像である。
第2の学習済みモデルは、1枚の断層画像データ内を探索することで傷病を判定することが可能であるが、連続した前後数枚の断層画像データを用いて探索した結果から傷病を判定することもできる。
AI画像診断装置1のモデル実行部11は、第2の学習済みモデルから取得した3次元の歯牙画像データの各断層画像データについての傷病情報データに基づいて、傷病情報データに含まれる特徴部の名称を選択情報として決定し、傷病情報データに含まれる一致度を表した画像を特徴部の名称毎に再構成することで当該特徴部の3次元の画像を生成し、生成した特徴部の3次元の画像を3次元の歯牙画像データ内の傷病の検出結果13Bとする。
第2の学習済みモデルは、特徴部との類似度を画素値に置き換える際、類似度が予め設定された閾値より小さい画素の画素値を0に変換する処理をして一致度を表した画像を生成するようにしてもよい。この場合、AI画像診断装置1のモデル実行部11は、一致度を表した画像として、類似度が閾値より小さい画素の画素値を0に変換する処理がなされた画像を第2の学習済みモデルから取得する。このようにすることで、傷病が発見された断層画像において当該傷病との類似度が低い箇所は全て真っ黒になった画像が一致度を表す画像として出力される。したがって、一致度を表す画像が見やすくなる。
上記第2の学習済みモデルは、傷病特徴部が存在する断層画像データを第1の教師データとして用いた機械学習を行って構築されたものであると説明したが、傷病特徴部が存在する断層画像データと非傷病特徴部が存在する断層画像データとを教師データとして用いてもよい。この変形例の場合、第2の学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病特徴部が存在する断層画像データと非傷病特徴部が存在する断層画像データとを第2の教師データとして用い、入力された断層画像データから、傷病特徴部および非傷病特徴部を探索し、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度を画素値に置き換えた画像データである一致度を表した画像を生成することで、当該特徴部の位置を可視化して出力するように機械学習を行って構築されたものとなる。
[実施例1]
次に、AI画像診断装置1が、入力するOCT3D画像(診断画像)から前記第1の学習済みモデルを用いて傷病を検出する例(実施例1)について説明する。実施例1のAI画像診断装置1のモデル実行部11は、第1の学習済みモデルから取得した3次元の歯牙画像データの各断層画像データについての傷病情報データに基づいて、断層位置と特徴部の類似度との関係を特徴部毎にグラフ化して、グラフ上で連続した断層位置において類似度が所定の閾値を超える領域を求め、各領域それぞれに選択情報として領域の名称を決定し、領域の名称が決定されたそれぞれの領域に、特徴部の名称、領域内で最も高い類似度が付与された点を有する断層位置、および、最も高い類似度が付与された点を有する断層位置における中心位置を、領域の名称と関連付けることで3次元の歯牙画像データ内の傷病の検出結果を生成する。
そして、実施例1のAI画像診断装置1が表示制御部12を備えている場合、表示制御部12は、ユーザ操作により選択情報である領域の名称が入力されると、モデル実行部11によって生成された傷病の検出結果13Bに基づいて、入力された3次元の歯牙画像データから、当該領域の名称に対応する断層画像データを抽出し、当該断層画像を含む歯牙画像を表示装置15に表示させる。
具体的には、実施例1のAI画像診断装置1のモデル実行部11は、歯科用OCT装置で取得した3D画像データのA断面の断層画像データを、前方から後方に向かって(前後方向)順番に、第1の学習済みモデルに入力する。第1の学習済みモデルに順番に入力されるA断面の断層画像データの例を図9に示す。図9に示す断層画像データや、学習段階の教師データは、歯科用OCT装置において高解像度の被写体画像の保存を前提とした計測撮影モードで撮影されたものである。なお、モデル実行部11は、A断面のすべての断層画像データを順番に第1の学習済みモデルに入力してもよいが、数枚おきに第1の学習済みモデルに入力してもよい。このようにすることで、高速に処理することができる。
歯科用OCT装置で撮影された3D画像をディスプレイに表示した画面例を図10(a)に示す。図10(a)において左の画像は3D画像である。図10(a)において右側に4分割して示す4つの画像は、それぞれ、A断面の断層画像(左上)、L断面の断層画像(右上)、S断面の断層画像(右下)、en-face画像(左下)である。
学習段階において、教師データとする画像に、A断面の断層画像およびL断面の断層画像を含む場合、利用段階において、ユーザは、横スキャンにより構築された断層画像と、縦スキャンにより構築された断層画像のいずれかを選択することができるので、使い勝手が良くなる。
横スキャンおよび縦スキャンについて図10(b)および図10(c)を参照して説明する。歯科用OCT装置は、歯牙にレーザ光を照射することで多数のデータ取得ポイントを有するAスキャンデータ131を1ラインずつ取得する。歯科用OCT装置は、横スキャンによる撮影時には、図10(b)に示すように、複数のAスキャンデータ131をB軸方向に沿って3D座標空間に書き込むことで、A断面の断層画像データ132Aを得て、この断層画像データ132AをV軸方向に積層することで3D画像データ130を構築する。歯科用OCT装置は、縦スキャンによる撮影時には、図10(c)に示すように、複数のAスキャンデータ131をV軸方向に沿って3D座標空間に書き込むことで、L断面の断層画像データ132Lを得て、この断層画像データ132LをB軸方向に積層することで3D画像データ130を構築する。例えば、根面う蝕や歯肉の診断をする場合、横スキャンよりも縦スキャンを使用する方が好適である。なお、詳細は特許文献2に記載されているので、これ以上の説明は省略する。
実施例1のAI画像診断装置1のモデル実行部11は、例えば、ユーザ操作により、横スキャンと縦スキャンのいずれかの指示を受け付け、横スキャンの指示を受け付けると第1の学習済みモデルにA断面の断層画像データを入力し、また、縦スキャンの指示を受け付けると第1の学習済みモデルにL断面の断層画像データを入力して、第1の学習済みモデルの演算処理を実行させる。または、モデル実行部11は、例えば、入力された3次元の歯牙画像データに含まれる歯科用OCT装置で撮影されたときのスキャン方向の情報を判定し、横スキャンの情報が含まれると判定すると第1の学習済みモデルにA断面の断層画像データを入力し、また、縦スキャンの情報が含まれると判定すると第1の学習済みモデルにL断面の断層画像データを入力して、第1の学習済みモデルの演算処理を実行させるようにしてもよい。
第1の学習済みモデルは、入力された断層画像データから傷病を見つけ、傷病情報データ(特徴部の名称、中心位置、類似度)を出力する。図11は、一例として診断画像を構成する断層総数を400として全ての断層画像データについて、第1の学習済みモデルで解析を行って取得した傷病情報データの例である。
図11(a)は、全400断層のうち、断層20枚目、100枚目、200枚目、300枚目に関する傷病情報データをそれぞれ示している。この例では、全断層を通じて、傷病として、初期う蝕、う蝕、亀裂が見つかっているが、例えば、20枚目の断層画像データには、これらの傷病が発見されなかった。
実施例1のAI画像診断装置1のモデル実行部11が、これら全断層画像データについての傷病情報データに基づいて、特徴部毎に断層位置と特徴部の類似度との関係を求めたグラフの一例を図11(b)に示す。図11(b)において横軸は断層位置を示し、縦軸は類似度(%)を示す。太線は初期う蝕(Ce)、破線はう蝕(C1以上)、点線は亀裂をそれぞれ示している。破線のグラフや点線のグラフは、1つのピークを有する形状のグラフである。これに対し、太線(う蝕)のグラフは、2つのピークを有する形状のグラフとなっており、2カ所のう蝕が発見された可能性がある。
実施例1のAI画像診断装置1のモデル実行部11は、図12(a)に示すように、グラフ上で連続した断層位置において類似度が所定の閾値を超える領域a1,a2,a3,a4を求め、各領域それぞれに選択情報として領域の名称を決定する。この例では、類似度の閾値を60として、領域の境界を決定した。領域a1の名称は、「初期う蝕_1」、領域a2の名称は、「う蝕_1」、領域a3の名称は、「亀裂_1」、領域a4の名称は、「初期う蝕_2」とする。これら領域の名称は、実施例1のAI画像診断装置1の表示制御部12の処理において、選択情報として用いられる。
実施例1のAI画像診断装置1のモデル実行部11は、領域の名称が決定されたそれぞれの領域内で最も高い類似度が付与された点を有する断層位置、および、最も高い類似度が付与された点を有する断層位置における中心位置をその領域の代表点として、領域の名称(選択情報)と関連付けることで3次元の歯牙画像データ内の傷病の検出結果13B(図1参照)を生成する。検出結果13Bの一例を図12(b)に示す。図12(b)において、例えば領域の名称が「初期う蝕_1」のデータは、領域a1内における初期う蝕の中心位置が、断層位置100の断層画像データの座標(152,102)に在ることを表している。
実施例1のAI画像診断装置1が表示制御部12を備えている場合、表示制御部12(OCT3Dビューア)に、OCT3D画像データ(診断画像)、及び、図12(b)に示す検出結果13B(傷病の領域の代表点データ)を入力する。これにより、実施例1の表示制御部12は、診断画像を表示装置15に表示させると共に、第1の学習済みモデルが出力する傷病情報データにおける特徴部の名称(傷病の名称)に基づいてモデル実行部11で決定した領域の名称を選択情報として列挙して表示装置15に表示させる。このときの領域の名称と歯牙の初期表示画面を図13(a)に示す。OCT画像を表示するビューアでは、A断面の断層画像、L断面の断層画像、およびS断面の断層画像には、切断面を示す直交する2つの直線が表示され、3D画像にはその切断面が立体的に表示される。そして、断層画像中の切断面を示す直線の位置を変更することにより、目的とする断層の抽出を簡単に行うことができる。図13(a)では、歯牙の表示画面の右側に領域の名称が4つ表示されている。
この初期画面表示を見たユーザが、マウス等の入力装置14を用いて領域の名称(選択情報)として例えば「う蝕 1」を選択する操作(クリック)を行うと、実施例1の表示制御部12は、検出結果13B(傷病の領域の代表点データ)から、当該領域の名称と関連付けられた傷病(う蝕 1)の領域の断層位置と中心位置とを探索し、探索して得られた断層位置、中央位置に切断面を移動した断層画像を図13(b)のように表示する。図13(b)は、図13(a)の初期画面表示から遷移した画面表示を示している。図13(a)および図13(b)において符号141は、A断面の断層画像の表示領域を指している。図13(b)のA断面の断層画像は、図13(a)のA断面の断層画像(初期画像)とは異なり、う蝕が存在する断層画像である。同様に、図13(b)には、L断面の断層画像およびS断面の断層画像においても、う蝕が存在する断層画像が表示されている。
表示装置15のディスプレイに表示中の画像が、どの傷病の画像であるのかをユーザに報知するようにしてもよい。図13(b)の表示画面では、ユーザが選択した領域の名称(選択情報)のボタン142の枠を太線で強調表示したが、選択中のボタンの色を変更してもよい。
本実施例(実施例1)では、入力するOCT3D画像が歯科用OCT装置の計測撮影モードで取得されたものとして説明を行ったが、これ以外に、歯科用OCT装置のプレビュー撮影モードで取得したOCT3D画像を用いることも可能である。特許文献1に記載の歯科用OCT装置は、プレビュー撮影モードにおいて、被写体画像をリアルタイムの動画として表示装置に高速に表示する。例えば、実施例1のAI画像診断装置1は、前記歯科用OCT装置から、プレビュー撮影モードで撮影中の3D画像データ(ビデオメモリ内のデータ)を取得する。そして、実施例1のAI画像診断装置1は、モデル実行部11によって、取得した撮影中の3D画像データを構成する断層画像データを第1の学習済みモデルに順次入力することで、同様に、第1の学習済みモデルから傷病情報データを取得して傷病を検出することができる。
[実施例2]
次に、AI画像診断装置1が、入力するOCT3D画像(診断画像)から前記第2の学習済みモデルを用いて傷病を検出する例(実施例2)について説明する。実施例2のAI画像診断装置1のモデル実行部11は、歯科用OCT装置で取得した3D画像データのA断面の断層画像データを、前方から後方に向かって(前後方向)順番に、第2の学習済みモデルに入力する。第2の学習済みモデルに順番に入力されるA断面の断層画像データの例を図9に示す。なお、実施例2のモデル実行部11は、A断面のすべての断層画像データを順番に第2の学習済みモデルに入力してもよいが、数枚おきに第2の学習済みモデルに入力してもよい。このようにすることで、高速に処理することができる。
実施例2のAI画像診断装置1のモデル実行部11も、例えば、ユーザ操作により、横スキャンと縦スキャンのいずれかの指示を受け付けることによって、第2の学習済みモデルに対して入力するデータを、A断面の断層画像データとするか、L断面の断層画像データとするかを切り替えるように構成することができる。または、入力されたOCT3D画像に含まれる撮影時のスキャン方向の情報を判定することによって、第2の学習済みモデルに対して入力するデータを、A断面の断層画像データとするか、L断面の断層画像データとするかを切り替えるように構成することができる。
第2の学習済みモデルは、入力された断層画像データから傷病を見つけ、傷病情報データ(特徴部の名称、および、一致度を表した画像)を出力する。
実施例2のAI画像診断装置1のモデル実行部11は、例えば診断画像を構成する断層総数を400として全ての断層画像データについて、第2の学習済みモデルで解析を行って、それぞれの断層画像データ内で画像を構成する各点に特徴部との類似度を付与し、全断層画像データを通じて、傷病として、初期う蝕、う蝕、亀裂を発見していることとする。なお、これら発見された特徴部の名称は、実施例2のAI画像診断装置1の表示制御部12の処理において、選択情報として用いられる。
第2の学習済みモデルは、例えば図14(a)に示す断層画像150が入力されると、特徴部毎に、一致度を表した画像を出力する。すなわち、第2の学習済みモデルは、初期う蝕151の一致度を表した画像と、う蝕152の一致度を表した画像と、亀裂の一致度を表した画像153の3枚の一致度を表した画像を出力する。なお、亀裂の一致度を表した画像153が単なる真っ黒な画像となっているのは、このとき入力された断層画像150には亀裂が見つからなかったためである。
第2の学習済みモデルは、全ての断層画像データについて解析を行い、傷病の名称毎(特徴部の名称毎)に、断層総数と同じ枚数の一致度を表した画像を生成する。実施例2のAI画像診断装置1のモデル実行部11は、第2の学習済みモデルから一致度を表した画像を取得し、傷病の名称毎(特徴部の名称毎)に一致度を表した画像を再構成して3次元の画像データを生成する。モデル実行部11が、例えば、全断層画像データについてのう蝕の一致度を表した画像を再構成すると、う蝕のみのボリュームデータ154(図14(b)参照)を生成することができる。再構成により生成した特徴部の3次元の画像は、入力するOCT3D画像データ(診断画像)内の傷病の検出結果13B(図1参照)の一例である。
実施例2のAI画像診断装置1が表示制御部12を備えている場合、表示制御部12(OCT3Dビューア)に、OCT3D画像データ(診断画像)、及び、図14(b)に示すようなボリュームデータ(検出結果13B)を入力する。これにより、実施例2の表示制御部12は、診断画像を表示装置15に表示させると共に、第2の学習済みモデルで検出した特徴部の名称を選択情報として列挙して表示装置15に表示させる。このときの特徴部の名称と歯牙の初期表示画面を図15(a)に示す。図15(a)では、歯牙の表示画面の右側に特徴部の名称が3つ表示されている。
この初期画面表示を見たユーザが、マウス等の入力装置14を用いて特徴部の名称(選択情報)として例えば「う蝕」を選択する操作(クリック)を行うと、実施例2の表示制御部12は、OCT3D画像データ(診断画像)に、当該特徴部(う蝕)の3次元の画像を図15(b)のように重畳表示させ、う蝕を可視化する。図15(b)は、図15(a)の初期画面表示から遷移した画面表示を示しており、符号161は、A断面の断層画像の表示領域を指している。図15(b)には、3D画像表示領域の歯牙に、う蝕のみのボリュームデータ154(図14(b)参照)が重畳されていることが分かる。このとき、実施例2の表示制御部12は、う蝕のみのボリュームデータを、断層画像にも重畳表示する。すなわち、A断面の断層画像、L断面の断層画像およびS断面の断層画像に、一致度を表した画像を重畳して表示する。
図15に示す例では、1画面に1つの特徴部を表示したが、1画面に複数の特徴部を表示してもよいし、特徴部毎に色分けしてもよい。表示装置15のディスプレイに表示中の特徴部の3次元の画像が、どの傷病の画像であるのかをユーザに報知するようにしてもよい。図15(b)の表示画面では、ユーザが選択した特徴部の名称(選択情報)のボタン162の枠を太線で強調表示したが、選択中のボタンの色を変更してもよい。
実施例2によれば、OCT3D画像データに傷病特徴部の3次元の画像を重畳表示することで、傷病の位置や広がりが、視覚的、定量的(面積、体積)に把握しやすくなる。
また、学習段階において教師データに付加するラベルに、歯垢(傷病以外の物)を含めて第2の学習済みモデルを構築している場合、歯牙のOCT3D画像データに歯垢の特徴部の3次元の画像を重畳表示することができる。一般的に、歯磨き指導は、歯垢染色剤で歯垢を染色して、磨き残しを確認して行われている。染色剤は衣服に付着すると、色が落ちなくなるため、注意が必要である。これに対して、実施例2によれば、歯垢(プラーク)の付着状態を可視化し、定量的に捉えることができるため、染色剤を使うとことなく歯磨き(ブラッシング)指導に用いることができる。
[ハードウェア構成]
次に、本実施形態に係るAI画像診断装置1の機能を実現するコンピュータの一例を示すハードウェア構成について図16を参照して説明する。コンピュータ200は、CPU201と、記憶装置202と、入出力IF(Interface)203と、画像データ入力用IF204と、を有する。
CPU201は、記憶装置202に記憶されたプログラムに基づき作動し、制御部(図1に示す、モデル実行部11、表示制御部12)による制御を行う。CPU201は、入出力IF203を介して、マウスやキーボード等の入力装置14、および、液晶ディスプレイ等の表示装置15を制御する。CPU201は、入出力IF203を介して、入力装置14からデータを取得するともに、生成したデータを表示装置15へ出力する。なお、プロセッサとしてCPU201とともに、GPU(Graphics Processing Unit)等を用いても良い。
記憶装置202は、ROM、RAM、HDD等を備える。記憶装置202は、コンピュータ200の起動時にCPU201により実行されるブートプログラム、コンピュータ200のハードウェアに係るプログラム等を記憶する。記憶装置202は、CPU201により実行されるプログラム(学習済みモデル実行プログラム、ビューアプログラム)および当該プログラムによって使用されるデータ等を記憶する。
画像データ入力用IF204は、通信IFやメディアIF等を備える。画像データ入力用IF204は、例えば通信網を介して他の装置から画像データを受信してCPU201へ出力したり、記録媒体に格納された画像データを読み取り、記憶装置202を介してCPU201へ出力したりする。例えば、コンピュータ200が実施形態に係るAI画像診断装置1として機能する場合、CPU201は、RAM上にロードされた学習済みモデル実行プログラムおよびビューアプログラムを実行することによりAI画像診断装置1の機能を実現する。
[歯科用OCT画像診断装置]
次に、本発明の実施形態に係る歯科用OCT画像診断装置について図17を参照して説明する。歯科用OCT画像診断装置2は、歯科用OCT装置3に、AI画像診断装置1を搭載して構成されている。AI画像診断装置1については既に説明した通りなので、説明を省略する。歯科用OCT装置3は、歯牙の画像を撮影するために必要な各種構成を備える。歯科用OCT装置3は、例えば、OCT光源、OCT光源から出射されたレーザー光を分岐した測定光および参照光のそれぞれの光学系、測定光を走査(スキャン)する2次元走査機構、歯牙からの反射光と参照光とを合波した光を検出する検出器、制御部等が含まれる。このような構成は従来公知であり、例えば特許文献1や特許文献2に記載されたOCT装置を採用することもできる。歯科用OCT画像診断装置2によれば、撮影から画像診断までを一貫して行うことができる。
以上、本発明の実施形態に係るAI画像診断装置および歯科用OCT画像診断装置について説明したが、本発明の趣旨はこれらの記載に限定されるものではなく、特許請求の範囲の記載に基づいて広く解釈されなければならない。また、これらの記載に基づいて種々変更、改変などしたものも本発明の趣旨に含まれることはいうまでもない。例えば、図1および図17のAI画像診断装置1は、表示制御部12や表示装置15を備えていることとしたが、いずれも必須構成ではない。この場合、別に設けたビューアに、AI画像診断装置に入力するOCT3D画像(診断画像)やAI画像診断装置で検出する傷病の検出結果等を表示すればよい。
1 AI画像診断装置
2 歯科用OCT画像診断装置
3 歯科用OCT装置
10 学習済みモデル
11 モデル実行部
12 表示制御部
13A 解析結果
13B 検出結果
14 入力装置
15 表示装置
20 コンピュータ
21 CPU
22 記憶装置
24 入力装置
25 表示装置
30 教師データ
40 モデル構築器
41 CPU
42 記憶装置
43 モデル構築処理プログラム

Claims (13)

  1. 歯科用OCT装置で撮影された3次元の歯牙画像データが入力され、入力された前記3次元の歯牙画像データを解析するAI画像診断装置であって、
    診断対象の3次元の歯牙画像データを構成する各2次元の断層画像データを学習済みモデルに順次入力することで、当該学習済みモデルの実行処理結果として、入力した前記断層画像データにおける傷病等の特徴部と特定される箇所に関するデータである傷病情報データを、前記3次元の歯牙画像データの各断層画像データについてそれぞれ取得し、取得した前記傷病情報データを用いて、入力された前記3次元の歯牙画像データ内から傷病を検出するモデル実行部を備え、
    前記学習済みモデルは、過去に歯科用OCT装置で撮影された複数の受診者の3次元の歯牙画像データの学習により構築されていることを特徴とするAI画像診断装置。
  2. 前記学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病の特徴部である傷病特徴部が存在する断層画像データを教師データとして用い、入力された断層画像データから、傷病特徴部を探索し、前記傷病情報データを出力するように機械学習を行って構築されたものであり、
    前記傷病情報データは、少なくとも、特徴部の名称、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度が最も高い点における座標を示す中心位置、および、前記中心位置を示す点に付与された類似度を含み、
    前記モデル実行部は、前記学習済みモデルから取得した前記3次元の歯牙画像データの各断層画像データについての前記傷病情報データに基づいて、断層位置と前記特徴部の類似度との関係をグラフ化して、前記特徴部毎に、グラフ上で連続した断層位置において類似度が所定の閾値を超える領域を求め、各前記領域それぞれに選択情報として領域の名称を決定し、前記領域の名称が決定されたそれぞれの領域に、特徴部の名称、領域内で最も高い類似度が付与された点を有する断層位置、および、前記最も高い類似度が付与された点を有する断層位置における前記中心位置を、前記領域の名称と関連付けることで前記3次元の歯牙画像データ内の傷病の検出結果を生成する
    ことを特徴とする請求項1に記載のAI画像診断装置。
  3. 前記学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病の特徴部である傷病特徴部が存在する断層画像データと傷病以外の特徴部である非傷病特徴部が存在する断層画像データとを教師データとして用い、入力された断層画像データから、傷病特徴部および非傷病特徴部を探索し、前記傷病情報データを出力するように機械学習を行って構築されたものであり、
    前記傷病情報データは、少なくとも、特徴部の名称、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度が最も高い点の座標を示す中心位置、および、前記中心位置を示す点に付与された類似度を含み、
    前記モデル実行部は、前記学習済みモデルから取得した前記3次元の歯牙画像データの各断層画像データについての前記傷病情報データに基づいて、断層位置と前記特徴部の類似度との関係を特徴部毎にグラフ化して、グラフ上で連続した断層位置において類似度が所定の閾値を超える領域を求め、各前記領域それぞれに選択情報として領域の名称を決定し、前記領域の名称が決定されたそれぞれの領域に、特徴部の名称、領域内で最も高い類似度が付与された点を有する断層位置、および、前記最も高い類似度が付与された点を有する断層位置における前記中心位置を、前記領域の名称と関連付けることで前記3次元の歯牙画像データ内の傷病の検出結果を生成する
    ことを特徴とする請求項1に記載のAI画像診断装置。
  4. ユーザ操作により前記選択情報である前記領域の名称が入力されると、前記モデル実行部によって生成された前記傷病の検出結果に基づいて、前記入力された3次元の歯牙画像データから、当該領域の名称に対応する断層画像データを抽出し、当該断層画像を含む歯牙画像を表示装置に表示させる表示制御部を備える
    ことを特徴とする請求項2または請求項3に記載のAI画像診断装置。
  5. 前記モデル実行部が前記学習済みモデルに順次入力する2次元の断層画像データは、歯科用OCT装置で撮影中の3次元の歯牙画像データを構成する断層画像データである
    ことを特徴とする請求項2から請求項4のいずれか一項に記載のAI画像診断装置。
  6. 前記学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病の特徴部である傷病特徴部が存在する断層画像データを教師データとして用い、入力された断層画像データから、傷病特徴部を探索し、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度を画素値に置き換えた画像データである一致度を表した画像を生成することで、当該特徴部の位置を可視化して出力するように機械学習を行って構築されたものであり、
    前記傷病情報データは、少なくとも、特徴部の名称、および、前記一致度を表した画像を含み、
    前記モデル実行部は、前記学習済みモデルから取得した前記3次元の歯牙画像データの各断層画像データについての前記傷病情報データに基づいて、前記傷病情報データに含まれる前記特徴部の名称を選択情報として決定し、前記傷病情報データに含まれる前記一致度を表した画像を前記特徴部の名称毎に再構成することで当該特徴部の3次元の画像を生成し、生成した特徴部の3次元の画像を前記3次元の歯牙画像データ内の傷病の検出結果とする
    ことを特徴とする請求項1に記載のAI画像診断装置。
  7. 前記学習済みモデルは、過去に歯科用OCT装置で撮影された3次元の歯牙画像データを構成する断層画像データで、傷病の特徴部である傷病特徴部が存在する断層画像データと傷病以外の特徴部である非傷病特徴部が存在する断層画像データとを教師データとして用い、入力された断層画像データから、傷病特徴部および非傷病特徴部を探索し、当該断層画像データ内で画像を構成する各点に付与された当該特徴部との類似度を画素値に置き換えた画像データである一致度を表した画像を生成することで、当該特徴部の位置を可視化して出力するように機械学習を行って構築されたものであり、
    前記傷病情報データは、少なくとも、特徴部の名称、および、前記一致度を表した画像を含み、
    前記モデル実行部は、前記学習済みモデルから取得した前記3次元の歯牙画像データの各断層画像データについての前記傷病情報データに基づいて、前記傷病情報データに含まれる前記特徴部の名称を選択情報として決定し、前記傷病情報データに含まれる前記一致度を表した画像を前記特徴部の名称毎に再構成することで当該特徴部の3次元の画像を生成し、生成した特徴部の3次元の画像を前記3次元の歯牙画像データ内の傷病の検出結果とする
    ことを特徴とする請求項1に記載のAI画像診断装置。
  8. ユーザ操作により前記選択情報である特徴部の名称が入力されると、前記モデル実行部によって生成された前記傷病の検出結果に基づいて、前記入力された3次元の歯牙画像データに、当該特徴部の名称に対応して生成された前記特徴部の3次元の画像を重畳して表示装置に表示させる表示制御部を備える
    ことを特徴とする請求項6または請求項7に記載のAI画像診断装置。
  9. 前記学習済みモデルは、前記特徴部との類似度を画素値に置き換える際、類似度が予め設定された閾値より小さい画素の画素値を0に変換する処理をして前記一致度を表した画像を生成し、
    前記モデル実行部は、前記一致度を表した画像として、類似度が前記閾値より小さい画素の画素値を0に変換する処理がなされた画像を前記学習済みモデルから取得する
    ことを特徴とする請求項6から請求項8のいずれか一項に記載のAI画像診断装置。
  10. 前記教師データは、
    歯牙においてOCTのレーザ光が照射される照射方向であるA軸方向に対して直交するB軸方向と前記A軸方向との両方の軸方向で特定される平面に平行なA断面の断層画像データ、
    前記A軸方向および前記B軸方向にそれぞれ直交するV軸方向と前記A軸方向との両方の軸方向で特定される平面に平行なL断面の断層画像データ、
    前記B軸方向と前記V軸方向との両方の軸方向で特定される平面に平行なS断面の断層画像データ、
    OCTのレーザ光が照射された歯の表面の情報と、前記A軸方向の情報とを合成した画像データであるen-face画像データ、および、
    連続した数枚の断層画像データからなる3次元画像データのうちの少なくとも1つを含む
    ことを特徴とする請求項2から請求項9のいずれか一項に記載のAI画像診断装置。
  11. 前記モデル実行部は、ユーザ操作により、横スキャンと縦スキャンのいずれかの指示を受け付け、前記横スキャンの指示を受け付けると前記学習済みモデルに前記A断面の断層画像データを入力し、また、前記縦スキャンの指示を受け付けると前記学習済みモデルに前記L断面の断層画像データを入力して、前記学習済みモデルの演算処理を実行させる
    ことを特徴とする請求項10に記載のAI画像診断装置。
  12. 前記モデル実行部は、入力された3次元の歯牙画像データに含まれる歯科用OCT装置で撮影されたときのスキャン方向の情報を判定し、横スキャンの情報が含まれると判定すると前記学習済みモデルに前記A断面の断層画像データを入力し、また、縦スキャンの情報が含まれると判定すると前記学習済みモデルに前記L断面の断層画像データを入力して、前記学習済みモデルの演算処理を実行させる
    ことを特徴とする請求項10に記載のAI画像診断装置。
  13. 歯科用OCT装置に、請求項1から請求項12のいずれか一項に記載のAI画像診断装置を搭載したことを特徴とする歯科用OCT画像診断装置。
JP2022011470A 2022-01-28 2022-01-28 Ai画像診断装置および歯科用oct画像診断装置 Active JP7188826B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022011470A JP7188826B1 (ja) 2022-01-28 2022-01-28 Ai画像診断装置および歯科用oct画像診断装置
PCT/JP2022/044362 WO2023145254A1 (ja) 2022-01-28 2022-12-01 Ai画像診断装置および歯科用oct画像診断装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022011470A JP7188826B1 (ja) 2022-01-28 2022-01-28 Ai画像診断装置および歯科用oct画像診断装置

Publications (2)

Publication Number Publication Date
JP7188826B1 true JP7188826B1 (ja) 2022-12-13
JP2023110187A JP2023110187A (ja) 2023-08-09

Family

ID=84441449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022011470A Active JP7188826B1 (ja) 2022-01-28 2022-01-28 Ai画像診断装置および歯科用oct画像診断装置

Country Status (2)

Country Link
JP (1) JP7188826B1 (ja)
WO (1) WO2023145254A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100826A (ja) 2010-11-09 2012-05-31 J Morita Tokyo Mfg Corp 歯科用計測装置
JP2012213433A (ja) 2011-03-31 2012-11-08 Yoshida Dental Mfg Co Ltd 歯科用光干渉断層画像生成装置の制御装置、制御方法及び制御プログラム
JP5827024B2 (ja) 2011-03-31 2015-12-02 株式会社吉田製作所 光干渉断層画像生成装置の制御装置、制御方法及び制御プログラム
JP6712106B2 (ja) 2015-10-13 2020-06-17 株式会社吉田製作所 光干渉断層画像生成装置
WO2020146905A1 (en) 2019-01-13 2020-07-16 Lightlab Imaging, Inc. Systems and methods for classification of arterial image regions and features thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100825A (ja) * 2010-11-09 2012-05-31 J Morita Tokyo Mfg Corp 歯科用計測装置
EP3809948A4 (en) * 2018-06-20 2022-03-16 Acucela Inc. MINIATURIZED MOBILE, LOW COST OPTICAL COHERENCE TOMOGRAPHY SYSTEM FOR HOME OPHTHALMIC APPLICATIONS
JP2022185838A (ja) * 2021-06-03 2022-12-15 株式会社ニデック Oct装置および撮影制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100826A (ja) 2010-11-09 2012-05-31 J Morita Tokyo Mfg Corp 歯科用計測装置
JP2012213433A (ja) 2011-03-31 2012-11-08 Yoshida Dental Mfg Co Ltd 歯科用光干渉断層画像生成装置の制御装置、制御方法及び制御プログラム
JP5827024B2 (ja) 2011-03-31 2015-12-02 株式会社吉田製作所 光干渉断層画像生成装置の制御装置、制御方法及び制御プログラム
JP6712106B2 (ja) 2015-10-13 2020-06-17 株式会社吉田製作所 光干渉断層画像生成装置
WO2020146905A1 (en) 2019-01-13 2020-07-16 Lightlab Imaging, Inc. Systems and methods for classification of arterial image regions and features thereof

Also Published As

Publication number Publication date
WO2023145254A1 (ja) 2023-08-03
JP2023110187A (ja) 2023-08-09

Similar Documents

Publication Publication Date Title
JP6437914B2 (ja) パノラマ画像撮影装置及び同装置で用いる画像診断方法
EP1207495B1 (en) Three-dimensional image display, display method, program for display
US7756314B2 (en) Methods and systems for computer aided targeting
JP5551957B2 (ja) 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
EP1336376B1 (en) Image processing device and image processing method
US8687863B2 (en) Image processing apparatus, control method thereof and computer program
US20070237380A1 (en) Three-dimensional medical image display device equipped with pre-processing system implementing clinical protocol
JP4686279B2 (ja) 医用診断装置及び診断支援装置
JP4493323B2 (ja) 医用画像表示装置
JP5631580B2 (ja) 画像表示装置、x線ct装置およびプログラム
US20130223703A1 (en) Medical image processing apparatus
JP2007097902A (ja) 超音波検査システム
JP5336750B2 (ja) 医用画像診断支援装置及び医用画像診断支援プログラム
JP5454841B2 (ja) 医用画像処理装置
JP4503265B2 (ja) X線ct装置
JP2007289569A (ja) 医用画像処理装置及び医用画像処理方法
CN111343922A (zh) 放射线断层图像处理装置和放射线断层摄影装置
JP2011212367A (ja) 診断システム、3d画像情報と実体との位置決め方法及び歯科診断システムを作動させるためのプログラム
JP7188826B1 (ja) Ai画像診断装置および歯科用oct画像診断装置
JP7439075B2 (ja) パノラマx線撮影画像を編集するためのデバイス及び方法
JP2019115545A (ja) 画像処理装置および画像処理プログラム
JP7246912B2 (ja) 医用情報処理装置及び医用情報処理システム
JP5305635B2 (ja) 医用画像表示装置
JP2002034948A (ja) 医用画像表示装置
JP5159195B2 (ja) 医用画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7188826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150