JP2021101965A - 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム - Google Patents

制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム Download PDF

Info

Publication number
JP2021101965A
JP2021101965A JP2019235153A JP2019235153A JP2021101965A JP 2021101965 A JP2021101965 A JP 2021101965A JP 2019235153 A JP2019235153 A JP 2019235153A JP 2019235153 A JP2019235153 A JP 2019235153A JP 2021101965 A JP2021101965 A JP 2021101965A
Authority
JP
Japan
Prior art keywords
image
eye
information
fundus
inspected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019235153A
Other languages
English (en)
Other versions
JP2021101965A5 (ja
JP7332463B2 (ja
Inventor
正木 俊文
Toshibumi Masaki
俊文 正木
律也 富田
Ritsuya Tomita
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019235153A priority Critical patent/JP7332463B2/ja
Publication of JP2021101965A publication Critical patent/JP2021101965A/ja
Publication of JP2021101965A5 publication Critical patent/JP2021101965A5/ja
Application granted granted Critical
Publication of JP7332463B2 publication Critical patent/JP7332463B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定することができる制御装置を提供する。【解決手段】被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて被検眼の眼底正面画像から被検眼の病名情報を取得するとともに、被検眼の眼底正面画像から病変の位置、大きさ及び種類の少なくとも一つを示す病変情報を取得する演算処理部と、取得された病名情報及び病変情報を用いて、断層画像の撮影パラメータを設定するパラメータ設定部とを備える、制御装置。【選択図】図4

Description

本発明は、制御装置、光干渉断層像撮影装置、光干渉断層撮影装置の制御方法、及びプログラムに関する。
各種疾病の早期診断を目的として、眼底の検査が広く行われている。検診等においては眼底全体における疾病を見つけることが求められるため、眼底の広範囲にわたる正面の画像(眼底正面画像)を用いた検査が必須となる。眼底正面画像は、例えば、眼底カメラや走査型レーザー検眼鏡(SLO:Scanning Laser Ophthalmoscope)を用いて撮影される。
一方、光干渉断層撮影法(OCT:Optical Coherence Tomography)を用いた装置(OCT装置)などの眼底の断層撮影装置は、疾病の状態を客観的尺度で定量化することが可能であり、疾病の診断をより的確に行うのに有用である。一般的なOCTでは、操作者が断層画像の撮影パラメータ(例えば、対象部位、撮影範囲及び走査方法など)を決定し、決定した撮影パラメータに基づいて眼底断層画像を撮影し解析する。
操作者による断層画像の撮影を支援する技術として、例えば特許文献1には、眼底カメラによる眼底正面画像の解析を行い、病変候補を検出してOCTの撮影パラメータを設定する技術が開示されている。
特開2010−35607号公報
眼底正面画像の画像解析では、特徴のある部分を検出し、検出した部分及び予め設定された閾値に基づいて病変の可能性の有無を検出することが一般的であり、典型的な病変であれば当該解析処理により検出可能である。しかしながら、このような従来の画像解析処理では、非典型的な病変を検出することが困難であった。また、典型的な病変であっても、予め設定された閾値に基づく検出処理では、被検体の状態によっては病変を適切に検出することができない場合があった。
そこで、本発明の一実施形態では、眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定する制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラムを提供することを目的の一つとする。
本発明の一実施態様による制御装置は、被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて被検眼の眼底正面画像から被検眼の病名情報を取得するとともに、被検眼の眼底正面画像から病変の位置、大きさ及び種類の少なくとも一つを示す病変情報を取得する演算処理部と、前記取得された病名情報及び病変情報を用いて、断層画像の撮影パラメータを設定するパラメータ設定部とを備える。
本発明の一実施形態によれば、眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定することができる。
実施例1に係る光干渉断層撮影装置の概略的な機器構成例を示す。 被検眼、断層画像、及び眼底正面画像を説明するための図である。 実施例1に係る機械学習モデル及び学習処理を説明するための図である。 実施例1に係る一連の動作の流れを示すフローチャートである。 実施例1に係るOCTスキャンパターンの一例を示す。 実施例2に係る機械学習モデルの構成の一例を示す。 実施例2に係る一連の動作の流れを示すフローチャートである。 実施例3に係る一連の動作の流れを示すフローチャートである。 実施例4に係る一連の動作の流れを示すフローチャートである。 実施例5に係る一連の動作の流れを示すフローチャートである。 変形例3に係る機械学習モデルの構成の一例を示す。 変形例3に係る機械学習モデルの構成の一例を示す。
以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。
なお、以下において、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施例及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。
なお、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。
(実施例1)
以下、図1乃至図5を参照して、本実施例に係る光干渉断層撮影装置(OCT装置)1について説明する。まず、図1を参照して、OCT装置1の機器構成について説明する。図1は、本実施例に係るOCT装置1の概略的な機器構成例を示す。OCT装置1には、大きく分けて、被検眼の眼底正面画像を撮影するための眼底カメラ部2、被検眼の眼底断層画像を撮影するためのOCT撮影部3、装置を制御するための制御部4、入力部7、表示部8、及びステージ駆動部9が設けられている。また、OCT装置1には、対物レンズ6及び被検眼の前眼部を照明するための赤外光源と動画撮影部からなる前眼部観察部5が設けられており、これらは眼底カメラ部2及びOCT撮影部3で共用である。
眼底カメラ部2には、赤外観察光源21、キセノン管などの可視光を発光する撮影光源22、焦点調整を行うフォーカスレンズ23、赤外動画撮影を行う赤外動画撮影部24、及びカラー静止画撮影を行う静止画撮影部25などが設けられている。なお、赤外動画撮影部24及び静止画撮影部25は、例えばCCD等のイメージセンサーを用いて構成されてよい。制御部4は、赤外動画撮影部24及び静止画撮影部25からの出力を用いて、被検眼眼底の赤外動画像及びカラー静止画像を生成することができる。また、被検眼眼底の赤外動画像及びカラー静止画像は、赤外動画撮影部24及び静止画撮影部25からの出力を用いて、眼底カメラ部2において生成されてもよい。
OCT撮影部3には、撮影光源として、SLD(Super Luminescent Diode)光(広帯域で低コヒーレンスな光)を出力するOCT光源32が設けられている。また、OCT撮影部3には、サンプル光学系、参照光学系、干渉計37、分光器33、及びラインセンサー35が設けられている。OCT光源32からの光は、光カプラやビームスプリッタを用いて、サンプル光学系に向かう測定光と参照光学系に向かう参照光に分割される。なお、干渉計37は、マイケルソン干渉計であってもよいし、マッハツェンダー干渉計であってもよい。
サンプル光学系には、フォーカスレンズ34、被検眼眼底上の任意の位置を測定光で走査するためガルバノミラー31が配置されており、測定光は被検眼眼底に導かれる。ここで、ガルバノミラー31は、測定光の光軸に直交する方向において互いに交差する方向に測定光を偏向することができる2枚のガルバノミラーを含み、測定光を被検眼眼底上で二次元方向に走査する走査部を構成する。なお、走査部は、他の任意の偏向手段を用いて構成されてもよく、例えば、1枚で二次元方向に光を偏向することができるMEMSミラー等を用いて構成されてもよい。
一方、参照光学系には、サンプル光学系と参照光学系の光路長を調整するために光軸方向に移動可能な参照ミラー36が配置されている。被検眼眼底からの反射光と参照ミラー36からの反射光は、干渉計37で合波される。合波された光では、被検眼眼底で反射された測定光及び参照ミラー36で反射された参照光の光路長差と、OCT光源32からの光の波長の関係により光の干渉が発生する。合波された光(干渉光)は、その後、分光器33を通過して波長分解され、ラインセンサー35に照射され、ラインセンサー35は検出した干渉光に基づいて干渉信号を出力する。制御部4は、ラインセンサー35から出力された干渉信号を用いて、被検眼眼底の断層画像を生成することができる。
制御部4(制御装置)には、画像取得部41、演算処理部42、パラメータ設定部43、記憶部44、及びデバイス制御部45が設けられている。制御部4は、CPU(Cental Processing Unit)等のプロセッサーやメモリを用いて構成されてよく、例えば、CPUボード等として構成されてよい。また、制御部4は、一般のコンピュータを用いて構成されてもよいし、OCT装置1の専用のコンピュータとして構成されてもよい。なお、制御部4は、OCT装置1の内蔵(内部)のコンピュータであってもよいし、OCT装置1が通信可能に接続された別体(外部)のコンピュータであってもよい。また、制御部4は、例えば、パーソナルコンピュータであってもよく、デスクトップPCや、ノート型PC、タブレット型PC(携帯型の情報端末)が用いられてもよい。このとき、これらの間の通信接続は、有線通信による接続であってもよいし、無線通信による接続であってもよい。なお、プロセッサーは、例えば、MPU(Micro Processing Unit)、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。
画像取得部41は、前眼部観察部5や静止画撮影部25、ラインセンサー35等の撮影手段からのデータを、それぞれのインターフェース、例えばカメラリンク、USB等を経由して取得する。なお、画像取得部41は、これらデータを無線通信により取得してもよい。画像取得部41は、例えば、静止画撮影部25で撮影された画像を眼底正面画像として記憶部44に格納することができる。また、画像取得部41は、演算処理部42によって干渉信号に基づいて生成された断層画像を取得したり、外部装置から被検眼の眼底正面画像や断層画像等を取得したり、前眼部観察部5から前眼部の動画像を取得したりすることもできる。
演算処理部42は、各種画像処理や画像生成処理等を行う。演算処理部42は、ラインセンサー35から出力され記憶部44に記憶された干渉信号のデータについて高速フーリエ変換(FFT)等の信号処理を行い、被検眼の一点に対応する1つのAスキャンデータを生成することができる。また、演算処理部42は、ガルバノミラー31による被検眼の眼底上の走査と同期しながら取得した複数のAスキャンデータを用いて、被検眼眼底の任意の位置のBスキャン画像、すなわち被検眼眼底の断層画像を生成することができる。
また、演算処理部42は、後述する機械学習モデルの学習済モデルを用いて、被検眼の眼底正面画像から、被検眼の疾病名を示す病名情報を取得することができる。病名情報としては、例えば、緑内障、網膜血管疾患、加齢黄斑変性症、及び糖尿病性網膜症等が含まれてよい。
パラメータ設定部43は、操作者からの指示に応じて、被検眼を撮影するための撮影パラメータを設定することができる。当該撮影パラメータとしては、例えば、対象部位、撮影範囲、スキャンパターン及びスキャン密度等が含まれてよい。また、パラメータ設定部43は、演算処理部42によって眼底正面画像から取得された撮影パラメータを断層画像の撮影パラメータとして設定することができる。
記憶部44は、例えば、被検者の情報や、各種画像、OCT装置1の制御プログラム、各種の画像処理や画像生成のプログラム、ソフトウェアモジュールを実現するためのプログラム等を記憶する。また、記憶部44は、後述する眼底正面画像から想定される疾病名を示す病名情報を出力する学習済モデル等を記憶することもできる。
デバイス制御部45は、フォーカスレンズ23,34、参照ミラー36、及びステージ駆動部9の移動制御や、赤外観察光源21及び撮影光源22等の光源の光量制御、ガルバノミラー31の角度制御等を撮影パラメータに基づいて行う。また、デバイス制御部45は、記憶部44に記憶させた各種情報や、眼底正面画像及び眼底断層画像等の各種画像を表示部8に表示させることができる表示制御部として機能する。また、デバイス制御部45は、USB等のインターフェースを介して接続された外部のPC(不図示)にこれら画像や情報の転送を行うこともできる。なお、外部のPCはインターネット等を介して制御部4に接続されてもよい。
なお、制御部4における、記憶部以外の構成要素は、プロセッサーによって実現されるソフトウェアモジュールによって構成されてもよいし、ASIC等の特定用途向けの回路等の任意の回路を用いて構成されてもよい。また、記憶部44は、任意の記憶媒体を用いて構成されてよい。
前眼部観察部5は、被検眼の前眼部を照明するための赤外光源と動画撮影部を含み、被検眼の前眼部を撮影し、出力信号を制御部4に送ることができる。制御部4は、前眼部観察部5からの信号に基づいて、被検眼の前眼部の動画像を生成することができる。なお、被検眼の前眼部の動画像は前眼部観察部5において生成されてもよい。
入力部は、任意の入力装置を用いて構成されてよく、例えば、マウスやキーボード、トラックボール、タッチパネル等を含んでよい。また、表示部8は、任意のモニタを用いて構成されてよく、デバイス制御部45による制御に応じて、各種情報や画像等を表示することができる。
ステージ駆動部9は、被検眼に対して、OCT装置1の各種撮影のための光学系を載せたステージを駆動させ、被検眼に対してOCT装置1のアライメントを行うことができる。ステージ駆動部9は、例えば、OCT装置1の光学系が載せられた電動ステージとすることができる。
これまで説明したOCT装置1の装置構成は、OCT眼底カメラ複合機に係る構成であるが、OCT装置1の構成はこれに限られない。例えば、眼底カメラ部2に代えて、SLO撮影部が設けられてもよい。SLO撮影部は、例えば、赤外の画像を撮影できてもよいし、カラーの画像を撮影できてもよいし、蛍光撮影による画像(蛍光画像)を撮影できてもよい。また、上述したOCT装置1の構成は一例であり、所望の構成に応じて変更されてよい。さらに、OCT装置1の一部の構成を別個の装置として構成してもよいし、一体的な装置として構成してもよい。例えば、眼底カメラ部2や制御部4を別個の装置として構成してもよいし、表示部8をタッチパネル式のディスプレイとして入力部7と一体的に構成してもよい。
次に、図2(a)乃至図2(c)を参照して、OCT装置1で撮影する眼の構造と画像について説明する。図2(a)は眼球の模式図である。図2(a)には、角膜C、水晶体CL、硝子体V、黄斑部M(黄斑の中心部は中心窩を表す)、及び視神経乳頭部Dが表されている。本実施例では、主に、硝子体V、黄斑部M、視神経乳頭部Dを含む網膜の後極部を撮影する場合について説明を行う。なお、以下では説明をしないが、OCT装置1は、角膜や水晶体等の前眼部の断層画像を撮影することも可能である。
図2(b)は、OCT装置1を用いて網膜を撮影することで取得した断層画像の一例を示す。図2(b)において、ASは一回のAスキャンにより取得される画像単位を示す。ここで、Aスキャンとは、OCT装置1の上記一連の動作により、被検眼の一点における深さ方向の断層情報を取得することをいう。また、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼の当該横断方向と深さ方向の二次元の断層情報を取得することをBスキャンという。Aスキャンによって取得されたAスキャン画像を複数集めることで、1つのBスキャン画像を構成することができる。以下、このBスキャン画像のことを、二次元の断層画像と呼ぶ。
また、Aスキャン及びBスキャンのいずれの走査方向とも直交する方向に被検眼を測定光で走査することをCスキャンと呼ぶ。特に、三次元の断層の情報を取得する際に眼底面内に二次元ラスター走査する場合、高速に走査が行われる方向をBスキャン方向と呼び、Bスキャン方向に直交し、低速に走査が行われる方向をCスキャン方向と呼ぶ。Bスキャン方向に直交するCスキャン方向において、複数回Bスキャンを行い、Bスキャン画像を複数集めることで、三次元の断層画像(Cスキャン画像)を得ることができる。Bスキャン及びCスキャンは、上述したガルバノミラー31により構成される走査部によって行われる。なお、Bスキャン及びCスキャンのライン走査方向は、撮影したい二次元の断層画像又は三次元の断層画像に応じて、適宜決めることができる。
図2(b)には、血管Ve、硝子体V、黄斑部M、及び視神経乳頭部Dが表されている。また、境界線L1は内境界膜(ILM)と神経線維層(NFL)との境界、境界線L2は神経線維層と神経節細胞層(GCL)との境界、境界線L3は視細胞内節外節接合部(ISOS)を表す。さらに、境界線L4は網膜色素上皮層(RPE)、境界線L5はブルッフ膜(BM)、境界線L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(深さ方向)をz軸とする。
図2(c)は、眼底カメラ部2を用いて被検眼の眼底を撮影することで取得した眼底正面画像の一例を示す。図2(c)には、黄斑部M、及び視神経乳頭部Dが表されており、網膜の血管が太い曲線で表されている。眼底画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(OCTの副走査方向)をy軸とする。
本実施例では、演算処理部42が、機械学習モデルに関する学習済モデルを用いて、眼底正面画像から疾病名を示す病名情報を取得する。ここで、図3(a)及び図3(b)を参照して、演算処理部42が用いる機械学習モデルについて説明する。図3(a)は機械学習モデルとして用いるニューラルネットワークの例を示す。ニューラルネットワークでは、入力データの特徴点を抽出し、学習に応じて定められたノード間の重みに従って、特徴点から出力データを推定する。
図3(b)は本実施例に係る学習処理の流れを示すフローチャートである。なお、本実施例に係る演算処理部42は、予め学習を行った学習済モデルを用いて、病名情報を取得することができ、機械学習モデルの学習処理は運用時に逐一行われる必要はない。ただし、学習済モデルについては、追加の学習が行われてもよい。ここでは、制御部4が、機械学習モデルに関する学習済モデルを生成する学習部の一例として機能する例について説明する。なお、学習部は制御部4とは別個の装置で構成され、当該装置によって学習済モデルが生成されてもよい。
学習処理では、まず、ステップS31において、制御部4に学習データの入力を行う。機械学習モデルの学習データは、1つ以上の入力データと出力データとのペア群で構成される。本実施例では、疾病眼及び健常眼の眼底正面画像を学習データの入力データとし、疾病の有無や疾病名を示す病名情報を学習データの出力データとする。病名情報としては、これに限られないが、例えば、緑内障、網膜血管疾患、加齢黄斑変性症、及び糖尿病網膜症等が含まれてよい。
学習データの生成方法としては、疾病眼及び健常眼の眼底正面画像について、医師等が診断を行った際の病名情報を用いることができる。例えば、医師が緑内障である又は緑内障である可能性があると判断した被検眼に関する眼底正面画像について、当該眼底正面画像を入力データとし、緑内障を示す病名情報を出力データとして用いることができる。また、医師が、健常眼であると判断した被検眼に関する眼底正面画像については、健常眼であることや疾病がないことを示す病名情報を出力データとして用いることができる。
さらに、学習データの出力データとして用いる病名情報は、医師等が眼底正面画像だけを用いて判断した情報に限られない。例えば、医師等が、被検眼について、眼底正面画像に加えて断層画像やOCTA画像(OCT Angiography画像)等の画像を用いて判断した病名情報を学習データの出力データとして用いてもよい。このような学習データを用いて学習を行った場合には、学習済モデルが、眼底正面画像に含まれている、肉眼では把握しにくい特徴に基づいて、より適切な病名情報を出力することができることが期待できる。なお、この場合も学習データの入力データは、眼底正面画像だけであってよい。
ステップS32では、制御部4が、入力された複数の学習データをディープラーニング等の機械学習アルゴリズムにより、機械学習モデルに学習させることで、学習済モデルを生成する。ここで、制御部4は、例えば、不図示の誤差検出部と更新部とを備えることができる。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回にわたり学習を行う場合には、GPUで処理を行うことが有効である。そこで、学習部(不図示)の一例である制御部4による処理には、CPUに加えてGPUを用いることもできる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPU又はGPUのみにより演算が行われてもよい。また、上述した学習済モデルを用いた処理を実行する演算処理部42も、学習部と同様にGPUを用いてもよい。
次に、図4を参照して、OCT装置1による眼底正面画像の撮影から断層画像の撮影までの一連の動作を説明する。図4は、本実施例に係る一連の動作のフローチャートである。
まず、ステップS41では、制御部4は、被検眼の眼底正面画像の撮影を行う。具体的には、入力部7に配置されている不図示の撮影開始スイッチが押されると、デバイス制御部45が前眼部観察部5及び眼底カメラ部2を動作させて、前眼部の動画像及び眼底の赤外動画像が撮影される。演算処理部42は、前眼部観察部5を用いて撮影した前眼部の動画、及び赤外観察光源21により照明された眼底について赤外動画撮影部24を用いて撮影した動画に基づいて、OCT装置1と被検眼の位置ずれを検出する。
デバイス制御部45、検出された位置ずれ量に応じて、ステージ駆動部9を駆動させて自動位置合わせを行うとともに、フォーカスレンズ23を駆動させてコントラストが最大となるように自動焦点調整を行う。位置合わせ及び焦点合わせが完了すると、デバイス制御部45は、赤外観察光源21を消灯し、撮影光源22を発光させ静止画撮影部25を用いて静止画像を撮影する。画像取得部41は、撮影された静止画像である眼底正面画像を記憶部44に格納する。なお、本実施例では、位置合わせ及び焦点合わせを自動で行っているが、操作者の指示に応じて手動で行ってもよい。なお、眼底正面画像は、赤外動画撮影部24により撮影された眼底の動画像であってもよい。また、本実施例では、静止画撮影部25はカラー静止画像を撮影したが、例えば、蛍光撮影により眼底正面画像を撮影してもよい。
ステップS42では、演算処理部42が、学習済モデルを用いて、眼底正面画像から病名情報を取得する。より具体的には、演算処理部42は、学習済モデルに眼底正面画像を入力し、学習済モデルから出力された病名情報を取得する。また、赤外動画撮影部24により撮影された動画像を眼底正面画像として用いる場合には、各フレームの画像を用いてもよいし、所定のフレームの画像や所定のフレーム間隔毎の画像を用いてもよい。なお、演算処理部42は、学習済モデルから出力された情報をパラメータ設定部43が利用できる情報に整えてもよい。
例えば、上述のような学習済モデルでは、機械学習モデルの構成に応じて、入力データに対応する病名情報について、学習データの出力データに関する各病名情報についての割合が出力される。例えば、病名情報が緑内障を示す情報である割合が0.8、疾病がないことを示す情報である割合が0.2といった情報が出力される。ここで、演算処理部42は、学習済モデルから出力された情報のうち、他の情報よりも割合が高い情報を最終的な病名情報としてもよいし、閾値以上である割合の情報を病名情報としてもよい。
ステップS43では、演算処理部42は、病名情報が健常眼であることを示す情報であると判断した場合は検査を終了すると判断し、一連の動作を終了させる。一方で、演算処理部42が、病名情報が緑内障等の疾病名を示す情報であると判断した場合には、処理はステップS44に進む。
ステップS44では、パラメータ設定部43が、ステップS42で取得された病名情報を用いて断層画像の撮影パラメータ(OCT撮影パラメータ)を設定する。パラメータ設定部43は、例えば、病名情報と撮影パラメータを対応付けたテーブルを用いて、病名情報に対応する断層画像の撮影パラメータを設定してよい。なお、パラメータ設定部43によって設定される断層画像の撮影パラメータには、撮影範囲、スキャンパターン、及びスキャン数(又はスキャン密度)等が含まれてよい。また、当該撮影パラメータには、解析する画像の種類に対応する撮影モード(OCTA撮影モード等)及び疾病に対応する撮影モード等が含まれる、診断目的に応じた撮影パラメータ等が含まれてよい。さらに、当該撮影パラメータには、生成すべき結果物としての画像(例えば、解析マップ等のレポート画像)の種類等が含まれてよい。ここで、以下に、病名情報に対応する撮影パラメータの例を挙げる。なお、以下のパラメータは一例であり、所望の構成に応じて任意に変更されてよい。また、病名情報及び病名情報に応じた撮影パラメータは以下の例に限られず、他の情報や撮影パラメータを含んでもよい。
(緑内障)
病名情報が緑内障を示す情報であった場合には、パラメータ設定部43は、神経線維層マップを生成するために、例えば、視神経乳頭付近の6mm×6mmの領域のボリュームスキャンを設定する。また、パラメータ設定部43は、図5の点線で示すように、乳頭周囲で、例えば直径3.45mmサークルスキャンを設定する。また、パラメータ設定部43は、断層画像撮影の結果物として、神経線維層マップを生成するように設定することができる。なお、ボリュームスキャンに関しては、Bスキャン及びCスキャンを含むラスタスキャンによって行われてよい。ただし、ボリュームスキャンは他のスキャンパターンで実行されてもよく、例えば高密度のラジアルスキャンやサークルスキャン等によって行われてもよい。
(網膜血管疾患)
病名情報が、血管閉塞などの網膜血管疾患を示す情報であった場合には、黄斑浮腫の可能性があるため、パラメータ設定部43は、例えば、直径約2mmの黄斑部を十分含むように、黄斑付近の6mm×6mmの領域のボリュームスキャンを設定する。なお、この場合、パラメータ設定部43は、スキャン密度を比較的高密度に設定してもよい。なお、ボリュームスキャンは、ラスタスキャンによって行われてよいが、サークルスキャンやラジアルスキャン等によって行われてもよい。
(加齢黄斑変性症)
病名情報が、加齢黄斑変性症を示す情報であった場合には、パラメータ設定部43は、黄斑の詳細に観察できるように3mm×3mmの領域のボリュームスキャンを設定する。また、パラメータ設定部43は、新生血管を検出するために、当該3mm×3mmの領域のOCTA撮影の設定も行う。なお、この場合、パラメータ設定部43は、スキャン密度を比較的高密度に設定してもよい。なお、ボリュームスキャンは、ラスタスキャンによって行われてよいが、サークルスキャンやラジアルスキャン等によって行われてもよい。
(糖尿病性網膜症)
病名情報が糖尿病性網膜症を示す情報であった場合には、黄斑浮腫の可能性があるため、パラメータ設定部43は、黄斑周辺の6mm×6mmの領域のボリュームスキャンを設定する。また、パラメータ設定部43は、新生血管を検出するため当該6mm×6mmの領域のOCTA撮影の設定も行う。なお、ボリュームスキャンは、ラスタスキャンによって行われてよいが、サークルスキャンやラジアルスキャン等によって行われてもよい。
ステップS45では、デバイス制御部45が、パラメータ設定部43によって設定された撮影パラメータに基づいて、OCT撮影部3を制御して被検眼の断層画像の撮影を行う。以下、断層画像の撮影について説明する。
断層画像の撮影では、前述したステップS41と同様に、位置合わせ及び焦点合わせを行う。デバイス制御部45は、フォーカスレンズ34をフォーカスレンズ23と連動させ、同じ屈折力となるように調整する。位置合わせ及び焦点合わせ完了後、デバイス制御部45は、ガルバノミラー31を駆動させ、クロススキャンによるプレビュー断層画像を取得する。演算処理部42は、取得したプレビュー断層画像に基づいて、参照ミラー36の位置を移動させ断層画像の深さ方向の撮影位置を調整する。
その後、デバイス制御部45は、ステップS44で設定された撮影パラメータに基づいてガルバノミラー31を駆動させ、被検眼の眼底を測定光で走査する。演算処理部42は、撮影パラメータに基づく、ラスタスキャンやサークルスキャン等に対応するスキャンデータを取得することにより、被検眼眼底の三次元や二次元の断層画像を取得する。デバイス制御部45は、取得した断層画像を表示部8に表示させたり、不図示の外部装置へ転送したりした後に検査を終了する。
なお、撮影パラメータとして、断層画像撮影の結果物として、神経線維層マップを生成するように設定されている場合には、演算処理部42は、ボリュームスキャンにより取得された三次元の断層画像を用いて神経線維層マップを生成する。神経線維層マップでは、例えば、単位面積当たりの層厚が厚い箇所の色を濃く、単位面積当たりの層厚が薄い箇所の色は薄く表現することができる。このため、神経線維層マップを見ることで、神経線維層の撮影範囲内の厚さを容易に把握することができる。なお、神経線維層マップにおいて、層厚を色で表現するだけではなく、層厚の数値を表示させることもできる。なお、神経線維層マップの生成方法は、公知の任意の方法を用いてよい。
また、撮影パラメータとしてOCTA撮影が設定されている場合について説明する。まず、OCTAとは、OCTを用いた血管造影法である。OCTAでは、OCTを用いて取得した三次元のモーションコントラスト画像を二次元平面に投影することで、血管画像(以下、OCTA画像又はモーションコントラスト正面画像という。)を生成することができる。ここで、モーションコントラスト画像とは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータである。モーションコントラスト画像は、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得ることができる。
撮影パラメータとしてOCTA撮影が設定されている場合には、デバイス制御部45は、断層画像を撮影する際に、同一走査線を複数回(少なくとも2回以上)繰り返し走査するようにガルバノミラー31を駆動させる。演算処理部42は、同一走査線を繰り返し走査することで取得した干渉信号に基づいて、各走査線について複数の断層画像を生成する。これにより、演算処理部42は、複数の三次元断層画像を取得する。演算処理部42は、取得した複数の三次元断層画像に基づいて、モーションコントラスト画像を生成する。なお、モーションコントラスト画像の生成方法は、公知の任意の方法を用いてよい。
また、演算処理部42は、モーションコントラストデータを二次元平面に投影したモーションコントラスト正面画像であるOCTA画像(モーションコントラスト正面画像)も生成することができる。OCTA画像の生成に関して、演算処理部42は、モーションコントラスト画像の三次元データにおける、指定された深度範囲上端と深度範囲下端との範囲に対応するモーションコントラスト画像を二次元平面上に投影し、OCTA画像を生成することができる。ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、複数の2次元の断層画像間のモーションコントラストデータで生成される断層画像はOCTA断層画像とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。
より具体的には、演算処理部42は、モーションコントラスト画像の三次元データのうち、指定された深度範囲上端と深度範囲下端の間の範囲に対応するモーションコントラスト画像に基づいて、その範囲内のモーションコントラスト画像を平均値投影(AIP)又は最大値投影(MIP)などの処理を行う。これにより、演算処理部42は、モーションコントラスト画像の正面画像であるOCTA画像を生成することができる。なお、OCTA画像を生成する際の投影方法は平均値や最大値に限らない。演算処理部42は、最小値、中央値、分散、標準偏差、又は総和などの値を用いてOCTA画像を生成してもよい。
撮影パラメータとしてOCTA撮影が設定されている場合には、デバイス制御部45は、生成したモーションコントラスト画像の三次元データやOCTA画像を表示部8に表示させたり、外部装置に転送させたりすることができる。なお、モーションコントラスト画像は、そのまま表示することも可能だが、閾値以上の値を断層画像に重畳して表示することができる。また、OCTA画像の深度範囲は、病名情報に基づいてパラメータ設定部43によって設定された範囲であってもよいし、操作者によって指定された範囲であってもよい。
上記のように、本実施例に係るOCT装置1の制御部4は、演算処理部42とパラメータ設定部43とを備える。演算処理部42は、被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得する。パラメータ設定部43は、演算処理部42によって取得された病名情報を用いて、断層画像の撮影パラメータを設定する。
このような構成によれば、眼底正面画像と病名情報とを学習した学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得し、病名情報に応じた撮影パラメータを設定することができる。このため、従来の閾値処理による病変の検出処理に基づく撮影パラメータの設定処理と比べ、眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定することができる。
なお、本実施例では、演算処理部42が、病名情報に基づいて疾病の有無を判断し、ステップS43において、断層画像の撮影の要否を判断した。これに対し、例えば、ステップS44の撮影パラメータの設定処理において、パラメータ設定部43が、病名情報に基づいて断層画像の撮影の要否を判断してもよい。
この場合には、例えば、演算処理部42が用いる学習済モデルの学習データの入力として、疾病眼及び健常眼の画像を用いる。また、疾病眼の対応する出力データには上述の病名情報を含め、健常眼の画像に対応する出力データに断層画像の撮影が不要であることを示す情報を含めることができる。これにより、病名情報に断層画像の撮影の要否を示す情報が含まれ、パラメータ設定部43は、当該情報に基づいて、断層画像の要否を判断することができる。なお、この場合、ステップS33は省略されてよい。
なお、本実施例では、被検眼が健常眼(正常眼)である場合には断層画像の撮影を行わない構成とした。これに対して、被検眼が健常眼の場合は、クロススキャンなどの簡易な断層画像撮影を行うようにしてもよい。
また、本実施例では、撮影された眼底正面画像に基づいて、自動的に断層画像の撮影パラメーを設定する構成としている。これに対し、例えば、操作者の指示に応じて、当該断層画像の撮影パラメータを自動的に設定する処理を行う動作モードと、操作者の指示に応じて断層画像の撮影パラメータが設定される動作モードとを切り替えることができるように制御部4が構成されてもよい。
さらに、本実施例では、演算処理部42が、学習済モデルから出力された情報のうち、閾値以上である割合の情報を病名情報としてもよいとした。ここで、当該割合が閾値以上である情報が複数ある場合には、当該複数の情報のうち他の情報よりも割合が高い情報を最終的な病名情報としてもよいし、当該複数の情報の全てを病名情報としてもよい。この場合、ステップS44では、パラメータ設定部43は、病名情報に含まれる複数の疾病名のそれぞれに対応する撮影パラメータを設定する。また、ステップS45では、デバイス制御部45、設定されたそれぞれの撮影パラメータに応じて、複数回断層画像の撮影を行うようにOCT撮影部3を制御することができる。
また、学習済モデルから出力された情報について、閾値以上である割合の情報が複数ある場合、操作者の指示に応じて、当該複数の情報のうち撮影すべき断層画像に対応する情報を選択するように構成してもよい。例えば、閾値以上である割合の情報が複数ある場合、デバイス制御部45は、当該情報に対応する疾病名等の情報を表示部8に表示させ、操作者に撮影を望む疾病名等の情報を選択させるようにしてもよい。この場合、複数の疾病名が選択されてもよい。パラメータ設定部43は、選択された疾病名等の情報に対応する病名情報に基づいて撮影パラメータを設定することができる。また、演算処理部42は、学習済モデルから出力された複数の情報から、機械学習モデルを用いて、撮影パラメータの設定に用いる病名情報を決定してもよい。この場合には、機械学習モデルとして、例えば、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。
これに関連して、演算処理部42は、検者からの指示に応じて、学習済モデルから出力された情報を用いて病名情報を決定してもよい。例えば、演算処理部42は、学習済モデルから出力された情報のうち、閾値以上である割合の情報を病名情報とし、当該病名情報について、検者からの指示(承認)に応じて、撮影パラメータの設定に用いる病名情報として決定することができる。また、上述のように、演算処理部42は、学習済モデルから出力された情報について、閾値以上である割合の情報が複数ある場合、操作者の指示に応じて、当該複数の情報(病名情報)から撮影パラメータの設定に用いる1つの病名情報を選択し決定してもよい。
さらに、演算処理部42は、学習済モデルから出力された情報について、操作者からの指示に応じて修正を行った情報を、撮影パラメータの設定に用いる病名情報として決定してもよい。例えば、演算処理部42は、学習済モデルから出力された網膜血管疾患に関する病名情報を操作者からの指示に応じて糖尿病性網膜症に関する病名情報に修正し、当該病名情報を撮影パラメータの設定に用いる病名情報として決定してもよい。従って、病名情報は、操作者の指示に応じて修正可能であってもよい。また、パラメータ設定部43が、病名情報を用いて設定した撮影パラメータを、操作者からの指示に応じて修正してもよい。
なお、演算処理部42が用いる学習済モデルの入力データは複数のデータであってもよい。例えば、学習済モデルの入力データは、複数の眼底正面画像であってもよい。具体的には、カラー眼底正面画像をRGBの各色の画像に分けた眼底正面画像を学習済モデルの入力データとしてもよい。また、複数の異なる部位の眼底正面画像を学習済モデルの入力データとしてもよい。これらの場合、学習済モデルに関する学習データの入力データとしては、それぞれRGBの各色の眼底正面画像や複数の異なる部位の眼底正面画像を用いればよい。
さらに、学習済モデルの入力データは、眼底正面画像に加えて、他の画像、例えば、過去に被検体について取得した眼底正面画像や、断層画像、解析マップ(層厚マップ、血管密度マップ)等を含んでもよい。この場合、学習済モデルに関する学習データの入力データとしては、眼底正面画像に加えて入力データとして用いる画像を用いればよい。このような学習済モデルでは、眼底正面画像に加えて、他の画像の特徴量も病名情報の取得・推定に用いることができるため、当該被検体に適切な病名情報をより精度良く取得できることが期待できる。
なお、入力データとして用いる画像毎又は画像の種類毎に学習済モデルを用意し、演算処理部42が入力データに対応する学習済モデルを用いて、入力データから病名情報を取得してもよい。この場合、演算処理部42は、各学習済モデルから出力された情報に統計的な処理を行い、撮影パラメータの設定に用いる病名情報を決定してもよい。例えば、各学習済モデルから出力された情報の割合を各種類の情報毎に加算し、他の情報よりも割合の合計が高い情報を撮影パラメータの設定に用いる病名情報を決定してもよい。なお、統計的な処理は合計の算出に限られず、平均値や中央値の算出等であってもよい。また、例えば、各学習済モデルから出力された情報のうち、他の情報よりも割合の高い情報(最も割合の高い情報)を用いて撮影パラメータの設定に用いる病名情報を決定してもよい。同様に、各学習済モデルから出力された情報のうち、閾値以上である割合の情報を用いて撮影パラメータの設定に用いる病名情報を決定してもよい。
ここで、演算処理部42は、操作者の指示(選択)に応じて、決定された病名情報の良否の判定(承認)が可能に構成されてもよい。また、演算処理部42は、上述のように、操作者の指示に応じて各学習済モデルから出力された情報から撮影パラメータの設定に用いる病名情報を決定してもよい。このとき、例えば、デバイス制御部45が、各学習済モデルから出力された情報及びその割合を並べて表示部8に表示させてもよい。そして、操作者が、例えば、他の情報よりも割合の高い情報を選択することにより、選択された情報を病名情報として決定するように構成されてもよい。また、演算処理部42は、各学習済モデルから出力された情報から、機械学習モデルを用いて、撮影パラメータの設定に用いる病名情報を決定してもよい。この場合には、病名情報取得に用いられた機械学習モデルとは異なる種類の機械学習モデルであってもよく、機械学習モデルとして、例えば、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。
なお、本実施例では、神経線維層マップの生成方法は任意でよいとした。ここで、神経線維層マップの生成方法の一例について説明する。演算処理部42は、三次元断層画像に含まれる二次元断層画像毎にセグメンテーション処理を行い、層境界を検出する。なお、セグメンテーション処理は公知の任意の方法で行ってよい。
例えば、演算処理部42は、処理対象とする断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、メディアン画像、Sobel画像とする)。次に、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界線を検出する。なお、境界線の検出方法はこれに限られず、公知の任意の方法を用いてよい。例えば、演算処理部42は、機械学習モデルに関する学習済モデルを用いて断層画像から境界線を検出してもよい。この場合、学習済モデルに関する学習データとしては、例えば、断層画像を入力データとし、該断層画像について医師等が境界線や層にラベル値を付したラベル画像を出力データとしてもよい。
演算処理部42は、検出された層境界に基づいて、神経線維層に対応する、図2(b)に示す境界線L1と境界線L2の間の層の厚さを求める。演算処理部42は、三次元断層画像の主走査方向と副走査方向の二次元平面について、二次元断層画像毎に求めた神経線維層の厚さを各座標の画素値とした神経線維層マップを生成することができる。
また、本実施例では、モーションコントラスト画像の生成方法は任意でよいとした。ここで、モーションコントラスト画像の生成方法の一例について説明する。具体的には、演算処理部42は、同一走査線について生成された複数の断層画像に基づいて、モーションコントラスト画像(モーションコントラストの断面画像)の生成を行う。演算処理部42は、まず被検眼の同一範囲(同一走査線)で撮影された複数の断層画像間の位置ずれを補正する。位置ずれの補正方法は任意の方法であってよい。例えば、演算処理部42は、同一範囲をM回撮影し、同一箇所に相当する断層画像同士について、眼底形状等の特徴等を利用して位置合わせを行う。具体的には、M個の断層画像のうちの1つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の断層画像との類似度を求め、テンプレートとの位置ずれ量を求める。その後、演算処理部42は、求めた位置ずれ量に基づいて、各断層画像を補正する。
次に演算処理部42は、各断層画像に関する撮影時間が互いに連続する2つの断層画像間で数1に示す式により脱相関値M(x,z)を求める。なお、脱相関値を求める際に用いる2つの断層画像は、所定の撮影時間内に撮影された断層画像であればよく、撮影時間が互いに連続していなくてもよい。
Figure 2021101965
ここで、A(x,z)は断層画像Aの位置(x,z)における輝度、B(x,z)は断層画像Bの同一位置(x,z)における輝度を示している。
脱相関値M(x,z)は0〜1の値となり、2つの輝度の差が大きいほどM(x,z)の値は大きくなる。演算処理部42は、同一位置で繰り返し取得したMが3以上の場合には、同一位置(x,z)において複数の脱相関値M(x,z)を求めることができる。演算処理部42は、求めた複数の脱相関値M(x,z)の最大値演算や平均演算などの統計的な処理を行うことで、最終的なモーションコントラスト画像を生成することができる。なお、繰り返し回数Mが2の場合、最大値演算や平均演算などの統計的な処理は行わず、二つの断層画像A,Bの脱相関値M(x,z)が、位置(x,z)におけるモーションコントラストデータの値となる。演算処理部42は、断層画像の各画素位置についてモーションコントラストデータを生成し、モーションコントラストデータを対応する画素位置に配置することで、断層画像に対応するモーションコントラスト画像を生成することができる。
数1に示したモーションコントラストデータの計算式はノイズの影響を受けやすい傾向がある。例えば、複数の断層画像の無信号部分にノイズがあり、互いに値が異なる場合には、脱相関値が高くなり、モーションコントラスト画像にもノイズが重畳してしまう。これを避けるために、演算処理部42は、前処理として、所定の閾値を下回る断層画像のデータはノイズとみなして、ゼロに置き換えることもできる。これにより、演算処理部42は、生成されたモーションコントラストデータに基づいて、ノイズの影響を低減したモーションコントラスト画像を生成することができる。
また、本実施例では、演算処理部42は、モーションコントラスト画像に基づいてOCTA画像(モーションコントラスト正面画像)を生成してもよいとした。ここで、演算処理部42は、同様の処理により、輝度の断層画像に基づいて、輝度のEn−Face画像を生成してもよい。ここで、輝度のEn−Face画像とは、輝度の断層画像(三次元断層画像)の任意の深度範囲におけるデータを二次元平面(xy平面)に投影した画像をいう。
OCTA画像やEn−Face画像を生成する深度範囲は、被検眼の断層画像に含まれる任意の2つの層境界で定義されることができる。また、深度範囲は操作者によってオフセット指示されることで定義されてもよい。さらに、深度範囲はある層境界を基準として浅い方向又は深い方向に所定の画素分を含む範囲として定義されてもよい。また、En−Face画像は、三次元断層画像におけるxy面の1断面画像などであってよい。なお、深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。ここで、代表値は、深度範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。演算処理部42は、三次元断層画像や三次元モーションコントラスト画像の少なくとも一部のデータを二次元平面に投影して正面画像であるEn−Face画像やOCTA画像を生成することができる。
なお、略同一位置を測定光が複数回走査されるように走査手段を制御する際に、一つの走査(一つのBスキャン)と次の走査(次のBスキャン)との時間間隔(タイムインターバル)が変更(決定)されるように構成されてもよい。これにより、例えば、血管の状態によって血流速度が異なる場合があっても、血管領域を精度よく可視化することができる。このとき、例えば、検者からの指示に応じて、上記時間間隔が変更可能に構成されてもよい。また、例えば、検者からの指示に応じて、予め設定されている複数の時間間隔に対応する複数のモーションコントラスト画像から、いずれかのモーションコントラスト画像が選択可能に構成されてもよい。また、例えば、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータとを対応づけて記憶部44に記憶可能に構成されてもよい。また、例えば、デバイス制御部45は、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータに対応するモーションコントラスト画像とを表示部8に表示させてもよい。また、例えば、上記時間間隔が自動的に決定、あるいは上記時間間隔の少なくとも1つの候補が決定されるように構成されてもよい。このとき、例えば、機械学習モデルを用いて、モーションコントラスト画像から、上記時間間隔が決定(出力)されるように構成されてもよい。このような機械学習モデルは、例えば、複数の時間間隔に対応する複数のモーションコントラスト画像を入力データとし、該複数の時間間隔から所望のモーションコントラスト画像を取得した際の時間間隔までの差を正解データとする学習データを学習することにより得ることができる。
(実施例2)
実施例1では、演算処理部42が、学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得し、パラメータ設定部43が、病名情報を用いて断層画像の撮影パラメータを設定した。これに対し、実施例2では、演算処理部は、学習済モデルを用いて、被検眼の眼底正面画像から病変に関する病変情報を取得し、パラメータ設定部が病変情報を用いて撮影パラメータを設定する。
本実施例に係るOCT装置の構成は、実施例1に係るOCT装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、図6及び図7を用いて本実施例に係るOCT装置について、実施例1に係るOCT装置との違いを中心に説明する。
本実施例では、演算処理部42は、学習済モデルを用いて、眼底正面画像から病変情報を取得する。ここで、病変情報は、病変の位置、大きさ及び種類等を示す情報をいう。なお、病変情報は一つの病変に関する情報に限られず、複数の病変に関する情報を含んでもよい。パラメータ設定部43は、演算処理部42によって取得された病変情報を用いて、断層画像の撮影パラメータを設定する。ここで、撮影パラメータは、実施例1に係る断層画像の撮影パラメータと同様のものであってよい。
次に、演算処理部42が用いる機械学習モデルについて説明する。本実施例では、U−net型の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を、機械学習モデルの一例として用いる構成について説明する。
以下、本実施例に係る学習済モデルの一例として、CNNについて、図6を参照して説明する。図6に示す学習済モデルは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該学習済モデルの構成61に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。
畳み込み層は、設定されたフィルタのカーネルサイズや、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。
ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。
アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。
合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。
なお、図6に示す構成61に含まれる畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、学習データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。
また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、処理の精度が高かったり、処理の時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。
なお、本実施例で用いるCNNの構成61は、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルである。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。
図示しないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等してもよい。
このような機械学習モデルの学習済モデルにデータを入力すると、機械学習モデルの設計に従ったデータが出力される。例えば、学習データを用いてトレーニングされた傾向に従って入力データに対応する可能性の高い出力データが出力される。本実施例では、疾病眼及び健常眼の眼底正面画像を学習データの入力データとし、病変情報の一例である眼底正面画像についてラベル付けを行ったラベル画像を学習データの出力データとする。ここで、ラベル画像とは、画像について画素毎に領域のラベルが付された画像をいい、セグメンテーション結果の一種であってよい。
学習データの出力データの生成方法としては、疾病眼及び健常眼の眼底正面画像について、医師等がラベル付けを行ったラベル画像を用いることができる。また、医師が、健常眼であると判断した被検眼に関する眼底正面画像については、病変部位のラベル値を含まないラベル画像又は入力された眼底正面画像を出力データとして用いることができる。なお、学習データの生成方法はこれに限られない。例えば、眼底正面画像についてセグメンテーション処理を行って得たラベル画像や、当該ラベル画像について医師等が修正を行ったラベル画像、学習済モデルを用いて得たラベル画像について医師等が修正を行ったラベル画像を学習データの出力データとしてもよい。
なお、学習データの出力データとして用いるラベル画像は、医師等が眼底正面画像だけを用いて生成したラベル画像に限られない。例えば、医師等が、被検眼について、眼底正面画像に加えて断層画像やOCTA画像等の画像を用いて生成したラベル画像を学習データの出力データとして用いてもよい。具体的には、医師等が、眼底正面画像では病変であると判断しきれない領域について、断層画像等の画像を用いて病変であると判断してラベルを付したラベル画像等を学習データの出力データとして用いてもよい。このような学習データを用いて学習を行った場合には、学習済モデルが、眼底正面画像に含まれている、肉眼では把握しにくい特徴に基づいて、より適切なラベル画像を出力することができることが期待できる。なお、この場合も学習データの入力データは、眼底正面画像だけであってよい。
なお、学習データの出力データとして用いられるラベル画像は、例えば、眼底正面画像において病変部位が判別できるようにラベル値が付された画像であってよい。ここで、病変部位に関するラベル値は、病変の種類を識別できるような値であってもよいし、単純に病変部位(異常部位)であることを示す値であってもよい。
このような学習データを用いた学習により得た学習済モデルは、眼底正面画像が入力されると、病変部位を識別可能なようにラベル付けが行われたラベル画像を出力することができる。このため、演算処理部42は、学習済モデルを用いて、病変の位置、大きさ及び種類等を示す病変情報を取得することができる。なお、病変の種類としては、例えば、視神経乳頭の形状異常、神経線維層欠損、網膜血管異常、及び軟性ドルーゼン等が含まれる。ここで、学習処理に関しては、実施例1で述べた学習処理と同様に行われてよい。
パラメータ設定部43は、演算処理部42が取得した病変情報に基づいて、断層画像の撮影パラメータを設定できる。ここで、パラメータ設定部43は、例えば、病変情報と撮影パラメータを対応付けたテーブルを参照することで、撮影パラメータを設定してよい。当該テーブルとしては、病変の種類と撮影パラメータを対応付けたテーブルであってもよいし、病変の位置及び大きさと撮影パラメータを対応付けたテーブルであってもよい。病変の種類と撮影パラメータを対応付けたテーブルを用いる場合には、パラメータ設定部43は、病変情報に含まれる病変の位置や大きさに基づいて病変の種類を判断してもよいし、病変情報に含まれる病変の種類を用いてもよい。なお、病変の位置や大きさに基づいて病変の種類を判断する方法は公知の任意の方法を用いてよく、例えば、例えば網膜の形状の規則性等の既知の規則性を利用したルールベースの処理を用いてよい。
次に、本実施例に係る一連の動作について、図7を参照して説明する。図7は、本実施例に係る一連の動作のフローチャートである。なお、ステップS71及びステップS75は、実施例1に係るステップS41及びステップS45と同様であるため説明を省略する。ステップS71において、眼底正面画像が取得されたら、処理はステップS72に移行する。
ステップS72では、演算処理部42が、学習済モデルを用いて、眼底正面画像から病変情報を取得する。より具体的には、演算処理部42は、学習済モデルに眼底正面画像を入力し、学習済モデルから出力されたラベル画像を取得する。ここで、ラベル画像は、病変部位の位置、大きさ及び種類を示す病変情報の一例である。また、学習済モデルから出力された画像が病変のラベル値を含まないラベル画像や眼底正面画像であった場合には、病変情報として健常眼であることを示す情報又は病変がないことを示す情報を取得してもよい。また、本実施例においても、眼底正面画像は、静止画撮影部25によって撮影されたカラー静止画像であってもよいし、赤外動画撮影部24により撮影された眼底の動画像であってもよい。
なお、演算処理部42は、学習済モデルから出力された情報をパラメータ設定部43が利用できる情報に整えてもよい。例えば、演算処理部42は、ラベル画像から、病変部位の位置、大きさ及び種類等を示す文字情報や数値情報等を生成してもよい。これに対し、パラメータ設定部43が、ラベル画像から病変部位の位置、大きさ及び種類を特定してもよい。
ステップS73では、演算処理部42は、病変情報が、病変のラベル値を含まない画像や健常眼であることを示す情報等であると判断した場合、検査を終了すると判断し、一連の動作を終了させる。一方で、演算処理部42が、病変情報が病変の位置等を示す情報であると判断した場合には、処理はステップS74に進む。
なお、パラメータ設定部43が、ステップS74において、病変情報に基づいて、一連の動作の終了判断を行ってもよい。例えば、パラメータ設定部43は、ステップS74において、病変情報が病変のラベル値を含まないラベル画像や眼底正面画像であった場合に、検査を終了すると判断し、一連の動作を終了させてもよい。なお、この場合、ステップS73は省略されてよい。
ステップS74では、パラメータ設定部43が、ステップS72で取得された病変情報を用いて断層画像の撮影パラメータを設定する。上述のように、パラメータ設定部43は、例えば、病変情報と撮影パラメータを対応付けたテーブルを用いて、病変情報に対応する断層画像の撮影パラメータを設定してよい。ここで、以下に、病変情報に対応する撮影パラメータの例を挙げる。なお、以下のパラメータは一例であり、所望の構成に応じて任意に変更されてよい。また、病変情報及び病変情報に応じた撮影パラメータは以下の例に限られず、他の情報や撮影パラメータを含んでもよい。
(視神経乳頭の形状異常)
病変情報から特定される病変が視神経乳頭の形状異常であった場合には、パラメータ設定部43は、例えば、視神経乳頭付近の6mm×6mmの領域のボリュームスキャンを設定する。ここで、ボリュームスキャンは、例えば、1024×512×16のサイズのサークルスキャンにより行われることができる。
(神経線維層欠損)
病変情報から特定される病変が神経線維層欠損であった場合には、神経線維層厚の定量化が必要であるため、パラメータ設定部43は、例えば、欠損部位を含む矩形領域について、Bスキャン画像上で層厚が精密に計測できるようにボリュームスキャンを設定する。ここで、ボリュームスキャンは、例えば、512×512×128のサイズのラスタスキャンにより行われることができる。なお、この場合、パラメータ設定部43は、実施例1と同様に、神経線維層マップを生成するように撮影パラメータを設定してもよい。
(網膜血管異常)
病変情報から特定される病変が網膜血管異常であった場合には、黄斑浮腫の可能性があるため、パラメータ設定部43は、例えば、直径約2mmの黄斑部を十分含むように、黄斑付近の6mm×6mmの領域のボリュームスキャンを設定する。ここで、ボリュームスキャンは、例えば、256×256×256のサイズのラスタスキャンにより行われることができる。
(軟性ドルーゼン等)
病変情報から特定される病変が軟性ドルーゼン等であった場合には、加齢黄斑変性が疑われるので、黄斑付近の6mm×6mmの領域について、Bスキャン画像上での網膜色素上皮の微細な凹凸が検出できるようにボリュームスキャンを設定する。ここで、ボリュームスキャンは、例えば、512×512×128 のサイズでラスタスキャンにより行われることができる。なお、実施例1に係る加齢黄斑変性症に対応する撮影パラメータと同様の撮影パラメータを設定してもよい。
ステップS74においてパラメータ設定部43が断層画像の撮影パラメータを設定すると、処理はステップS75に移行する。ステップS75では、実施例1と同様に、デバイス制御部45が、パラメータ設定部43によって設定された撮影パラメータに基づいて、OCT撮影部3を制御し、被検眼の断層画像の撮影を行う。
上記のように、本実施例に係る演算処理部42は、被検眼の眼底正面画像と被検眼の病変の位置、大きさ及び種類の少なくとも一つを示す病変情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病変情報を取得する。パラメータ設定部43は、演算処理部42によって取得された病変情報を用いて、断層画像の撮影パラメータを設定する。
このような構成によれば、眼底正面画像と病変情報とを学習した学習済モデルを用いて、被検眼の眼底正面画像から病変情報を取得し、病変情報に応じた撮影パラメータを設定することができる。このため、従来の閾値処理による病変の検出処理に基づく撮影パラメータの設定処理と比べ、眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定することができる。
なお、本実施例では、被検眼が健常眼(正常眼)である場合には断層画像の撮影を行わない構成とした。これに対して、被検眼が健常眼の場合は、クロススキャンなどの簡易な断層画像撮影を行うようにしてもよい。
また、本実施例では、演算処理部42が、学習済モデルからラベル画像を取得する構成としたが、演算処理部42の構成はこれに限られない。演算処理部42は、学習済モデルを用いて、眼底正面画像における病変部位を特定し、病変情報を取得できればよい。このため、学習済モデルは、眼底正面画像から病変部位を検出し、病変情報(例えば、病変の位置及び大きさ)を出力できればよい。
これに関して、演算処理部42は、異常部位(病変部位)を検出するための機械学習モデルとして、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。
なお、演算処理部42は、異常部位を検出する場合には、敵対的生成ネットワーク(GAN:Generative Adversarial Networks)や変分オートエンコーダー(VAE:Variational Auto−Encoder)を用いてもよい。例えば、眼底正面画像の生成を学習して得た生成器と、生成器が生成した新たな眼底正面画像と本物の眼底正面画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。
DCGANを用いる場合には、例えば、識別器が入力された眼底正面画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな眼底正面画像を生成する。その後、入力された眼底正面画像と生成された新たな眼底正面画像との差分を異常部位として抽出(検出)することができる。また、VAEを用いる場合には、例えば、入力された眼底正面画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな眼底正面画像を生成する。その後、入力された眼底正面画像と生成された新たな眼底正面画像との差分を異常部位として抽出することができる。
さらに、演算処理部42は、畳み込みオートエンコーダー(CAE:Convolutional Auto−Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ画像を学習させる。これにより、推定時に異常部位がある画像をCAEに入力すると、学習の傾向に従って異常部位がない画像が出力される。その後、CAEに入力された画像とCAEから出力された画像の差分を異常部位として抽出することができる。
これらの場合、演算処理部42は、眼底正面画像について敵対的生成ネットワーク又はオートエンコーダー(AE)を用いて得た画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された眼底正面画像との差に関する情報を病変情報として取得することができる。これにより、演算処理部42は、高速に精度よく病変情報を取得することが期待できる。例えば、異常部位の検出精度の向上のために異常部位を含む眼底正面画像を学習データとして数多く集めることが難しい場合であっても、比較的に数多く集め易い正常な被検体の眼底正面画像を学習データとして用いることができる。このため、例えば、異常部位を精度よく検出するための学習を効率的に行うことができる。ここで、オートエンコーダーには、VAEやCAE等が含まれる。また、敵対的生成ネットワークの生成部の少なくとも一部がVAEで構成されてもよい。これにより、例えば、同じようなデータを生成してしまう現象を低減しつつ、比較的鮮明な画像を生成することができる。また、例えば、眼底正面画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された画像との差に関する情報は、病変情報として表示部8に表示されてもよい。
演算処理部42は、このような機械学習モデルの学習済モデルを用いた場合であっても、眼底正面画像から病変部位を特定することができる。そのため、演算処理部42は、学習済モデルからの出力を用いて、病変情報を取得することができる。
また、演算処理部42は、実施例1に係る学習済モデルと同様の学習済モデルを用いて、眼底正面画像から病変情報を取得してもよい。この場合には、例えば、疾病眼及び健常眼の眼底正面画像を学習データの入力データとし、病変の有無や病変の種類を示す病変情報を学習データの出力データとする。
この場合の学習データの生成方法としては、疾病眼及び健常眼の眼底正面画像について、医師等が生成した病変情報を用いることができる。また、医師が、健常眼であると判断した被検眼に関する眼底正面画像については、健常眼であることを示す情報や病変がないことを示す情報を出力データとして用いることができる。
例えば、このような学習済モデルでは、機械学習モデルの構成に応じて、入力データに対応する病変情報について、学習データの出力データに関する各病変の種類についての割合が出力される。例えば、病変情報が視神経乳頭の形状異常を示す情報である割合が0.8、疾病がないことを示す情報である割合が0.2といった情報が出力される。ここで、演算処理部42は、学習済モデルから出力された情報のうち、他の情報よりも割合が高い情報を最終的な病変情報としてもよいし、閾値以上である割合の情報を病変情報としてもよい。
また、閾値以上である割合の情報が複数ある場合、操作者の指示に応じて当該複数の情報のうち、撮影すべき断層画像に対応する情報を選択するように構成してもよい。例えば、閾値以上である割合の情報が複数ある場合、デバイス制御部45は、当該情報に対応する病変の種類等の情報を表示部8に表示させ、操作者に撮影を望む病変の種類等の情報を選択させるようにしてもよい。この場合、複数の病変の種類が選択されてもよい。パラメータ設定部43は、選択された病変の種類等の情報に対応する病変情報に基づいて撮影パラメータを設定することができる。また、演算処理部42は、学習済モデルから出力された複数の情報から、機械学習モデルを用いて、撮影パラメータの設定に用いる病変の種類等の病変情報を決定してもよい。この場合には、機械学習モデルとして、例えば、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。
これに関連して、演算処理部42は、検者からの指示に応じて、学習済モデルから出力された情報を用いて病変情報を決定してもよい。例えば、演算処理部42は、学習済モデルから出力された情報のうち、閾値以上である割合の情報を病変の種類の情報とし、当該情報について、検者からの指示(承認)に応じて、撮影パラメータの設定に用いる病変情報として決定することができる。また、上述のように、演算処理部42は、学習済モデルから出力された情報について、閾値以上である割合の情報が複数ある場合、操作者の指示に応じて、当該複数の情報(病変情報)から撮影パラメータの設定に用いる1つの病変情報を選択し決定してもよい。
さらに、演算処理部42は、学習済モデルから出力された情報について、操作者からの指示に応じて修正を行った情報を、撮影パラメータの設定に用いる病変情報として決定してもよい。例えば、演算処理部42は、学習済モデルから出力された病変の位置や大きさ、又は病変の種類の情報を操作者からの指示に応じて修正し、修正した病変情報を撮影パラメータの設定に用いる病変情報として決定してもよい。従って、病変情報は、操作者の指示に応じて修正可能であってもよい。また、パラメータ設定部43が、病変情報を用いて設定した撮影パラメータを、操作者からの指示に応じて修正してもよい。
なお、演算処理部42が用いる学習済モデルの入力データは複数のデータであってもよい。例えば、学習済モデルの入力データは、複数の眼底正面画像であってもよい。具体的には、カラー眼底正面画像をRGBの各色の画像に分けた眼底正面画像を学習済モデルの入力データとしてもよい。また、複数の異なる部位の眼底正面画像を学習済モデルの入力データとしてもよい。これらの場合、学習済モデルに関する学習データの入力データとしては、それぞれRGBの各色の眼底正面画像や複数の異なる部位の眼底正面画像を用いればよい。
さらに、学習済モデルの入力データは、眼底正面画像に加えて、他の画像、例えば、過去に被検体について取得した眼底正面画像や、断層画像、解析マップ(層厚マップ、血管密度マップ)等を含んでもよい。この場合、学習済モデルに関する学習データの入力データとしては、眼底正面画像に加えて入力データとして用いる画像を用いればよい。このような学習済モデルでは、眼底正面画像に加えて、他の画像の特徴量も病変情報の取得・推定に用いることができるため、当該被検体に適切な病変情報をより精度良く取得できることが期待できる。
なお、入力データとして用いる画像毎又は画像の種類毎に学習済モデルを用意し、演算処理部42が入力データに対応する学習済モデルを用いて、入力データから病変の種類の情報を取得してもよい。この場合、演算処理部42は、各学習済モデルから出力された情報に統計的な処理を行い、撮影パラメータの設定に用いる病変の種類の情報を決定してもよい。例えば、各学習済モデルから出力された情報の割合を各種類の情報毎に加算し、他の情報よりも割合の合計が高い情報を撮影パラメータの設定に用いる病変情報を決定してもよい。なお、統計的な処理は合計の算出に限られず、平均値や中央値の算出等であってもよい。また、例えば、各学習済モデルから出力された情報のうち、他の情報よりも割合の高い情報(最も割合の高い情報)を用いて撮影パラメータの設定に用いる病変情報を決定してもよい。同様に、各学習済モデルから出力された情報のうち、閾値以上である割合の情報を用いて撮影パラメータの設定に用いる病変情報を決定してもよい。
ここで、演算処理部42は、操作者の指示(選択)に応じて、決定された病変情報の良否の判定(承認)が可能に構成されてもよい。また、演算処理部42は、上述のように、操作者の指示に応じて各学習済モデルから出力された情報から撮影パラメータの設定に用いる病変情報を決定してもよい。このとき、例えば、デバイス制御部45が、各学習済モデルから出力された情報及びその割合を並べて表示部8に表示させてもよい。そして、操作者は、例えば、他の情報よりも割合の高い情報を選択することにより、選択された情報を、撮影パラメータの設定に用いる病変情報として決定するように構成されてもよい。また、演算処理部42は、各学習済モデルから出力された情報から、機械学習モデルを用いて、撮影パラメータの設定に用いる病変情報を決定してもよい。この場合には、機械学習モデルとして、病変情報取得に用いられた機械学習モデルとは異なる種類の機械学習モデルであってもよく、例えば、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。
また、本実施例では、パラメータ設定部43は、病変情報と撮影パラメータを対応付けたテーブルを参照して、断層画像の撮影パラメータを設定するとした。これに対し、パラメータ設定部43は、テーブルを用いずに、病変情報に含まれる病変の位置及び大きさに基づいて、例えば、病変部位の周囲を含む領域を撮影するように撮影パラメータを設定してもよい。この場合、複数の病変が眼底正面画像において互いの近傍に現れている場合には、当該複数の病変部位を含む一つの領域を撮影するように撮影パラメータを設定してもよいし、それぞれの病変部位の領域を撮影するように撮影パラメータを設定してもよい。
(実施例3)
実施例1及び2では、演算処理部42が、学習済モデルを用いて、被検眼の眼底正面画像から病名情報又は病変情報を取得し、パラメータ設定部43が病名情報又は病変情報を用いて断層画像の撮影パラメータを設定した。これに対し、実施例3では、演算処理部が、学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得する。また、演算処理部は、セグメンテーション処理や学習済モデルを用いて、眼底正面画像から病変情報を取得する。その後、パラメータ設定部が、病名情報及び病変情報を用いて断層画像の撮影パラメータを設定する。
本実施例に係るOCT装置の構成は、実施例1に係るOCT装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、図8を用いて本実施例に係るOCT装置について、実施例1に係るOCT装置との違いを中心に説明する。
本実施例では、演算処理部42は、学習済モデルを用いて、眼底正面画像から病名情報を取得する。当該処理は、実施例1に係る病名情報を取得するための処理と同様であってよく、病名情報を取得するための学習済モデルも実施例1に係る学習済モデルと同様のものであってよい。
また、本実施例では、演算処理部42は、セグメンテーション処理又は学習済モデルを用いて、眼底正面画像から病変情報も取得する。ここで、学習済モデルを用いて病変情報を取得する処理は、実施例2に係る病変情報を取得するための処理と同様であってよく、病変情報を取得するための学習済モデルも実施例2に係る学習済モデルと同様のものであってよい。以下、本実施例では、演算処理部42が、学習済モデルを用いて眼底正面画像から病変情報を取得する構成について説明する。
一方で、セグメンテーション処理により、眼底正面画像から病変情報を取得する場合には、例えば、眼底正面画像から特徴のある部分を検出し、検出した部分及び予め設定された閾値に基づいて病変の可能性の有無を検出し、病変情報を取得してよい。なお、セグメンテーション処理により眼底正面画像から病変情報を取得する方法は、これに限られず、公知の任意の方法を用いてよい。
パラメータ設定部43は、演算処理部42によって取得された病名情報及び病変情報を用いて、断層画像の撮影パラメータを設定する。ここで、パラメータ設定部43によって、病名情報を用いて設定される撮影パラメータは実施例1で述べた断層画像の撮影パラメータであってよい。また、病変情報を用いて設定される撮影パラメータは実施例2で述べた断層画像の撮影パラメータであってよい。
ここで、パラメータ設定部43は、病名情報に基づく撮影パラメータに加えて、病変情報に基づく撮影パラメータを設定することができる。例えば、パラメータ設定部43は、病名情報に対応付けられた撮影パラメータに加えて、病変情報に含まれる病変の位置及び大きさから特定される病変部位の周辺を撮影するような撮影パラメータを設定してよい。
次に、図8を参照して、本実施例に係る一連の動作について説明する。図8は、本実施例に係る一連の動作のフローチャートである。なお、ステップS81及びステップS85は、実施例1に係るステップS41及びステップS45と同様であるため説明を省略する。ステップS81において、眼底正面画像が取得されたら、処理はステップS82に移行する。
ステップS82では、演算処理部42が、病名情報を取得するための学習済モデルを用いて、実施例1と同様に、眼底正面画像から病名情報を取得する。また、演算処理部42は、病変情報を取得するための学習済モデルを用いて、実施例2と同様に、眼底正面画像から病変情報を取得する。なお、病変情報を取得するための学習済モデルは、実施例2で述べたラベル画像を出力する学習済モデルであってもよいし、病変部位を特定する情報を出力する学習済モデル等であってもよい。また、上述のように、演算処理部42は、セグメンテーション処理により、眼底正面画像から病変情報を取得してもよい。
ステップS83では、演算処理部42は、病名情報及び病変情報が、疾病及び疾病がないことを示す情報であると判断した場合、検査を終了すると判断し、一連の動作を終了させる。一方で、演算処理部42が、病名情報又は病変情報が疾病名又は病変の位置等を示す情報であると判断した場合には、処理はステップS84に進む。なお、当該検査の終了の判断は、実施例1及び実施例2で述べたように、ステップS84で判断されてもよい。
ステップS84では、パラメータ設定部43が、ステップS82で取得された病名情報及び病変情報を用いて断層画像の撮影パラメータを設定する。パラメータ設定部43は、例えば、病名情報と撮影パラメータを対応付けたテーブルを用いて特定した病変情報に対応する断層画像の撮影パラメータに加えて、病変情報で特定される病変部位を撮影するための撮影パラメータを設定する。なお、病名情報に対応する撮影パラメータや病変情報に対応する撮影パラメータは、実施例1及び実施例2で述べたものと同様であってよい。
ステップS84においてパラメータ設定部43が断層画像の撮影パラメータを設定すると処理はステップS85に移行する。ステップS85では、実施例1と同様に、デバイス制御部45が、パラメータ設定部43によって設定された撮影パラメータに基づいて、OCT撮影部3を制御し、被検眼の断層画像の撮影を行う。
上記のように、本実施例に係る演算処理部42は、学習済モデルを用いて、眼底正面画像から病名情報を取得するとともに、眼底正面画像から病変情報を取得する。特に、本実施例に係る演算処理部42は、病名情報を取得するための学習済モデルとは異なる学習済モデルを用いて、眼底正面画像から病変情報を取得する。また、パラメータ設定部43は、演算処理部42が取得した病名情報及び病変情報を用いて、断層画像の撮影パラメータを設定する。
このような構成によれば、眼底正面画像と病名情報とを学習した学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得し、病名情報に応じた撮影パラメータを設定することができる。また、病変情報に基づく撮影パラメータも設定することで、病名情報に基づく撮影パラメータだけでは対処できない、個別の病変に対応した撮影パラメータも設定することができる。このため、従来の閾値処理による病変の検出処理に基づく撮影パラメータの設定処理と比べ、眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定することができる。
なお、本実施例では、被検眼が健常眼(正常眼)である場合には断層画像の撮影を行わない構成とした。これに対して、被検眼が健常眼の場合は、クロススキャンなどの簡易な断層画像撮影を行うようにしてもよい。
また、本実施例では、パラメータ設定部43は、病名情報に基づく撮影パラメータに加えて、病変情報に基づく撮影パラメータを設定した。しかしながら、病名情報及び病変情報を用いて断層画像の撮影パラメータを設定する構成はこれに限られない。
パラメータ設定部43は、例えば、病名情報に対応付けられた撮影パラメータと、病変情報に基づいて特定された病変の種類に対応付けられた撮影パラメータとを別々の撮影パラメータとしてもよい。また、パラメータ設定部43は、これらの撮影パラメータのうちいずれか一つの撮影パラメータとしてもよい。例えば、パラメータ設定部43は、病名情報に対応付けられた撮影パラメータと、病変情報に対応付けられた撮影パラメータとが重複している場合には、これらのうちより広い範囲を撮影する撮影パラメータや、より高密度に撮影する撮影パラメータを設定してよい。
さらに、パラメータ設定部43は、例えば、病名情報に対応付けられた撮影パラメータと病変情報に対応付けられた撮影パラメータのいずれか一方の撮影パラメータの一部を、他方の撮影パラメータに基づいて変更してもよい。例えば、パラメータ設定部43は、病名情報に対応付けられた撮影パラメータについて、病変情報に対応付けられた撮影パラメータに基づいて、撮影範囲を拡大したり、スキャン密度を増加させたり、スキャンパターンを変更したりしてよい。
また、パラメータ設定部43は、病名情報及び病変情報と撮影パラメータを対応付けたテーブル等を用いて、断層画像の撮影パラメータを設定してもよい。この場合、テーブルでは、例えば、加齢黄斑変性症を示す病名情報及び軟性ドルーゼンを示す病変情報を、黄斑付近の6mm×6mmの領域のボリュームスキャンに関する撮影パラメータ等と対応付けることができる。
なお、本実施例では、演算処理部42は、実施例1で述べた学習済モデルを用いて病名情報を取得し、実施例2で述べた学習済モデルを用いて病変情報を取得することについて述べた。これに対し、演算処理部42は、実施例1で述べた学習済モデルから取得することができるヒートマップを用いて病変の位置や大きさを示す病変情報を取得してもよい。ここで、ヒートマップとは、学習済モデルが抽出した特徴量を可視化したマップであり、例えば、特徴量をカラーで示したカラーマップ等であってもよい。ヒートマップに関しては、学習済モデルが抽出した特徴量に係るものであるため、演算処理部42は、病名情報を取得する学習済モデルから取得したヒートマップを参照することで、眼底正面画像から抽出される特徴量の分布等を把握することができる。このため、演算処理部42は、病名情報を取得する学習済モデルから取得したヒートマップを用いて、病変情報を取得することができる。
(実施例4)
実施例1乃至3では、演算処理部42が、学習済モデルを用いて、被検眼の眼底正面画像から病名情報や病変情報を取得し、パラメータ設定部43が病名情報や病変情報を用いて断層画像の撮影パラメータを設定した。これに対し、実施例4では、演算処理部が、学習済モデルを用いて、被検眼の眼底正面画像及び断層画像から病名情報や病変情報を取得する。その後、パラメータ設定部が、病名情報や病変情報を用いて、断層画像のより精密な撮影パラメータを設定する。以下、本実施例では、演算処理部が、学習済モデルを用いて、被検眼の眼底正面画像及び断層画像から病名情報を取得する例について説明する。
本実施例に係るOCT装置の構成は、実施例1に係るOCT装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、図9を用いて本実施例に係るOCT装置について、実施例1に係るOCT装置との違いを中心に説明する。
本実施例では、眼底正面画像とともに、簡易的なスキャンパターンによる断層画像を取得し、演算処理部42は、学習済モデルを用いて、眼底正面画像及び当該断層画像から病名情報を取得する。なお、簡易的なスキャンパターンとしては、例えば、1又は少数のBスキャンやクロススキャン、サークルスキャン、リサージュスキャン(リサージュ曲線に沿った走査)等を用いてよい。パラメータ設定部43は、演算処理部42で取得された病名情報を用いて、断層画像のより精密な撮影を行うための撮影パラメータを設定する。なお、病名情報や病名情報に対応する撮影パラメータは実施例1に係る病名情報や撮影パラメータと同様のものであってよい。
ここで、本実施例に係る学習済モデルの学習データについて説明する。なお、学習済モデルに係る機械学習モデルの構成は実施例1で述べた構成と同様のものであってよい。本実施例では、疾病眼及び健常眼の眼底正面画像及び簡易的なスキャンパターンによる断層画像を学習データの入力データとし、疾病の有無や疾病名を示す病名情報を学習データの出力データとする。なお、学習データの入力データとして用いる断層画像のスキャンパターンと、学習済モデルに入力する断層画像のスキャンパターンは同一のスキャンパターンとすることができる。
学習データの生成方法としては、疾病眼及び健常眼の眼底正面画像及び簡易的なスキャンパターンによる断層画像について、医師等が診断を行った際の病名情報を用いることができる。例えば、医師が緑内障である又は緑内障である可能性があると判断した被検眼について、当該被検眼の眼底正面画像及び簡易的なスキャンパターンによる断層画像を入力データとし、緑内障を示す病名情報を出力データとして用いることができる。また、医師が、健常眼であると判断した被検眼に関する眼底正面画像及び断層画像については、健常眼であることを示す情報や疾病がないことを示す情報を出力データとして用いることができる。また、学習処理に関しては、実施例1で述べた学習処理と同様に行われてよい。
なお、学習データの出力データとして用いる情報は、医師等が眼底正面画像及び断層画像だけを用いて判断した情報に限られない。例えば、医師等が、被検眼について、眼底正面画像に加えてOCTA画像等の画像を用いて判断した病名情報を学習データの出力データとして用いてもよい。このような学習データを用いて学習を行った場合には、学習済モデルが、眼底正面画像又は断層画像に含まれている、肉眼では把握しにくい特徴に基づいて、より適切な病名情報を出力することができることが期待できる。なお、この場合も学習データの入力データは、眼底正面画像及び断層画像だけであってよい。
次に、図9を参照して、本実施例に係る一連の動作について説明する。図9は、本実施例に係る一連の動作のフローチャートである。なお、ステップS93乃至ステップS95は、実施例1に係るステップS43乃至ステップS45と同様であるため説明を省略する。
まず、ステップS91において、実施例1と同様に位置合わせ及び焦点合わせが完了すると、画像取得部41は、静止画撮影部25を用いて撮影された眼底正面画像を記憶部44に格納する。また、デバイス制御部45は、OCT撮影部3を制御し、被検眼の所定の撮影範囲について、簡易的なスキャンパターンの断層画像を撮影し、記憶部44に格納する。
ステップS92では、演算処理部42が、病名情報を取得するための学習済モデルを用いて、取得された眼底正面画像及び断層画像から病名情報を取得する。より具体的には、演算処理部42は、学習済モデルに眼底正面画像及び断層画像を入力し、学習済モデルから出力された病名情報を取得する。なお、演算処理部42は、学習済モデルから出力された情報をパラメータ設定部43が利用できる情報に整えてもよい。
例えば、上述のような学習済モデルでは、機械学習モデルの構成に応じて、入力データに対応する病名情報について、学習データの出力データに関する各病名情報についての割合が出力される。例えば、病名情報が緑内障を示す情報である割合が0.8、疾病がないことを示す情報である割合が0.2といった情報が出力される。ここで、演算処理部42は、学習済モデルから出力された情報のうち、他の情報よりも割合が高い情報を最終的な病名情報としてもよいし、閾値以上である割合の情報を病名情報としてもよい。
ステップS94では、パラメータ設定部43が、ステップS92で取得された病名情報を用いて断層画像の撮影パラメータを設定する。以降の処理は実施例1と同様であるため説明を省略する。
上記のように、本実施例に係る学習データは、被検眼の断層画像を更に含む。また、演算処理部42は、当該学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像及び断層画像から被検眼の病名情報を取得する。このような構成によれば、学習済モデルは、眼底正面画像だけでなく断層画像における特徴量も処理に用いることができる。このため、学習済モデルが用いることができる特徴量が増加することから、演算処理部42は、当該学習済モデルを用いることで、より精度の高い病名情報を取得することができることが期待できる。
なお、本実施例では、実施例1に係る構成に関して、機械学習モデルの学習データの入力データとして、眼底正面画像に加えて簡易的なスキャンパターンの断層画像を用いることとした。これに対して、実施例2に係る機械学習モデルの学習データの入力データとして、眼底正面画像に加えて簡易的なスキャンパターンの断層画像を用いることもできる。この場合の学習データの入力データとして用いる断層画像は、ラベル画像を生成した眼底正面画像を撮影した際に、簡易的なスキャンパターンで撮影した断層画像であってよい。
また、学習データの出力データとして用いるラベル画像は、医師等が眼底正面画像及び断層画像だけを用いて生成したラベル画像に限られない。例えば、医師等が、被検眼について、眼底正面画像及び断層画像に加えてOCTA画像等の画像を用いて生成したラベル画像を学習データの出力データとして用いてもよい。
演算処理部42は、当該学習データを用いた学習により得た学習済モデルを用いることで、被検眼の眼底正面画像及び断層画像から被検眼の病変情報を取得することができる。このような構成でも、学習済モデルが用いることができる特徴量が増加することから、演算処理部42は、当該学習済モデルを用いることで、より精度の高い病変情報を取得することができることが期待できる。
なお、機械学習モデルの学習データの入力データとして、眼底正面画像に加えて簡易的なスキャンパターンの断層画像を用いる構成は、実施例3についても適用できる。この際の学習データの生成方法等は、本実施例に係る学習データの生成方法や、上述の実施例2に係る構成に同様の構成を適用する場合の学習データの生成方法と同様のものであってよい。このような構成でも、学習済モデルが用いることができる特徴量が増加することから、演算処理部42は、当該学習済モデルを用いることで、より精度の高い病名情報や病変情報を取得することができることが期待できる。
(実施例5)
実施例1乃至3では、演算処理部42が、学習済モデルを用いて、被検眼の眼底正面画像から病名情報や病変情報を取得し、パラメータ設定部43が病名情報や病変情報を用いて断層画像の撮影パラメータを設定した。これに対し、実施例5では、演算処理部が、学習済モデルを用いて、被検眼の眼底正面画像から断層画像の撮影パラメータを取得する。
本実施例に係るOCT装置の構成は、実施例1に係るOCT装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。ただし、本実施例では、演算処理部42がパラメータ設定部43の一例として機能するため、パラメータ設定部43は省略されてよい。以下、図10を用いて本実施例に係るOCT装置について、実施例1に係るOCT装置との違いを中心に説明する。
本実施例では、演算処理部42は、学習済モデルを用いて、眼底正面画像から断層画像の撮影パラメータを取得する。なお、撮影パラメータは実施例1や実施例2に係る撮影パラメータと同様のものであってよい。ただし、本実施例では撮影パラメータは、病名情報や病変情報と対応付けられる必要はない。
ここで、本実施例に係る学習済モデルの学習データについて説明する。なお、学習済モデルに係る機械学習モデルの構成は実施例1で述べた構成と同様のものであってよい。本実施例では、疾病眼及び健常眼の眼底正面画像を学習データの入力データとし、断層画像の撮影の要否や断層画像の撮影パラメータを学習データの出力データとする。
学習データの生成方法としては、医師等が疾病眼及び健常眼の眼底正面画像を用いて診断を行った際に、医師等が断層画像の撮影に用いた撮影パラメータを用いることができる。例えば、医師が被検眼について何らかの疾病や病変を含んでいる又はその可能性があると判断した際に、診断に用いた被検眼の眼底正面画像を入力データとすることができる。また、当該判断された疾病や病変を確認等するために断層画像を撮影した際の撮影パラメータを出力データとして用いることができる。例えば、医師等が、眼底正面画像を用いて被検眼が緑内障であると診断し、神経線維層マップを生成するために、例えば、視神経乳頭付近の6mm×6mmの領域のボリュームスキャンを設定した場合には、当該撮影パラメータを出力データとして用いることができる。また、断層画像撮影の結果物として、神経線維層マップを生成した場合、神経線維層マップを生成することを示す撮影パラメータも出力データに含めることができる。その他、OCTA撮影等も出力データとされる撮影パラメータに含めることができる。
また、医師が、健常眼であると判断し、断層画像の撮影を行わなかった被検眼に関する眼底正面画像については、断層画像の撮影が不要であることを示す情報を出力データとして用いることができる。また、学習処理に関しては、実施例1で述べた学習処理と同様に行われてよい。
なお、学習データの出力データとして用いる情報は、医師等が用いる眼底正面画像だけを用いて判断した情報に限られない。例えば、医師等が、被検眼について、眼底正面画像に加えて断層画像やOCTA画像等の画像を用いて疾病や病変を判断した際の断層画像に関する撮影パラメータを学習データの出力データとして用いてもよい。このような学習データを用いて学習を行った場合には、学習済モデルが、眼底正面画像に含まれている、肉眼では把握しにくい特徴に基づいて、より適切な撮影パラメータを出力することができることが期待できる。なお、この場合も学習データの入力データは、眼底正面画像だけであってよい。
次に、図10を参照して、本実施例に係る一連の動作について説明する。図10は、本実施例に係る一連の動作のフローチャートである。なお、ステップS101及びステップS105は、実施例1に係るステップS41及びステップS45と同様であるため説明を省略する。ステップS101において、画像取得部41によって眼底正面画像が取得されたら、処理はステップS102に移行する。
ステップS102では、演算処理部42が、学習済モデルを用いて、眼底正面画像から断層画像の撮影パラメータを取得する。なお、撮影パラメータは、実施例1及び2で述べた撮影パラメータと同様のものであってよい。また、本実施例では、撮影パラメータは、断層画像の撮影が不要であることを示す情報を含むことができる。
ステップS103では、演算処理部42は、撮影パラメータが、断層画像の撮影が不要であることを示す情報を含むと判断した場合、検査を終了すると判断し、一連の動作を終了させる。一方で、演算処理部42が、撮影パラメータに断層画像を撮影するための撮影パラメータが含まれていると判断した場合には、処理はステップS104に進む。ステップS104では、実施例1と同様に、デバイス制御部45が、撮影パラメータに基づいて、被検眼の断層画像の撮影を行う。
上記のように、本実施例に係る演算処理部42は、被検眼の眼底正面画像と断層画像の撮影パラメータとを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から断層画像の撮影パラメータを取得する。
このような構成によれば、眼底正面画像と断層画像の撮影パラメータとを学習した学習済モデルを用いて、被検眼の眼底正面画像から断層画像の撮影パラメータを取得し、設定することができる。このため、従来の閾値処理による病変の検出処理に基づく撮影パラメータの設定処理と比べ、眼底正面画像から被検眼の状態に応じたより適切な撮影パラメータを設定することができる。
なお、本実施例では、被検眼が健常眼(正常眼)である場合には断層画像の撮影を行わない構成とした。これに対して、被検眼が健常眼の場合は、クロススキャンなどの簡易な断層画像撮影を行うようにしてもよい。
(変形例1)
上述した様々な実施例及び変形例におけるデバイス制御部45は、断層画像撮影後に表示画面のレポート画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、毛細血管領域、動脈領域、静脈領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。このとき、例えば、各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い解析結果を表示させることができる。なお、アーチファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーチファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーチファクト等であってもよい。また、アーチファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、デバイス制御部45は、上述したような様々なアーチファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示部8に表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、及びシュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。また、標準データベースを用いて得た標準値や標準範囲と、解析結果とを比較して得た比較結果が表示されてもよい。
また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。
また、学習データは、演算処理部42や不図示の検出部による網膜層の検出結果や、セグメンテーション処理により生成された領域ラベル画像と、それらを用いた医用画像の解析結果とを含んだものでもよい。この場合、画像処理装置は、例えば、解析結果生成用の学習済モデルを用いて、セグメンテーション処理等により得た結果から、断層画像の解析結果を生成する、解析結果生成部の一例として機能することができる。
さらに、学習済モデルは、輝度正面画像及びモーションコントラスト正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。ここで、輝度正面画像は輝度のEn−Face画像に対応し、モーションコントラスト正面画像はOCTAのEn−Face画像に対応する。
また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果が表示されるように構成されてもよい。
また、上述した実施例及び変形例におけるデバイス制御部45は、表示画面のレポート画面において、糖尿病網膜症や、緑内障、加齢黄斑変性症等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果は、特定された異常部位等の位置を画像上に表示されてもよいし、異常部位の状態等を文字等によって表示されてもよい。さらに、異常部位等の分類結果(例えば、カーティン分類)を診断結果として表示させてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。また、診断結果は、被検者の今後の診療方針等に関する情報であってもよい。また、診断結果は、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、及び診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報であってもよい。このとき、例えば、検者からの指示に応じて入力された診断名等の診断結果よりも確からしい診断結果を医用支援情報として表示させてもよい。また、複数の種類の医用画像が用いられた場合には、例えば、診断結果の根拠となり得る種類の医用画像が識別可能に表示されてもよい。また、診断結果の根拠としては、学習済モデルが抽出した特徴量を可視化したマップで、例えば、特徴量をカラーで示したカラーマップ(ヒートマップ)であってもよい。このとき、例えば、ヒートマップを入力データとした医用画像に重畳表示させてもよい。
なお、診断結果は、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。
また、学習データは、演算処理部42や不図示の検出部による網膜層の検出結果や、セグメンテーション処理により生成されたラベル画像と、それらを用いた医用画像の診断結果とを含んだものでもよい。この場合、制御部4は、例えば、診断結果生成用の学習済モデルを用いて、ラベル画像から、断層画像の診断結果を生成する、診断結果生成部の一例として機能することができる。
また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルを用いて得た診断結果が表示されるように構成されてもよい。
また、例えば、緑内障の診断結果を得たい場合には、視神経乳頭を含む医用画像(断層画像やカラー眼底正面画像等)や解析マップ(層厚マップ等)を入力データとしてもよい。このとき、これらのうちの1つの情報を入力データとしてもよいし、複数の種類の情報を入力データとしてもよい。また、例えば、緑内障の診断結果を得たい場合には、視神経乳頭の周辺をサークルスキャンして得た断層画像を入力データとしてもよい。
なお、入力データとして用いる情報毎又は情報の種類毎に学習済モデルを用意し、学習済モデルを用いて、診断結果を取得してもよい。この場合、各学習済モデルから出力された情報に統計的な処理を行い、最終的な診断結果を決定してもよい。例えば、各学習済モデルから出力された情報の割合を各種類の情報毎に加算し、他の情報よりも割合の合計が高い情報を最終的な診断結果として決定してもよい。なお、統計的な処理は合計の算出に限られず、平均値や中央値の算出等であってもよい。また、例えば、各学習済モデルから出力された情報のうち、他の情報よりも割合の高い情報(最も割合の高い情報)を用いて診断結果を決定してもよい。同様に、各学習済モデルから出力された情報のうち、閾値以上である割合の情報を用いて診断結果を決定してもよい。
また、操作者の指示(選択)に応じて、決定された診断結果の良否の判定(承認)が可能に構成されてもよい。また、操作者の指示(選択)に応じて各学習済モデルから出力された情報から診断結果を決定してもよい。このとき、例えば、デバイス制御部45が、各学習済モデルから出力された情報及びその割合を並べて表示部8に表示させてもよい。そして、操作者が、例えば、他の情報よりも割合の高い情報を選択することにより、選択された情報を診断結果として決定するように構成されてもよい。さらに、各学習済モデルから出力された情報から、機械学習モデルを用いて、診断結果を決定してもよい。この場合には、機械学習モデルとして、診断結果生成に用いられた機械学習モデルとは異なる種類の機械学習モデルであってもよく、例えば、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。
なお、上述した種々の学習済モデルの学習は、教師あり学習(ラベル付きの学習データで学習)だけでなく、半教師あり学習であってもよい。半教師あり学習は、例えば、複数の識別器(分類器)がそれぞれ教師あり学習を行った後、ラベルのない学習データを識別(分類)し、識別結果(分類結果)の信頼度に応じて(例えば、確からしさが閾値以上の識別結果を)自動的にラベル付け(アノテーション)し、ラベル付けされた学習データで学習を行う手法である。半教師あり学習は、例えば、共訓練(Co−Training、あるいはMultiview)であってもよい。このとき、診断結果生成用の学習済モデルは、例えば、正常な被検体の医用画像を識別する第1の識別器と、特定の病変を含む医用画像を識別する第2の識別器とを用いて半教師あり学習(例えば、共訓練)して得た学習済モデルであってもよい。なお、診断目的に限らず、例えば撮影支援等を目的としてもよい。この場合、第2の識別器は、例えば、注目部位やアーチファクト領域等の部分領域を含む医用画像を識別するものであってもよい。
また、上述した様々な実施例及び変形例に係るデバイス制御部45は、表示画面のレポート画面において、上述したような注目部位、アーチファクト領域、及び異常部位等の部分領域の物体認識結果(物体検出結果)やセグメンテーション結果を表示させてもよい。このとき、例えば、画像上の物体の周辺に矩形の枠等を重畳して表示させてもよい。また、例えば、画像における物体上に色等を重畳して表示させてもよい。なお、物体認識結果やセグメンテーション結果は、物体認識やセグメンテーションを示す情報を正解データとして医用画像にラベル付け(アノテーション)した学習データを学習して得た学習済モデル(物体認識エンジン、物体認識用の学習済モデル、セグメンテーションエンジン、セグメンテーション用の学習済モデル)を用いて生成されたものであってもよい。なお、上述した解析結果生成や診断結果生成は、上述した物体認識結果やセグメンテーション結果を利用することで得られたものであってもよい。例えば、物体認識やセグメンテーションの処理により得た注目部位に対して解析結果生成や診断結果生成の処理を行ってもよい。
また、異常部位を検出する場合には、演算処理部42は、敵対的生成ネットワーク(GAN:Generative Adversarial Netwoks)や変分オートエンコーダー(VAE:Variational Auto−Encoder)を用いてもよい。例えば、医用画像の生成を学習して得た生成器と、生成器が生成した新たな医用画像と本物の医用画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。
DCGANを用いる場合には、例えば、識別器が入力された医用画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな医用画像を生成する。その後、入力された医用画像と生成された新たな医用画像との差分を異常部位として抽出(検出)することができる。また、VAEを用いる場合には、例えば、入力された医用画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな医用画像を生成する。その後、入力された医用画像と生成された新たな医用画像像との差分を異常部位として抽出することができる。
さらに、演算処理部42は、畳み込みオートエンコーダー(CAE:Convolutional Auto−Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ医用画像を学習させる。これにより、推定時に異常部位がある医用画像をCAEに入力すると、学習の傾向に従って異常部位がない医用画像が出力される。その後、CAEに入力された医用画像とCAEから出力された医用画像の差分を異常部位として抽出することができる。
これらの場合、演算処理部42は、敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、演算処理部42は、高速に精度よく異常部位を検出することが期待できる。例えば、異常部位の検出精度の向上のために異常部位を含む医用画像を学習データとして数多く集めることが難しい場合であっても、比較的に数多く集め易い正常な被検体の医用画像を学習データとして用いることができる。このため、例えば、異常部位を精度よく検出するための学習を効率的に行うことができる。ここで、オートエンコーダーには、VAEやCAE等が含まれる。また、敵対的生成ネットワークの生成部の少なくとも一部がVAEで構成されてもよい。これにより、例えば、同じようなデータを生成してしまう現象を低減しつつ、比較的鮮明な画像を生成することができる。例えば、演算処理部42は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された医用画像との差に関する情報を、異常部位に関する情報として生成することができる。また、例えば、デバイス制御部45は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された医用画像との差に関する情報を、異常部位に関する情報として表示部8に表示させることができる。
また、疾病眼では、疾病の種類に応じて画像特徴が異なる。そのため、上述した様々な実施例や変形例において用いられる学習済モデルは、疾病の種類毎又は異常部位毎にそれぞれ生成・用意されてもよい。この場合には、例えば、演算処理部42は、操作者からの被検眼の疾病の種類や異常部位等の入力(指示)に応じて、処理に用いる学習済モデルを選択することができる。なお、疾病の種類や異常部位毎に用意される学習済モデルは、網膜層の検出や領域ラベル画像等の生成に用いられる学習済モデルに限られず、例えば、画像の評価用のエンジンや解析用のエンジン等で用いられる学習済モデルであってもよい。このとき、演算処理部42は、別に用意された学習済モデルを用いて、画像から被検眼の疾病の種類や異常部位を識別してもよい。この場合には、演算処理部42は、当該別に用意された学習済モデルを用いて識別された疾病の種類や異常部位に基づいて、上記処理に用いる学習済モデルを自動的に選択することができる。なお、当該被検眼の疾病の種類や異常部位を識別するための学習済モデルは、断層画像や眼底画像等を入力データとし、疾病の種類やこれら画像における異常部位を出力データとした学習データのペアを用いて学習を行ってよい。ここで、学習データの入力データとしては、断層画像や眼底画像等を単独で入力データとしてもよいし、これらの組み合わせを入力データとしてもよい。
また、特に診断結果生成用の学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとする入力データ等も考えられる。また、異なる種類の複数の医療画像は、異なるモダリティ、異なる光学系、又は異なる原理等により取得されたものであれば何でもよい。
また、特に診断結果生成用の学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の黄斑の三次元OCT画像(三次元断層画像)と眼底の視神経乳頭のサークルスキャン(又はラスタスキャン)断層画像とをセットとする入力データ等も考えられる。
なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。このとき、パノラマ画像のような広画角画像を学習データとして用いることにより、狭画角画像よりも情報量が多い等の理由から画像の特徴量を精度良く取得できる可能性があるため、処理の結果を向上することができる。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。
また、上述した解析結果と診断結果と物体認識結果とセグメンテーション結果とのうち少なくとも1つの結果が表示される表示画面は、レポート画面に限らない。このような表示画面は、例えば、撮影確認画面、経過観察用の表示画面、及び撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されてもよい。例えば、上述した学習済モデルを用いて得た上記少なくとも1つの結果を撮影確認画面に表示させることにより、操作者は、撮影直後であっても精度の良い結果を確認することができる。また、例えば、特定の物体が認識されると、認識された物体を囲う枠がライブ動画像に重畳表示させるように構成されてもよい。このとき、物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、例えば、物体を囲う枠の色が変更される等のように強調表示されてもよい。これにより、検者は、物体をライブ動画上で容易に識別することができる。
なお、上述した様々な学習済モデルの学習に用いられる正解データの生成には、ラベル付け(アノテーション)等の正解データを生成するための正解データ生成用の学習済モデルが用いられてもよい。このとき、正解データ生成用の学習済モデルは、検者がラベル付け(アノテーション)して得た正解データを(順次)追加学習することにより得られたものであってもよい。すなわち、正解データ生成用の学習済モデルは、ラベル付け前のデータを入力データとし、ラベル付け後のデータを出力データとする学習データを追加学習することにより得られたものであってもよい。また、動画像等のような連続する複数フレームにおいて、前後のフレームの物体認識やセグメンテーション等の結果を考慮して、結果の精度が低いと判定されたフレームの結果を修正するように構成されてもよい。このとき、検者からの指示に応じて、修正後の結果を正解データとして追加学習するように構成されてもよい。また、例えば、結果の精度が低い医用画像については、検者が該医用画像上に、学習済モデルが抽出した特徴量を可視化したマップ(ヒートマップ)を確認しながらラベル付け(アノテーション)した画像を入力データとして追加学習するように構成されてもよい。例えば、学習済モデルにおける結果を出力する直前等のレイヤー上のヒートマップにおいて、注目すべき箇所が検者の意図と異なる場合には、検者が注目すべきと考える箇所にラベル付け(アノテーション)した医用画像を追加学習してもよい。
ここで、上述した様々な学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダー(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。また、学習には、各ユニット(各ニューロン、あるいは各ノード)をランダムに不活性化する手法(ドロップアウト)が用いられてもよい。また、学習には、多階層のニューラルネットワークの各層に伝わったデータを、活性化関数(例えばReLu関数)が適用される前に、正規化する手法(バッチ正規化)が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。また、学習データとは、入力データ及び出力データ(正解データ)のペアで構成される。ここで、学習データを教師データという場合もあるし、あるいは、正解データを教師データという場合もある。
なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本変形例では、学習部(不図示)の一例である演算処理部42による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPU又はGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
また、上述した物体認識やセグメンテーション、後述する高画質化等に用いられる機械学習モデルとしては、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルが適用可能である。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。
また、上述した物体認識やセグメンテーション、後述する高画質化等に用いられる機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。
ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン、あるいは各ノード)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。
(変形例2)
上述した様々な実施例及び変形例においては、各種学習済モデルが追加学習の実行中である場合、追加学習の実行中の学習済モデル自体を用いて出力(推論・予測)することが難しい可能性がある。このため、追加学習の実行中の学習済モデルに対する学習データ以外の医用画像の入力を禁止するように構成されることがよい。また、追加学習の実行前の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意してもよい。このとき、追加学習の実行中には、予備の学習済モデルに対する学習データ以外の医用画像の入力が実行可能なように構成されることがよい。そして、追加学習が完了した後に、追加学習の実行後の学習済モデルを評価し、問題がなければ、予備の学習済モデルから追加学習の実行後の学習済モデルに置き換えればよい。また、問題があれば、予備の学習済モデルが用いられるようにしてもよい。
なお、追加学習の実行後の学習済モデルの評価としては、例えば、高画質化用の学習済モデルで得た高画質画像を他の種類の画像と分類するための分類用の学習済モデルが用いられてもよい。分類用の学習済モデルは、例えば、高画質化用の学習済モデルで得た高画質画像と低画質画像とを含む複数の画像を入力データとし、これらの画像の種類がラベル付け(アノテーション)されたデータを正解データとして含む学習データを学習して得た学習済モデルであってもよい。このとき、推定時(予測時)の入力データの画像の種類が、学習時の正解データに含まれる画像の種類毎の確からしさを示す情報(例えば、割合を示す数値)と合わせて表示されてもよい。なお、分類用の学習済モデルの入力データとしては、上記の画像以外にも、複数の低画質画像の重ね合わせ処理(例えば、位置合わせして得た複数の低画質画像の平均化処理)等によって、高コントラスト化やノイズ低減等が行われたような高画質な画像が含まれてもよい。また、追加学習の実行後の学習済モデルの評価としては、例えば、追加学習の実行後の学習済モデルと追加学習の実行前の学習済モデル(予備の学習済モデル)とをそれぞれ用いて同一の画像から得た複数の高画質画像を比較、あるいは該複数の高画質画像の解析結果を比較してもよい。このとき、例えば、該複数の高画質画像の比較結果(追加学習による変化の一例)、あるいは該複数の高画質画像の解析結果の比較結果(追加学習による変化の一例)が所定の範囲であるか否かを判定し、判定結果が表示されてもよい。
また、撮影部位毎に学習して得た学習済モデルを選択的に利用できるようにしてもよい。具体的には、第1の撮影部位(例えば、前眼部、後眼部等)を含む学習データを用いて得た第1の学習済モデルと、第1の撮影部位とは異なる第2の撮影部位を含む学習データを用いて得た第2の学習済モデルと、を含む複数の学習済モデルを用意することができる。そして、制御部20は、これら複数の学習済モデルのいずれかを選択する選択手段を有してもよい。このとき、制御部20は、選択された学習済モデルに対して追加学習を実行する制御手段を有してもよい。制御手段は、検者からの指示に応じて、選択された学習済モデルに対応する撮影部位と該撮影部位の撮影画像とがペアとなるデータを検索し、検索して得たデータを学習データとする学習を、選択された学習済モデルに対して追加学習として実行することができる。なお、選択された学習済モデルに対応する撮影部位は、データのヘッダの情報から取得したり、検者により手動入力されたりしたものであってよい。また、データの検索は、例えば、病院や研究所等の外部施設のサーバ等からネットワークを介して行われてよい。これにより、学習済モデルに対応する撮影部位の撮影画像を用いて、撮影部位毎に効率的に追加学習することができる。
なお、選択手段及び制御手段は、制御部20のCPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、選択手段及び制御手段は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。
また、追加学習用の学習データを、病院や研究所等の外部施設のサーバ等からネットワークを介して取得する際には、改ざんや、追加学習時のシステムトラブル等による信頼性低下を低減することが有用である。そこで、デジタル署名やハッシュ化による一致性の確認を行うことで、追加学習用の学習データの正当性を検出してもよい。これにより、追加学習用の学習データを保護することができる。このとき、デジタル署名やハッシュ化による一致性の確認した結果として、追加学習用の学習データの正当性が検出できなかった場合には、その旨の警告を行い、その学習データによる追加学習を行わないものとする。なお、サーバは、その設置場所を問わず、例えば、クラウドサーバ、フォグサーバ、エッジサーバ等のどのような形態でもよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。
また、上述したような一致性の確認によるデータの保護は、追加学習用の学習データに限らず、医用画像を含むデータに適用可能である。また、複数の施設のサーバの間の医用画像を含むデータの取引が分散型のネットワークにより管理されるように画像管理システムが構成されてもよい。また、取引履歴と、前のブロックのハッシュ値とが一緒に記録された複数のブロックを時系列につなぐように画像管理システムが構成されてもよい。なお、一致性の確認等を行うための技術としては、量子ゲート方式等の量子コンピュータを用いても計算が困難な暗号(例えば、格子暗号、量子鍵配送による量子暗号等)が用いられてもよい。ここで、画像管理システムは、撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムであってもよい。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。また、画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。
なお、各種学習済モデルについて、追加学習を行う際には、GPUを用いて高速に処理を行うことができる。GPUは、データをより多く並列処理することで効率的な演算を行うことができるため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合にはGPUで処理を行うことが有効である。なお、追加学習の処理は、GPUとCPU等が協働して行ってもよい。
(変形例3)
上述した様々な実施例及び変形例において、検者からの指示は、手動による指示(例えば、ユーザーインターフェース等を用いた指示)以外にも、音声等による指示であってもよい。このとき、例えば、機械学習により得た音声認識モデル(音声認識エンジン、音声認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力等による指示であってもよい。このとき、例えば、機械学習により得た文字認識モデル(文字認識エンジン、文字認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、検者からの指示は、ジェスチャー等による指示であってもよい。このとき、機械学習により得たジェスチャー認識モデル(ジェスチャー認識エンジン、ジェスチャー認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。
また、検者からの指示は、表示部8における表示画面上の検者の視線検出結果等であってもよい。視線検出結果は、例えば、表示部8における表示画面の周辺から撮影して得た検者の動画像を用いた瞳孔検出結果であってもよい。このとき、動画像からの瞳孔検出は、上述したような物体認識エンジンを用いてもよい。また、検者からの指示は、脳波、体を流れる微弱な電気信号等による指示であってもよい。
このような場合、例えば、学習データとしては、上述したような種々の学習済モデルの処理による結果の表示の指示を示す文字データ又は音声データ(波形データ)等を入力データとし、種々の学習済モデルの処理による結果等を実際に表示部8に表示させるための実行命令を正解データとする学習データであってもよい。また、学習データとしては、例えば、撮影パラメータの自動設定を行うか否かの実行命令及び当該命令用のボタンをアクティブ状態に変更するための実行命令等を正解データとする学習データであってもよい。なお、学習データとしては、例えば、文字データ又は音声データ等が示す指示内容と実行命令内容とが互いに対応するものであれば何でもよい。また、音響モデルや言語モデル等を用いて、音声データから文字データに変換してもよい。また、複数のマイクで得た波形データを用いて、音声データに重畳しているノイズデータを低減する処理を行ってもよい。また、文字又は音声等による指示と、マウス又はタッチパネル等による指示とを、検者からの指示に応じて選択可能に構成されてもよい。また、文字又は音声等による指示のオン・オフを、検者からの指示に応じて選択可能に構成されてもよい。
ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも一部には、例えば、再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)を用いることができる。ここで、本変形例に係る機械学習モデルの一例として、時系列情報を扱うニューラルネットワークであるRNNに関して、図11(a)及び(b)を参照して説明する。また、RNNの一種であるLong short−term memory(以下、LSTM)に関して、図12(a)及び(b)を参照して説明する。
図11(a)は、機械学習モデルであるRNNの構造を示す。RNN1120は、ネットワークにループ構造を持ち、時刻tにおいてデータx1110が入力され、データh1130を出力する。RNN1120はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図11(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx1110にはN個(Params1〜ParamsN)のデータが含まれる。また、RNN1120より出力されるデータh1130には入力データに対応するN個(Params1〜ParamsN)のデータが含まれる。
しかしながら、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができないため、LSTMが用いられることがある。LSTMは、忘却ゲート、入力ゲート、及び出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図12(a)にLSTMの構造を示す。LSTM1240において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct−1と出力データht−1である。なお、図の小文字(c、h、x)はベクトルを表している。
次に、図12(b)にLSTM1240の詳細を示す。図12(b)においては、忘却ゲートネットワークFG、入力ゲートネットワークIG、及び出力ゲートネットワークOGが示され、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。また、図12(b)においては、セル更新候補ネットワークCUが示され、セル更新候補ネットワークCUは活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。
なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。また、検者からの指示が文字又は音声等による入力の場合には、自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。このとき、自然言語処理に関する技術としては、例えば、入力される文章毎に出力されるモデルが適用されてもよい。また、上述した種々の学習済モデルは、検者からの指示に限らず、検者に対する出力に適用されてもよい。また、検者に対して文字又は音声等による出力で応答する対話エンジン(対話モデル、対話用の学習済モデル)が適用されてもよい。
また、自然言語処理に関する技術としては、文書データを教師なし学習により事前学習して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、事前学習して得た学習済モデルを更に目的に応じて転移学習(あるいはファインチューニング)して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、例えば、BERT(Bidirectional Encoder Representations from Transformers)が適用されてもよい。また、自然言語処理に関する技術としては、文章内の特定の単語を左右両方の文脈から予測することで、文脈(特徴量)を自ら抽出(表現)可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、入力される時系列データにおける2つのシーケンス(センテンス)の関係性(連続性)を判断可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、隠れ層にTransformerのEncoderが用いられ、ベクトルのシーケンスが入力、出力されるモデルが適用されてもよい。
ここで、本変形例が適用可能な検者からの指示は、上述した様々な実施例及び変形例に記載のような種々の画像や解析結果の表示の変更、En−Face画像の生成のための深度範囲の選択、追加学習用の学習データとして用いるか否かの選択、学習済モデルの選択、種々の学習済モデルを用いて得た結果の出力(表示や送信等)や保存等、に関する少なくとも1つの指示であれば何でもよい。また、本変形例が適用可能な検者からの指示は、撮影後の指示だけでなく、撮影前の指示であってもよく、例えば、種々の調整に関する指示、種々の撮影条件の設定に関する指示、撮影開始に関する指示であってもよい。また、本変形例が適用可能な検者からの指示は、表示画面の変更(画面遷移)に関する指示であってもよい。
なお、機械学習モデルとしては、CNN等の画像に関する機械学習モデルとRNN等の時系列データに関する機械学習モデルとを組み合わせた機械学習モデルであってもよい。このような機械学習モデルでは、例えば、画像に関する特徴量と時系列データに関する特徴量との関係性を学習することができる。機械学習モデルの入力層側がCNNで、出力層側がRNNである場合には、例えば、医用画像を入力データとし、該医用画像に関する文章(例えば、病変の有無、病変の種類、次の検査のレコメンド等)を出力データとする学習データを用いて学習が行われてもよい。これにより、例えば、医用画像に関する医療情報が自動的に文章で説明されるため、医療経験が浅い検者であっても、医用画像に関する医療情報を容易に把握することができる。また、機械学習モデルの入力層側がRNNで、出力層側がCNNである場合には、例えば、病変、所見、診断等の医療に関する文章を入力データとし、該医療に関する文章に対応する医用画像を出力データとする学習データを用いて学習が行われてもよい。これにより、例えば、検者が確認したい症例に関係する医用画像を容易に検索することができる。
また、検者からの指示や検者に対する出力には、文字や音声等の文章を任意の言語に機械翻訳する機械翻訳エンジン(機械翻訳モデル、機械翻訳用の学習済モデル)が用いられてもよい。なお、任意の言語は、検者からの指示に応じて選択可能に構成されてもよい。機械翻訳エンジンには、例えば、上述した自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。例えば、機械翻訳エンジンに入力された文章が機械翻訳された後に、機械翻訳された文章を文字認識エンジン等に入力するように構成されてもよい。また、例えば、上述した種々の学習済モデルから出力された文章を機械翻訳エンジンに入力し、機械翻訳エンジンから出力された文章が出力されるように構成されてもよい。
また、上述した種々の学習済モデルが組み合わせて用いられてもよい。例えば、検者からの指示に対応する文字が文字認識エンジンに入力され、入力された文字から得た音声を他の種類の機械学習エンジン(例えば、機械翻訳エンジン等)に入力されるように構成されてもよい。また、例えば、他の種類の機械学習エンジンから出力された文字が文字認識エンジンに入力され、入力された文字から得た音声が出力されるように構成されてもよい。また、例えば、検者からの指示に対応する音声が音声認識エンジンに入力され、入力された音声から得た文字を他の種類の機械学習エンジン(例えば、機械翻訳エンジン等)に入力されるように構成されてもよい。また、例えば、他の種類の機械学習エンジンから出力された音声が音声認識エンジンに入力され、入力された音声から得た文字が表示部に表示されるように構成されてもよい。このとき、検者に対する出力として文字による出力か音声による出力かを、検者からの指示に応じて選択可能に構成されてもよい。また、検者からの指示として文字による入力か音声による入力かを、検者からの指示に応じて選択可能に構成されてもよい。また、検者からの指示による選択によって、上述した種々の構成が採用されるようにしてもよい。
(変形例4)
上述した様々な実施例及び変形例において、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルで得た画像(例えば、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、セグメンテーション結果を示す画像)を、第1の種類とは異なる第2の種類の学習済モデルに入力してもよい。このとき、第2の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果)が生成されるように構成されてもよい。
また、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、セグメンテーション結果)を用いて、第1の種類の学習済モデルに入力した画像から、第1の種類とは異なる第1の種類の学習済モデルに入力する画像を生成してもよい。このとき、生成された画像は、第2の種類の学習済モデルを用いて処理する画像として適した画像である可能性が高い。このため、生成された画像を第2の種類の学習済モデルに入力して得た画像(例えば、解析マップ等の解析結果を示す画像)の精度を向上することができる。
なお、共通の画像が、第1の種類の学習済モデルと第2の種類の学習済モデルとに入力されることで、これらの学習済モデルを用いた各処理結果の生成(あるいは表示)を実行するように構成されてもよい。このとき、例えば、検者からの指示に応じて、これらの学習済モデルを用いた各処理結果の生成(あるいは表示)を一括して(連動して)実行するように構成されてもよい。また、入力させる画像の種類(例えば、高画質画像、物体認識結果、セグメンテーション結果、類似症例画像)、生成(あるいは表示)させる処理結果の種類(例えば、高画質画像、診断結果、解析結果、物体認識結果、セグメンテーション結果、類似症例画像)、入力の種類や出力の種類(例えば、文字、音声、言語)等をそれぞれ検者からの指示に応じて選択可能に構成されてもよい。このとき、選択された種類に応じて少なくとも1つの学習済モデルが選択されるように構成されてもよい。このとき、複数の学習済モデルが選択された場合には、選択された種類に応じて複数の学習済モデルの組み合わせの方(例えば、データを入力させる順番等)が決定されてもよい。なお、例えば、入力させる画像の種類と、生成(あるいは表示)させる処理結果の種類とが、異なるように選択可能に構成されてもよいし、同じである場合には異なるように選択することを促す情報を検者に対して出力するように構成されてもよい。また、各学習済モデルはどの場所で実行されてもよい。例えば、複数の学習済モデルのうちの一部がクラウドサーバで用いられ、他はフォグサーバやエッジサーバ等の別のサーバで用いられるように構成されてもよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。これらにより、例えば、硝子体、白内障、緑内障、角膜屈折矯正、外眼等の手術や、レーザー光凝固等の治療が、遠隔であってもリアルタイムに支援することができる。このとき、例えば、これらの手術や治療に関する装置により得た種々の医用画像の少なくとも1つを無線により受信したフォグサーバやエッジサーバ等が種々の学習済モデルの少なくとも1つを用いて得た情報を手術や治療に関する装置に無線で送信するように構成されてもよい。また、例えば、手術や治療に関する装置に無線で受信した情報が、上述したような光学系や光学部材の移動量(ベクトル)であってもよく、この場合、手術や治療に関する装置が自動制御されるように構成されてもよい。また、例えば、検者による操作の支援を目的として、検者の許可を伴う自動制御(半自動制御)として構成されてもよい。
また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。また、上述したような種々の学習済モデルの処理による物体認識結果やセグメンテーション結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の医用画像が、既に機械学習等によって該複数の医用画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、医用画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。
例えば、演算処理部42は、(高画質化用の学習済モデルとは異なる)類似症例画像検索用の学習済モデルを用いて、種々の医用画像から該医用画像に関連する類似症例画像の検索を行うことができる。また、例えば、デバイス制御部45は、種々の医用画像から類似症例画像検索用の学習済モデルを用いて得た類似症例画像を表示部に表示させることができる。このとき、類似症例画像は、例えば、学習済モデルに入力された医用画像の特徴量と類似する特徴量の画像である。また、類似症例画像は、例えば、学習済モデルに入力された医用画像において異常部位等の部分領域が含まれる場合には、異常部位等の部分領域の特徴量と類似する特徴量の画像である。このため、例えば、類似症例画像を精度よく検索するための学習を効率的に行うことができるだけでなく、医用画像において異常部位が含まれる場合には、検者は異常部位の診断を効率よく行うことができる。また、複数の類似症例画像が検索されてもよく、特徴量が類似する順番が識別可能に複数の類似症例画像が表示されてもよい。また、複数の類似症例画像のうち、検者からの指示に応じて選択された画像と該画像との特徴量とを含む学習データを用いて、類似症例画像検索用の学習済モデルが追加学習されるように構成されてもよい。
(変形例5)
また、演算処理部42は、本撮影により取得した画像を用いて様々な画像処理を行ってよい。例えば、演算処理部42は、本撮影により取得した画像について、高画質化用の学習済モデル(高画質化モデル)を用いて画質を改善した高画質画像を生成してもよい。ここで、画質の改善とは、ノイズの低減や、撮影対象を観察しやすい色や階調への変換、解像度や空間分解能の向上、及び解像度の低下を抑えた画像サイズの拡大等を含む。
高画質化用の機械学習モデルとしては、例えばCNN等を用いることができる。また、高画質化モデルの学習データとしては、前眼画像や眼底正面画像等の各種画像を入力データとし、入力された画像に対応する、例えば高画質化処理を施した高画質な画像を出力データとする。ここで、高画質化処理とは、空間的に同じ位置を複数回撮影した画像について位置合わせを行い、それら位置合わせ済みの画像を加算平均処理することが挙げられる。なお、高画質化処理は加算平均処理に限られず、例えば、平滑化フィルタを用いた処理や最大事後確率推定処理(MAP推定処理)、階調変換処理等であってもよい。また、高画質化処理された画像としては、例えば、ノイズ除去とエッジ強調などのフィルタ処理を行った画像でもよいし、低輝度な画像から高輝度な画像とするようなコントラストが調整された画像を用いてもよい。さらに、高画質化モデルに係る学習データの出力データは、高画質な画像であればよいため、入力データである断層画像を撮影した際のOCT装置よりも高性能なOCT装置を用いて撮影された画像や、高負荷な設定により撮影された画像であってもよい。
ただし、適切に高画質化処理が行われていない画像を学習データの出力データとして用いて機械学習を行うと、当該学習データを用いて学習した学習済モデルを用いて得た画像も適切に高画質化処理が行われていない画像となってしまう可能性がある。そのため、そのような画像を含むペアを教師データから取り除くことで、学習済モデルを用いて適切でない画像が生成される可能性を低減させることができる。
演算処理部42は、このような高画質化モデルを用いて高画質化処理を行うことで、精度の良く高画質化された画像をより高速に取得することができる。
なお、高画質化モデルは、入力データである各種画像の種類毎に用意されてもよい。例えば、前眼画像用の高画質化モデルや、眼底正面画像用の高画質化モデル、断層画像用の高画質化モデル、OCTA正面画像用の高画質化モデル等が用意されてよい。また、OCTA正面画像やEn−Face画像については、画像を生成するための深度範囲毎に高画質化モデルが用意されてもよい。例えば、表層用の高画質化モデルや深層用の高画質化モデル等が用意されてよい。さらに、高画質化モデルは、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)毎の画像について学習を行ったものでもよいし、撮影部位を関わらず学習を行ったものであってもよい。
ここで、高画質化処理の対象画像は、例えば、(複数の深度範囲に対応する)複数のOCTA正面画像(OCTAのEn−Face画像、モーションコントラストのEn−Face画像)であってもよい。また、高画質化処理の対象画像は、例えば、1つの深度範囲に対応する1つのOCTA正面画像であってもよい。また、高画質化処理の対象画像は、OCTA正面画像の代わりに、例えば、輝度の正面画像(輝度のEn−Face画像)、あるいはBスキャンであるOCT断層画像やモーションコントラストデータの断層画像(OCTA断層画像)であってもよい。また、高画質化処理の対象画像は、OCTA正面画像だけでなく、例えば、輝度の正面画像及びBスキャンであるOCT断層画像やモーションコントラストデータの断層画像(OCTA断層画像)等の種々の医用画像であってもよい。すなわち、高画質化処理の対象画像は、例えば、表示部の表示画面上に表示されている種々の医用画像の少なくとも一つであればよい。このとき、例えば、画像の種類毎に画像の特徴量が異なる場合があるため、高画質化処理の対象画像の各種類に対応する高画質化用の学習済モデルが用いられてもよい。例えば、検者からの指示に応じて高画質化ボタンが押下されると、OCTA正面画像に対応する高画質化用の学習済モデルを用いてOCTA正面画像を高画質化処理するだけでなく、OCT断層画像に対応する高画質化用の学習済モデルを用いてOCT断層画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、OCTA正面画像に対応する高画質化用の学習済モデルを用いて生成された高画質なOCTA正面画像の表示に変更されるだけでなく、OCT断層画像に対応する高画質化用の学習済モデルを用いて生成された高画質なOCT断層画像の表示に変更されるように構成されてもよい。このとき、OCT断層画像の位置を示すラインがOCTA正面画像に重畳表示されるように構成されてもよい。また、上記ラインは、検者からの指示に応じてOCTA正面画像上で移動可能に構成されてもよい。また、高画質化ボタンの表示がアクティブ状態である場合には、上記ラインが移動された後に、現在のラインの位置に対応するOCT断層画像を高画質化処理して得た高画質なOCT断層画像の表示に変更されるように構成されてもよい。また、高画質化処理の対象画像毎に高画質化ボタンが表示されることで、画像毎に独立して高画質化処理可能に構成されてもよい。
また、OCTA断層画像における血管領域(例えば、閾値以上のモーションコントラストデータ)を示す情報が、対応する位置のBスキャンであるOCT断層画像に重畳して表示されてもよい。このとき、例えば、OCT断層画像が高画質化されると、対応する位置のOCTA断層画像が高画質化されてもよい。そして、高画質化して得たOCTA断層画像における血管領域を示す情報が、高画質化して得たOCT断層画像に重畳して表示されてもよい。なお、血管領域を示す情報は、色等の識別可能な情報であれば何でもよい。また、血管領域を示す情報の重畳表示と非表示とが検者からの指示に応じて変更可能に構成されてもよい。また、OCT断層画像の位置を示すラインがOCTA正面画像上で移動されると、ラインの位置に応じてOCT断層画像の表示が更新されてもよい。このとき、対応する位置のOCTA断層画像も更新されるため、OCTA断層画像から得られる血管領域を示す情報の重畳表示が更新されてもよい。これにより、例えば、任意の位置において、血管領域と注目領域との位置関係を容易に確認しながら、血管領域の3次元の分布や状態を効果的に確認することができる。また、OCTA断層画像の高画質化は、高画質化用の学習済モデルを用いる代わりに、対応する位置で取得した複数のOCTA断層画像の加算平均処理等による高画質化処理であってもよい。また、OCT断層画像は、OCTボリュームデータにおける任意の位置の断面として再構成された疑似OCT断層画像であってもよい。また、OCTA断層画像は、OCTAボリュームデータにおける任意の位置の断面として再構成された疑似OCTA断層画像であってもよい。なお、任意の位置は、少なくとも1つの任意の位置であればよく、また、検者からの指示に応じて変更可能に構成されてもよい。このとき、複数の位置に対応する複数の疑似断層画像が再構成されるように構成されてもよい。
なお、表示される断層画像(例えば、OCT断層画像あるいはOCTA断層画像)は、1つだけ表示されてもよいし、複数表示されてもよい。複数の断層画像が表示される場合には、それぞれ異なる副走査方向の位置で取得された断層画像が表示されてもよいし、例えばクロススキャン等により得られた複数の断層画像を高画質化して表示する場合には、異なる走査方向の画像がそれぞれ表示されてもよい。また、例えばラジアルスキャン等により得られた複数の断層画像を高画質化して表示する場合には、一部選択された複数の断層画像(例えば基準ラインに対して互いに対称な位置の2つの断層画像)がそれぞれ表示されてもよい。さらに、経過観察用の表示画面に複数の断層画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚さ等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいて断層画像に高画質化処理を実行してもよい。
同様に、SLO眼底画像を高画質化して表示する場合には、例えば、同一の表示画面に表示されるSLO眼底画像を高画質化して表示してもよい。さらに、輝度の正面画像を高画質化して表示する場合には、例えば、同一の表示画面に表示される輝度の正面画像を高画質化して表示してよい。さらに、経過観察用の表示画面に複数のSLO眼底画像や輝度の正面画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚さ等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいてSLO眼底画像や輝度の正面画像に高画質化処理を実行してもよい。なお、断層画像、SLO眼底画像、及び輝度の正面画像の表示は例示であり、これらの画像は所望の構成に応じて任意の態様で表示されてよい。また、OCTA正面画像、断層画像、SLO眼底画像、及び輝度の正面画像の少なくとも2つ以上が、一度の指示で高画質化され表示されてもよい。
このような構成により、高画質化処理して得た高画質画像をデバイス制御部45が表示部8に表示させることができる。なお、高画質画像の表示、解析結果の表示、表示される正面画像の深度範囲等に関する複数の条件のうち少なくとも1つの条件が選択されている場合には、表示画面が遷移されても、選択された条件が維持されるように構成されてもよい。
また、高画質化モデルは、プレビュー画面において、ライブ動画像のすくなくとも1つのフレーム毎に用いられてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。例えば、演算処理部42による第2アライメント処理に用いる前眼画像について、前眼画像用の高画質化モデルを用いて高画質化された画像を用いてもよい。同様に、演算処理部42による各種画像における所定領域の検出処理について用いられる各種画像について、それぞれの画像用の高画質化モデルを用いて高画質化された画像を用いてもよい。
このとき、例えば、検者からの指示に応じて高画質化ボタンが押下された場合には、異なる種類の複数のライブ動画像(例えば、前眼画像、眼底正面画像、断層画像)の表示を(同時に)、それぞれ高画質化処理されることにより得た高画質動画像の表示に変更されるように構成されてもよい。このとき、高画質動画像の表示は、各フレームを高画質化処理して得た高画質画像の連続表示であってもよい。また、例えば、画像の種類毎に画像の特徴量が異なる場合があるため、高画質化処理の対象画像の各種類に対応する高画質化用の学習済モデルが用いられてもよい。例えば、検者からの指示に応じて高画質化ボタンが押下されると、前眼画像に対応する高画質化モデルを用いて前眼画像を高画質化処理するだけでなく、眼底正面画像に対応する高画質化モデルを用いて眼底正面画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、前眼画像に対応する高画質化モデルを用いて生成された高画質な前眼画像の表示に変更されるだけでなく、眼底正面画像に対応する高画質化モデルを用いて生成された高画質な眼底正面画像の表示に変更されるように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、眼底正面画像に対応する高画質化モデルを用いて眼底正面画像を高画質化処理するだけでなく、断層画像に対応する高画質化モデルを用いて断層画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、眼底正面画像に対応する高画質化モデルを用いて生成された高画質な眼底正面画像の表示に変更されるだけでなく、断層画像に対応する高画質化モデルを用いて生成された高画質な断層画像の表示に変更されるように構成されてもよい。このとき、断層画像の位置を示すラインが眼底正面画像に重畳表示されるように構成されてもよい。また、上記ラインは、検者からの指示に応じて眼底正面画像上で移動可能に構成されてもよい。また、高画質化ボタンの表示がアクティブ状態である場合には、上記ラインが移動された後に、現在のラインの位置に対応する断層画像を高画質化処理して得た高画質な断層画像の表示に変更されるように構成されてもよい。また、高画質化処理の対象画像毎に高画質化ボタンに相当する高画質化ボタンが表示されることで、画像毎に独立して高画質化処理可能に構成されてもよい。
これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、プレビュー画面を確認しながら操作者がアライメント位置を修正する場合に、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。また、演算処理部42は、撮影開始に関する指示に応じて、撮影の途中あるいは撮影の最後に、セグメンテーション処理等により得たアーチファクト領域等の部分領域が再度撮影(リスキャン)されるように、上述した走査手段を駆動制御してもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を自動的に行うように構成されてもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を検者からの指示に応じて実行可能な状態に変更(実行禁止状態を解除)するように構成されてもよい。
ここで、オートアライメント中では、被検眼Eの網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン画像)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。なお、高画質化ボタンは、高画質化処理の実行を指定するためのボタンである。もちろん、高画質化ボタンは、高画質画像の表示を指示するためのボタンであってもよい。
また、上述したように、スキャンパターン等が異なる撮影モード毎に異なる高画質化モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化モデルが用いられてもよい。
なお、高画質化モデルによる高画質化処理の実行(又は高画質化処理して得た高画質画像の表示)の要否の判断は、表示画面に設けられる高画質化ボタンについて、操作者の指示に応じて行われてもよいし、予め記憶部44に記憶されている設定に応じて行われてもよい。なお、学習済モデル(高画質化モデル)を用いた高画質化処理である旨を高画質化ボタンのアクティブ状態等で表示してもよいし、その旨をメッセージとして表示画面に表示させてもよい。また、高画質化処理の実行は、眼科装置の前回の起動時における実行状態を維持してもよいし、被検者毎に前回の検査時の実行状態を維持してもよい。
また、高画質化モデル等の種々の学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部44に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部44に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化エンジンにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成されてもよい。
なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されても良いし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層像(Bスキャン像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。
また、高画質化モデルは、検者からの指示に応じて設定(変更)された割合の値を学習データとする追加学習により更新されてもよい。例えば、入力画像が比較的暗いときに、高画質画像に対する入力画像の割合を検者が高く設定する傾向にあれば、学習済モデルはそのような傾向となるように追加学習することになる。これにより、例えば、検者の好みに合った合成の割合を得ることができる学習済モデルとしてカスタマイズすることができる。このとき、設定(変更)された割合の値を追加学習の学習データとして用いるか否かを、検者からの指示に応じて決定するためのボタンが表示画面に表示されていてもよい。また、学習済モデルを用いて決定された割合をデフォルトの値とし、その後、検者からの指示に応じて割合の値をデフォルトの値から変更可能となるように構成されてもよい。また、高画質化モデルは、高画質化モデルを用いて生成された少なくとも1つの高画質画像を含む学習データを追加学習して得た学習済モデルであってもよい。このとき、高画質画像を追加学習用の学習データとして用いるか否かを、検者からの指示により選択可能に構成されてもよい。
(変形例6)
なお、上記実施例及び変形例におけるモーションコントラストデータの生成処理は、断層画像の輝度値に基づいて行われる構成に限られない。上記各種処理は、OCT装置1で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データに対して適用されてよい。これらの場合も、上記構成と同様の効果を奏することができる。
また、上述の実施例及び変形例では、制御部4はOCT装置1の一部として構成されているが、制御部4はOCT装置1と別体として構成されてもよい。この場合、制御部4は、OCT装置1のOCT撮影部3等とインターネット等を介して接続されてもよい。また、OCT装置1の構成は、上記の構成に限られず、OCT装置1に含まれる構成の一部を、例えば眼底カメラ部等をOCT装置1と別体の構成としてもよい。
なお、上述の実施例及び変形例では、OCT装置1として、SLDを光源として用いたスペクトラムドメインOCT(SD−OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS−OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine−OCT装置(あるいはSS−Line−OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field−OCT装置(あるいはSS−Full Field−OCT装置)にも本発明を適用することもできる。また、Doppler−OCT装置にも本発明を適用することができる。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、病理顕微鏡SLO装置や病理顕微鏡OCT装置等を含んでよい。また、SLO装置やOCT装置として、ハンドヘルド型のSLO装置やハンドヘルド型のOCT装置等を含んでよい。また、SLO装置やOCT装置として、カテーテルSLO装置やカテーテルOCT装置等を含んでよい。
また、上記実施例及び変形例では、画像取得部41は、OCT撮影部3で取得された干渉信号や眼底カメラ部2等で生成された各種画像等をこれらから直接取得した。しかしながら、画像取得部41がこれらの信号や画像を取得する構成はこれに限られない。例えば、画像取得部41は、制御部4とLAN、WAN、又はインターネット等を介して接続されたOCT装置のOCT撮影部や眼底カメラ部等からこれらの信号を取得してもよい。
なお、上述の実施例及び変形例に係る病名情報、病変情報、又は設定パラメータを取得するための学習済モデルでは、眼底正面画像や断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。また、上述の変形例に係る、セグメンテーション処理用、画像解析用、診断結果生成用の学習済モデルでも、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。一方で、音声認識用や文字認識用、ジェスチャー認識用等の学習済モデルでは、時系列のデータを用いて学習を行っているため、入力される連続する時系列のデータ値間の傾きを特徴量の一部として抽出し、推定処理に用いているものと考えられる。そのため、このような学習済モデルは、具体的な数値の時間的な変化による影響を推定処理に用いることで、精度のよい推定を行うことができると期待される。
また、上述の実施例及び変形例に係る各種学習済モデルは制御部4に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、制御部4と接続される別のサーバの装置等に設けられてもよい。この場合には、制御部4は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。
(その他の実施例)
本発明は、上述の実施例及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。
以上、実施例及び変形例を参照して本発明について説明したが、本発明は上記実施例及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。
4:制御部(制御装置)、42:演算処理部、43:パラメータ設定部

Claims (27)

  1. 被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて被検眼の眼底正面画像から被検眼の病名情報を取得するとともに、被検眼の眼底正面画像から病変の位置、大きさ及び種類の少なくとも一つを示す病変情報を取得する演算処理部と、
    前記取得された病名情報及び病変情報を用いて、断層画像の撮影パラメータを設定するパラメータ設定部と、
    を備える、制御装置。
  2. 前記学習データは、被検眼の断層画像を更に含み、
    前記演算処理部は、前記学習済モデルを用いて、被検眼の眼底正面画像及び断層画像から被検眼の病名情報を取得する、請求項1に記載の制御装置。
  3. 前記演算処理部は、病名情報を取得するための学習済モデルとは異なる学習済モデルであって、被検眼の眼底正面画像と被検眼の病変情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病変情報を取得する、請求項1又は2に記載の制御装置。
  4. 前記演算処理部は、入力された画像からセグメンテーション結果又は物体認識結果を生成するための学習済モデルを用いて、病変情報を取得する、請求項1乃至3のいずれか一項に記載の制御装置。
  5. 病変情報を取得するための学習済モデルは、敵対的生成ネットワーク又はオートエンコーダーを含み、
    前記演算処理部は、前記敵対的生成ネットワーク又は前記オートエンコーダーを用いて得た画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された画像との差に関する情報を用いて、病変情報を取得する、請求項1乃至3のいずれか一項の記載の制御装置。
  6. 病変情報を取得するための学習済モデルの学習データは、被検眼の断層画像を更に含み、
    前記演算処理部は、病変情報を取得するための学習済モデルを用いて、被検眼の眼底正面画像及び断層画像から病変情報を取得する、請求項3乃至5のいずれか一項に記載の制御装置。
  7. 被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得する演算処理部と、
    前記取得された病名情報を用いて、断層画像の撮影パラメータを設定するパラメータ設定部と、
    を備える、制御装置。
  8. 前記病名情報は、緑内障、網膜血管疾患、加齢黄斑変性症、及び糖尿病性網膜症のうち少なくとも一つを含む、請求項1乃至7のいずれか一項に記載の制御装置。
  9. 前記演算処理部は、病変情報を取得するための学習済モデルに、被検眼の複数の眼底正面画像を入力して前記病名情報を取得する、請求項1乃至8のいずれか一項に記載の制御装置。
  10. 被検眼の眼底正面画像と被検眼の病変の位置、大きさ及び種類の少なくとも一つを示す病変情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病変情報を取得する演算処理部と、
    前記取得された病変情報を用いて、断層画像の撮影パラメータを設定するパラメータ設定部と、
    を備える、制御装置。
  11. 前記演算処理部は、病変情報を取得するための学習済モデルに、被検眼の複数の眼底正面画像を入力して前記病変情報を取得する、請求項3乃至6及び請求項10のいずれか一項に記載の制御装置。
  12. 前記病変の種類は、視神経乳頭の形状異常、神経線維層欠損、網膜血管異常、及び軟性ドルーゼンのうち少なくとも一つを含む、請求項1乃至6及び請求項11のいずれか一項に記載の制御装置。
  13. 被検眼の眼底正面画像を取得する取得部と、
    被検眼の眼底正面画像と断層画像の撮影パラメータとを含む学習データを用いた学習により得た学習済モデルを用いて、前記取得した被検眼の眼底正面画像から断層画像の撮影パラメータを取得する演算処理部と、
    を備える、制御装置。
  14. 前記病名情報及び病変情報のうち少なくとも一方は、操作者の指示に応じて修正可能であり、
    前記パラメータ設定部は、前記撮影パラメータの設定に、修正された前記病名情報又は前記病変情報を用いる、請求項1乃至6のいずれか一項に記載の制御装置。
  15. 前記パラメータ設定部は、前記病名情報及び前記病変情報を用いて設定した前記撮影パラメータを、操作者の指示に応じて修正可能である、請求項1乃至6及び請求項14のいずれか一項に記載の制御装置。
  16. 前記操作者の指示は、文字認識用の学習済モデルと音声認識用の学習済モデルとジェスチャー認識用の学習済モデルとのうち少なくとも1つの学習済モデルを用いて得た情報である、請求項14又は15に記載の制御装置。
  17. 前記撮影パラメータは、断層画像の撮影の要否の情報を含む、請求項1乃至16のいずれか一項に記載の制御装置。
  18. 前記撮影パラメータは、撮影範囲、スキャンパターン、及びスキャン数のうち少なくとも一つを含む、請求項1乃至17のいずれか一項に記載の制御装置。
  19. 前記撮影パラメータは、診断目的に応じた撮影モードを含む、請求項1乃至18のいずれか一項に記載の制御装置。
  20. 前記診断目的に応じた撮影モードは、解析する画像の種類に対応する撮影モード、及び疾病に対応する撮影モードのうち少なくとも一つを含む、請求項19に記載の制御装置。
  21. 請求項1乃至20のいずれか一項に記載の制御装置と、
    前記撮影パラメータを用いて被検眼の断層画像を撮影する撮影装置と、
    を備える、光干渉断層撮影装置。
  22. 前記撮影装置は、被検眼の眼底正面画像を更に撮影する、請求項21に記載の光干渉断層撮影装置。
  23. 被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から被検眼の病名情報を取得することと、
    被検眼の眼底正面画像から病変の位置、大きさ及び種類の少なくとも一つを示す病変情報を取得することと、
    前記取得された病名情報及び病変情報を用いて、断層画像の撮影パラメータを設定することと、
    を含む、光干渉断層撮影装置の制御方法。
  24. 被検眼の眼底正面画像と被検眼の病名情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病名情報を取得することと、
    前記取得された病名情報を用いて、断層画像の撮影パラメータを設定することと、
    を含む、光干渉断層撮影装置の制御方法。
  25. 被検眼の眼底正面画像と被検眼の病変の位置、大きさ及び種類の少なくとも一つを示す病変情報とを含む学習データを用いた学習により得た学習済モデルを用いて、被検眼の眼底正面画像から病変情報を取得することと、
    前記取得された病変情報を用いて、断層画像の撮影パラメータを設定することと、
    を含む、光干渉断層撮影装置の制御方法。
  26. 被検眼の眼底正面画像を取得することと、
    被検眼の眼底正面画像と断層画像の撮影パラメータとを含む学習データを用いた学習により得た学習済モデルを用いて、前記取得した被検眼の眼底正面画像から断層画像の撮影パラメータを取得することと、
    を含む、光干渉断層撮影装置の制御方法。
  27. コンピュータによって実行されると、該コンピュータに請求項23乃至26のいずれか一項に記載の制御方法の各工程を実行させるプログラム。
JP2019235153A 2019-12-25 2019-12-25 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム Active JP7332463B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019235153A JP7332463B2 (ja) 2019-12-25 2019-12-25 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019235153A JP7332463B2 (ja) 2019-12-25 2019-12-25 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2021101965A true JP2021101965A (ja) 2021-07-15
JP2021101965A5 JP2021101965A5 (ja) 2022-04-11
JP7332463B2 JP7332463B2 (ja) 2023-08-23

Family

ID=76755594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019235153A Active JP7332463B2 (ja) 2019-12-25 2019-12-25 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7332463B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022507A1 (ko) * 2021-08-17 2023-02-23 주식회사 메디컬에이아이 2개 유도의 비동시적 심전도를 기반으로 동시적 심전도를 생성하는 방법
WO2023022493A1 (ko) * 2021-08-17 2023-02-23 주식회사 메디컬에이아이 딥러닝 기반 심전도 데이터의 노이즈 제거 시스템
WO2023022516A1 (ko) * 2021-08-17 2023-02-23 주식회사 메디컬에이아이 딥러닝 알고리즘을 기반으로 복수개의 표준 심전도 데이터를 생성하는 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035607A (ja) * 2008-07-31 2010-02-18 Canon Inc 診断支援装置およびその方法、プログラム、記録媒体
JP2013208415A (ja) * 2012-02-28 2013-10-10 Topcon Corp 眼底観察装置
JP2019118814A (ja) * 2017-12-28 2019-07-22 株式会社トプコン 機械学習ガイド付き撮影システム
JP2020124472A (ja) * 2018-12-20 2020-08-20 オプトス ピーエルシー 眼の画像内における病変の検知

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035607A (ja) * 2008-07-31 2010-02-18 Canon Inc 診断支援装置およびその方法、プログラム、記録媒体
JP2013208415A (ja) * 2012-02-28 2013-10-10 Topcon Corp 眼底観察装置
JP2019118814A (ja) * 2017-12-28 2019-07-22 株式会社トプコン 機械学習ガイド付き撮影システム
JP2020124472A (ja) * 2018-12-20 2020-08-20 オプトス ピーエルシー 眼の画像内における病変の検知

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022507A1 (ko) * 2021-08-17 2023-02-23 주식회사 메디컬에이아이 2개 유도의 비동시적 심전도를 기반으로 동시적 심전도를 생성하는 방법
WO2023022493A1 (ko) * 2021-08-17 2023-02-23 주식회사 메디컬에이아이 딥러닝 기반 심전도 데이터의 노이즈 제거 시스템
WO2023022516A1 (ko) * 2021-08-17 2023-02-23 주식회사 메디컬에이아이 딥러닝 알고리즘을 기반으로 복수개의 표준 심전도 데이터를 생성하는 방법

Also Published As

Publication number Publication date
JP7332463B2 (ja) 2023-08-23

Similar Documents

Publication Publication Date Title
JP7229881B2 (ja) 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
JP7250653B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2021039339A1 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP7341874B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7269413B2 (ja) 医用画像処理装置、医用画像処理システム、医用画像処理方法及びプログラム
JP2021039748A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP7413147B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2021029231A1 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
WO2020202680A1 (ja) 情報処理装置及び情報処理方法
WO2020183791A1 (ja) 画像処理装置および画像処理方法
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
JP2022155690A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021037239A (ja) 領域分類方法
JP7362403B2 (ja) 画像処理装置および画像処理方法
WO2020138128A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7194136B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
WO2021256130A1 (ja) スリットランプ顕微鏡
JP2021164535A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022050738A (ja) スリットランプ顕微鏡システム
JP2021086560A (ja) 医用画像処理装置、医用画像処理方法及びプログラム
WO2020075719A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP7344847B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7406901B2 (ja) 情報処理装置及び情報処理方法
JP2022035168A (ja) スリットランプ顕微鏡システム
JP2021119973A (ja) 撮影装置、撮影方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230810

R151 Written notification of patent or utility model registration

Ref document number: 7332463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151