JP2023066198A - 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム - Google Patents

情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム Download PDF

Info

Publication number
JP2023066198A
JP2023066198A JP2021176779A JP2021176779A JP2023066198A JP 2023066198 A JP2023066198 A JP 2023066198A JP 2021176779 A JP2021176779 A JP 2021176779A JP 2021176779 A JP2021176779 A JP 2021176779A JP 2023066198 A JP2023066198 A JP 2023066198A
Authority
JP
Japan
Prior art keywords
feature amount
image
eye
fundus
information output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021176779A
Other languages
English (en)
Inventor
泰士 田邉
Yasushi Tanabe
媛テイ 吉
Yuanting Ji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021176779A priority Critical patent/JP2023066198A/ja
Publication of JP2023066198A publication Critical patent/JP2023066198A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被検眼の眼底に存在する構造物の眼底上の位置、大きさ又は範囲に係る特徴量に基づいて病態を診断する。【解決手段】被検眼の眼底が撮影された眼底画像を取得し、取得した眼底画像から被検眼の特徴量として、第1特徴量と第2特徴量とを各々抽出し、抽出した第1特徴量と第2特徴量とから、被検眼の疾患リスクに関する情報を出力する。【選択図】図3

Description

本発明は、情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラムに関する。
機械学習済みのモデルを用いて、被検眼の眼底に存在する構造物の眼底上の位置、大きさ又は範囲に係る特徴量に基づいて病態を診断することが求められている。
特開2021-039748号公報
本開示の技術の第1の態様の情報出力装置は、被検眼の眼底が撮影された眼底画像を取得する取得部と、前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを抽出する抽出部と、前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力する出力部と、を備える。
本開示の技術の第2の態様の情報出力方法は、被検眼の眼底が撮影された眼底画像を取得するステップと、前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを各々抽出するステップと、前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力するステップと、からなる。
本開示の技術の第3の態様の情報出力プログラムは、コンピュータを、被検眼の眼底が撮影された眼底画像を取得する取得部、前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを抽出する抽出部、及び前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力する出力部と、して機能させる。
眼科システム100のブロック図である。 眼科装置110の全体構成を示す概略構成図である。 管理サーバ140の電気系の構成のブロック図である。 管理サーバ140のCPU262の機能のブロック図である。 管理サーバ140のCPU262の画像処理部206の機能のブロック図である。 本実施形態における予測モデル構築の処理の一例を示したフローチャートである。 脈絡膜血管画像CLAの概略図である。 脈絡膜血管画像CLAから生成された二値化画像300を示した概略図である。 眼底画像において疾患リスクの判断対象となる領域を示した説明図である。 学習後の疾患リスクの予測モデルを用いた処理の一例を示したフローチャートである。 管理サーバ140のディスプレイ256に表示される表示画像500を示した概略図である。 管理サーバ140のディスプレイ256に表示される表示画像500の眼底画像の経時変化を示した概略図である。
以下、図面を参照して本実施形態を詳細に説明する。
図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、管理サーバ装置(以下、「管理サーバ」という)140と、表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。管理サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像及び眼軸長を、患者のIDに対応して記憶する。ビューワ150は、管理サーバ140により取得した眼底画像や解析結果を表示する。
ビューワ150は、管理サーバ140により取得した眼底画像や解析結果を表示するディスプレイ156、操作に供されるマウス155M及びキーボード155Kを備える。
眼科装置110、管理サーバ140、ビューワ150は、ネットワーク130を介して、相互に接続されている。ビューワ150は、クライアントサーバシステムにおけるクライアントであり、ネットワークを介して接続される。当該ネットワーク130にビューワ150が複数台接続される場合もある。また、システムの冗長性を担保するために、管理サーバ140が複数台、ネットワーク130を介して接続されていてもよい。
眼科装置110が画像処理機能及びビューワ150の画像閲覧機能を備えるのであれば、眼科装置110がスタンドアロン状態で、眼底画像の取得、画像処理及び画像閲覧が可能となる。また、管理サーバ140がビューワ150の画像閲覧機能を備えるのであれば、眼科装置110と管理サーバ140との構成で、眼底画像の取得、画像処理及び画像閲覧が可能となる。
なお、他の眼科機器(視野測定、眼圧測定などの検査機器)やAI(Artificial Intelligence)を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、管理サーバ140、及びビューワ150に接続されていてもよい。本開示において、各構成要素(装置等)は、矛盾が生じない限りは、1つのみ存在しても2つ以上存在してもよい 。
次に、図2を参照して、眼科装置110の構成を説明する。 説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、及びZ方向は互いに垂直である。
眼科装置110は、撮影装置14及び制御装置16を含む。撮影装置14は、SLOユニット18及びOCTユニット20を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、及び入出力(I/O)ポート16Dを有するコンピュータを備えている。
制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
また、制御装置16は、I/Oポート16Dに接続された画像処理装置17を備えている。画像処理装置17は、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。なお、制御装置16は、通信インターフェース(I/F)16Fを介してネットワーク130に接続される。
上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、CPU16Aが出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。
撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、及びOCTユニット20を含む。撮影光学系19は、スキャナ22、及び広角光学系30を含む。
スキャナ22は、SLOユニット18から射出された光をX方向、及びY方向に2次元走査すると共に、OCTユニット20から射出された光をX方向、及びY方向に2次元走査する。スキャナ22は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
広角光学系30は、被検眼12側に設けられた対物光学系(図2では不図示)、及びSLOユニット18からの光とOCTユニット20からの光を合成する合成部(図2では不図示)を含む。
なお、対物光学系は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。
楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示及び国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底へ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施形態では、内部照射角は200度としている。
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。
SLOシステムは、図2に示す制御装置16、SLOユニット18、及び撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
SLOユニット18は、B(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、及びIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射又は透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。
SLOユニット18は、G光、R光、及びB光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光(青色光)の光源40、G光の光源42、R光の光源44、及びIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、更に、白色光の光源を更に備え、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
SLOユニット18から撮影光学系19に入射された光は、スキャナ22によってX方向及びY方向に走査される。走査光は広角光学系30及び瞳孔27を経由して、被検眼12の後眼部(眼底)に照射される。眼底により反射された反射光は、広角光学系30及びスキャナ22を経由してSLOユニット18へ入射される。
SLOユニット18は、被検眼12の後眼部(眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60により反射したR光を検出するR光検出素子74、及びビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
広角光学系30及びスキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ64を透過し、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ64、58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ64、58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理装置17は、B光検出素子70、G光検出素子72、R光検出素子74、及びIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。B光検出素子70、G光検出素子72、R光検出素子74、及びIR光検出素子76として、例えば、PD(photodiode)及びAPD(avalanche photodiode:アバランシェ・フォトダイオード)が挙げられる。
SLOユニット18では、対象物である眼底で反射(散乱)して戻ってきた光はスキャナ22を通って光検出素子に届くので、常に同じ位置、すなわちB光検出素子70、G光検出素子72、R光検出素子74、及びIR光検出素子76が存在する位置に戻ってくる。従って、光検出素子をエリアセンサのように平面状(2次元)に構成する必要はなく、PD又はAPD等のような点状(0次元)の検出器が本実施形態では最適である。しかしながら、PD又はAPD等に限らず、ラインセンサ(1次元)又はエリアセンサ(2次元)を用いることも可能である。
UWF-SLO画像には、眼底がG色光で撮影されて得られた(G色眼底画像)と、眼底がR色光で撮影されて得られたUWF-SLO画像(R色眼底画像)とがある。UWF-SLO画像には、眼底がB色光で撮影されて得られたUWF-SLO画像(B色眼底画像)と、眼底がIR光で撮影されて得られたUWF-SLO画像(IR眼底画像)とがある。
また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光及びR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、及びB色眼底画像が得られる。G色眼底画像、R色眼底画像、及びB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光及びR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像及びR色眼底画像が得られる。G色眼底画像及びR色眼底画像を所定の混合比で混合することにより、RGカラー眼底画像が得られる。
UWF-SLO画像には、ICG蛍光撮影されたUWF-SLO画像(動画)もある。インドシアニン・グリーン(ICG)が血管に注入されると、眼底に到達し、最初は網膜に到達し、次に、脈絡膜に到達し、脈絡膜を通過する。UWF-SLO画像(動画)は、インドシアニン・グリーン(ICG)が血管に注入され網膜に到達した時から、脈絡膜を通過した後までの動画像である。
B色眼底画像、G色眼底画像、R色眼底画像、IR眼底画像、RGBカラー眼底画像、RGカラー眼底画像、及びUWF-SLO画像の各画像データは、通信I/F16Fを介して眼科装置110から管理サーバ140へ送付される。
OCTシステムは、図2に示す制御装置16、OCTユニット20、及び撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影にくわえて、広いFOV12Aでの眼底撮影を可能とする。UWF-SLO画像上で、OCT画像を取得する位置がユーザによって指定され、指定された位置をスキャンする(撮影する)ことによりOCT画像が取得される。
OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、及び第2の光カプラ20Fを含む。
光源20Aから射出された光は、第1の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、スキャナ22によってX方向及びY方向に走査される。走査光は広角光学系30及び瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系30とスキャナ22とを経由してOCTユニット20へ入射され、コリメートレンズ20Eと第1の光カプラ20Cとを介して、第2の光カプラ20Fに入射する。
光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。画像処理部206の制御下で動作する画像処理装置17は、センサ20Bで検出されたOCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。
OCT画像の画像データとOCTの取得位置に関する位置情報(OCT撮影時にスキャンした領域、場所を示す情報であり、例えば、UWF-SLO画像上の画素位置や座標データ、あるいはスキャナの駆動信号などである)は、通信I/F16Fを介して眼科装置110から管理サーバ140へ送付され、記憶装置254に記憶される。
なお、本実施形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
次に、図3を参照して、管理サーバ140の電気系の構成を説明する。図3に示すように、管理サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、CPU262、RAM266、ROM264、入出力(I/O)ポート268を有する。I/Oポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、及び通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、HDD(ハードディスクドライブ)やSSD(ソリッドステートドライブ)などの不揮発メモリで構成される。入出力(I/O)ポート268は、通信I/F258を介して、ネットワーク130に接続されている。従って、管理サーバ140は、眼科装置110、及びビューワ150と通信することができる。記憶装置254には、後述する画像処理プログラムが記憶されている。なお、画像処理プログラムを、ROM264に記憶してもよい。CPU262は、本開示の技術の「プロセッサ」に相当する。また、ROM264及びRAM266は、本開示の技術の「メモリ」に相当する。
管理サーバ140は、眼科装置110から受信した各データを、記憶装置254に記憶するとともに、CPU262による様々な画像処理やデータ処理を実行する。
次に、図4を参照して、管理サーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、表示制御機能、画像処理機能、及び処理機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、図4に示すように、表示制御部204、画像処理部206、及び処理部208として機能する。
次に、図5を参照して、画像処理部206の各種機能について説明する。画像処理部206は、眼底画像から脈絡膜血管等を鮮明化した画像を生成する等の画像処理を行ったり、眼底画像から渦静脈等の眼底の構造物を特定する画像処理を行ったり、当該構造物の眼底上の位置、大きさ又は範囲を示す特徴量を取得したりする画像処理を行う画像特徴量取得部2060と、機械学習によって眼底上の構造物の特徴量から疾患の有無、当該疾患の治療効果、又は病態の進行度を診断する機械学習解析部2062として機能する。画像特徴量取得部2060、及び機械学習解析部2062は、本開示の技術の「抽出部」に相当する。
図6は、本実施形態における予測モデル構築の処理の一例を示したフローチャートである。図6に示した処理は管理サーバ140において実行される。
ステップ100で、画像処理部206は、UWF-SLO画像を入力画像として記憶装置254から取得する。
ステップ102で、画像処理部206は、取得したUWF-SLO画像(R色眼底画像及びG色眼底画像)から渦静脈を検出するための前処理を行う。ステップ102ではUWF-SLO画像からノイズを除去するデノイズ処理を行う。ノイズ除去には、メディアンフィルタ等を適用する。
画像処理部206は、ノイズ除去後のG色眼底画像にブラックハットフィルタ処理を施すことにより、G色眼底画像から網膜血管を抽出する。
画像処理部206は、G色眼底画像から抽出された網膜血管の位置情報を用いてR色眼底画像の網膜血管構造を周囲の画素と同じ値に塗りつぶすインペインティング処理等により、網膜血管を除去する。この処理により、R色眼底画像から網膜血管が除去され脈絡膜血管のみが可視化された画像が生成される。
また、画像処理部206は、インペインティング処理後のR色眼底画像から低周波成分を除去した画像を得る。低周波成分を除去するには、周波数フィルタリングや空間フィルタリングなどの周知の画像処理を適用する。
さらに、画像処理部206は、網膜血管が除去され脈絡膜血管が残ったR色眼底画像の画像データに対し、たとえば適応ヒストグラム均等化処理(Contrast Limited Adaptive Histograph Equalization)を施すことにより、R色眼底画像において、脈絡膜血管を強調する。その結果、図7に示す脈絡膜血管画像CLAが作成される。作成された脈絡膜血管画像CLAは記憶装置254に記憶されることによりステップ102における前処理は終了し、手順はステップ104に移行する。
上記例では、R色眼底画像とG色眼底画像とから脈絡膜血管画像CLAを生成している。これにかぎらず、画像処理部206は、G色眼底画像とIR眼底画像とから脈絡膜血管画像CLAを生成してもよい。また、画像処理部206は、B色眼底画像と、R色眼底画像あるいはIR眼底画像とから、脈絡膜血管画像CLAを生成してもよい。
ステップ104で、画像処理部206は、脈絡膜血管画像CLAから眼底の構造物である渦静脈が検出された二値化画像を生成して渦静脈を検出する。二値化画像は、脈絡膜血管画像CLAを二値化することによって生成される。
渦静脈は、細い血管で構成された線状部と、線状部を構成する血管が収束して太い血管を構成する膨大部とを含む。本実施形態では、膨大部の検出に適した第一の二値化処理後の眼底画像と、線状部の検出に適した第二の二値化処理後の眼底画像とを合成することにより、渦静脈の線状部と膨大部とが明瞭に描写された眼底画像を得ることができる。
そして、第一の二値化処理による画像と、第二の二値化処理による画像とを統合(合成)して図8に示したような統合画像を得る。画像の統合は論理和である。本実施形態では、第一の二値化処理による画像及び第二の二値化処理による画像のいずれかにおいて明部である画素は、脈絡膜血管を示す明部の画素とする処理が行われる。
図8は、ステップ104で生成された二値化画像300を示した概略図である。二値化画像300は、黒い背景に渦静脈302V1、302V2、302V3、302V4(以下、必要に応じて「各渦静脈」と略記)が白く表示される。従って、二値化画像300において輝度値が閾値以上の画素の集合を各渦静脈として検出できる。
ステップ106で、画像処理部206は、二値化画像300で検出された各渦静脈等の特徴量を複数算出する。ステップ106で算出する特徴量は、各渦静脈の個数、眼底の所定の位置から各渦静脈までの距離、眼底の所定の位置から各渦静脈の角度、及び各渦静脈の周辺血管の太さ、及び血管壁の厚み等であり、さらに眼軸長を含む。位置・角度の値は球面上で球面三角法を用いて算出されることが好ましい。
図8では、所定の位置として黄斑、又はONH(視神経乳頭)を原点304とした座標を設定している。画像処理部206は、UWF-SLO画像において最も明るい点を検出することにより、視神経乳頭を検出する。また、画像処理部206は、UWF-SLO画像において最も暗い点を検出することにより、黄斑を検出する。
そして、画像処理部206は、特徴量として、原点304と各渦静脈の膨大部の中心との距離306、原点304と各渦静脈の膨大部の中心とを結ぶ線と直交座標の横軸との角度θ、各渦静脈の周辺血管である各渦静脈の線状部の血管の太さ等を被検眼12に係る球面上で各々算出する。各渦静脈の線状部の血管の太さは、例えば、解析円302C1、302C2、302C3、302C4と各渦静脈との交叉部における画素数をカウントし、各渦静脈の線状部の断面が円形であると仮定してカウントした画素数から各渦静脈の線状部の太さを算出する。血管壁の厚みは、断層画像であるOCT画像を併用して算出する。
また、各渦静脈の特徴量として、各渦静脈の線状部の先端を結ぶ線で囲まれた領域302A1、302A2、302A3、302A4の各々の面積を各渦静脈の特徴量として採用してもよい。
ステップ108では、被検眼12の疾患リスクの情報を取得する。取得する疾患リスクの情報は、例えば、加齢黄斑変性やPolypoidal Choroidal Vasculopathy (PCV)などのパキコロイド疾患群、糖尿病黄斑変性等である。
ステップ110では、眼底画像にステップ106で算出した複数の特徴量と疾患リスクの情報とを対応付けた教師データを用いた機械学習を行う。機械学習の方法に特に制限はないが、好ましくはNaive Bayes、Random Forest、及びサポートベクターマシン、AdaBoostからなる手法群から選択してもよい。選択する特徴量は測定される測定量をそのまま用いてもよいが、PCAなどの方法で次元削減を行い主要な特徴量を選別して計算を行ってもよい。特徴量の値は正規化などを行い調整しておくことが好ましい。ステップ110では、各特徴量と疾患リスクの情報との相関関係を導出する。
本実施形態では、特徴量ごとに疾患のリスクを判断させる。特徴量のリスクについては、Relieff法などで算出される重要予測子としての特徴量の重要度の値を用いてもよい。例えば、重要予測子が所定の閾値以上の特徴量を第1特徴量、当該閾値未満の特徴量を第2特徴量とする。なお、眼底全体の画像による判断のみならず、眼底画像をいくつかの領域に分割し、領域ごとに特徴量を抽出するようにしてもよい。
特徴量を分割して定義する目的で、分割して特徴量を定義してもよい。例えば、下鼻側の渦静脈の位置、大きさ及び範囲を第1特徴量、上耳側の渦静脈の位置、大きさ及び範囲を第2特徴量としてもよい。
図9は、眼底画像において疾患リスクの判断対象となる領域を示した説明図である。図9では、黄斑、又はONH(視神経乳頭)である原点304を中心として、後極部310、中縁部312、及び辺縁部314に眼底を分割する。例えば、後極部310は、眼球中心から原点304方向への内部照射角に換算して50度の範囲であり、中縁部312は、同50度から100度の範囲であり、辺縁部314は、同100度から220度の範囲である。そして、眼底全体の画像から抽出した特徴量を第1特徴量とし、中縁部312及び辺縁部314又は辺縁部314から各々抽出した特徴量を第2特徴量としてもよい。第1特徴量を、渦静脈がある辺縁部314から抽出し、第2特徴量として、渦静脈に繋がる血管などの特徴量を後極部310や中縁部312より抽出してもよい。
ステップ112で画像処理部206は、教師データによる学習による疾患リスクの予測モデルを構築して処理を終了する。
図10は、学習後の疾患リスクの予測モデルを用いた処理の一例を示したフローチャートである。ステップ200からステップ206までの手順は、図6のステップ100からステップ106までの手順と同じなので詳細な説明は省略する。
そして、ステップ208で、画像処理部206は、構築した予測モデルにより複数の特徴量を用いて疾患リスク、および/または特徴量ごとの疾患リスクを算出して処理を終了する。
図11は、管理サーバ140のディスプレイ256に表示される表示画像500を示した概略図である。表示画像500は、管理サーバ140のディスプレイ256の他に、ビューワ150のディスプレイ156、又は眼科装置110の入力/表示装置16Eに表示してもよい。
表示画像500は、図11に示すように、情報表示領域502と、画像表示領域504とを有する。情報表示領域502には、患者ID表示領域512、患者名表示領域514、年齢表示領域516、視力表示領域518、右眼/左眼表示領域520及び眼軸長表示領域522を有する。
画像表示領域504には、二値化されて各渦静脈が顕在化された眼底画像540と、眼底画像540から導出された疾患リスク550と、特定の疾患におけるパラメータ(重要予測子)の各々の影響度を示した疾患別の重要予測子パラメータ別リスク552とが表示可能となっている。また、画像表示領域504には、眼底画像540を取得した年月日540Tが表示されると共に、画像表示領域504の下段には、治療歴554が時系列で表示される。
画像表示領域504に表示される、疾患リスク550、及び疾患別の重要予測子パラメータ別リスク552の各々は、図10に示した処理で算出され、百分率で表示される。また、画像表示領域504には、渦静脈の個数、眼底の所定位置に対する渦静脈の位置情報、渦静脈を構成する血管の太さ、渦静脈の血管壁の厚み、及び眼軸長等の特徴量を表示してもよい。
図12は、管理サーバ140のディスプレイ256に表示される表示画像500の眼底画像の経時変化を示した概略図である。表示画像500は、図11の場合と同様に、管理サーバ140のディスプレイ256の他に、ビューワ150のディスプレイ156、又は眼科装置110の入力/表示装置16Eに表示してもよい。
図12に示したように、画像表示領域504には、年月日540Tにおける眼底画像540と、年月日542Tにおける眼底画像542と、年月日544Tにおける眼底画像546とが表示されている。時系列では、年月日540Tから年月日542T、年月日544Tの順に眼底画像が取得されている。
図12に示した患者の眼底画像540、542、544では、渦静脈302V1、302V2の各々が拡大傾向にあり、特定の疾患が疑われる。図12では、特定の疾患リスクの時系列変化を疾患別リスク値経時変化556として表示する。疾患別リスク値経時変化556は、図10に示した処理で算出され、百分率で表示される。
さらに、画像表示領域504には、疾患リスクの変化等に応じて、緊急を要する処置を示した緊急度558が表示可能である。
以上説明したように、本実施形態では、眼底画像と、渦静脈の位置等の情報を含む特徴量とによって疾患リスクを判定する。
眼底画像全体をCNNモデルで処理すると、疾患位置の厳密な検討を行わずに疾患のリスクを判断する等の難点が生じ得るが、眼底画像と、渦静脈の位置等の情報を含む特徴量とによって疾患リスクを判定することにより、疾患位置を含めた詳細な疾患リスクを出力することが可能となる。
また、眼底画像の一部の領域を処理対象とすることにより、管理サーバ140の情報処理の演算負荷を抑制すると共に、迅速に疾患リスクを出力することができる。
以上説明した各実施形態における画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上説明した各実施形態では、コンピュータを利用したソフトウェア構成による画像処理を想定しているが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合とされない場合とを含むので、以下の技術を含む。
(第1の技術)
メモリと、前記メモリに接続するプロセッサとを備え、
前記プロセッサは、
被検眼の眼底が撮影された眼底画像を取得するステップと、
前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを各々抽出するステップと、
前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力するステップと、
を実行する情報出力装置。
(第2の技術)
プロセッサが行う画像処理であって、
被検眼の眼底が撮影された眼底画像を取得するステップと、
前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを各々抽出するステップと、
前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力するステップと、
を含む情報出力方法。
(第3の技術)
画像処理するためのコンピュータプログラム製品であって、
前記コンピュータプログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
前記コンピュータ可読記憶媒体には、プログラムが格納されており、
前記プログラムは、コンピュータに、
被検眼の眼底が撮影された眼底画像を取得するステップと、
前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを各々抽出するステップと、
前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力するステップと、
を実行させるコンピュータプログラム製品。
本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。
12 被検眼
14 撮影装置
19 撮影光学系
100 眼科システム
110 眼科装置
130 ネットワーク
140 管理サーバ
150 ビューワ
204 表示制御部
206 画像処理部
208 処理部
252 コンピュータ本体
254 記憶装置
256 ディスプレイ
262 CPU
264 ROM
266 RAM
268 ポート
300 二値化画像
302A1、302A2、302A3、302A4 領域
302C1、302C2、302C3、302C4 解析円
302V1、302V2、302V3、302V4 渦静脈
304 原点
306 距離
310 後極部
312 中縁部
314 辺縁部
500 表示画像
502 情報表示領域
504 画像表示領域
2060 画像特徴量取得部
2062 機械学習解析部
θ 角度

Claims (15)

  1. 被検眼の眼底が撮影された眼底画像を取得する取得部と、
    前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを抽出する抽出部と、
    前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力する出力部と、
    を備える情報出力装置。
  2. 前記抽出部は、前記眼底画像上の渦静脈から前記第1特徴量と前記第2特徴量の少なくともいずれか一方を抽出する、請求項1に記載の情報出力装置。
  3. 前記抽出部は、前記眼底画像の異なる領域から第1特徴量と第2特徴量とを各々抽出する、請求項1又は2に記載の情報出力装置。
  4. 前記抽出部は、前記眼底画像の画像全体の領域から前記第1特徴量を抽出し、前記眼底画像の黄斑の周辺領域から前記第2特徴量を抽出する、請求項1乃至請求項3のいずれか一項に記載の情報出力装置。
  5. 前記抽出部は、前記周辺領域である後極部以外の領域から前記第2特徴量を抽出する、請求項4に記載の情報出力装置。
  6. 前記抽出部は、前記眼底画像から抽出された渦静脈の個数、前記眼底の所定位置に対する渦静脈の位置情報、前記渦静脈を構成する血管の太さ、及び前記渦静脈の血管壁の厚み、並びに眼軸長の何れかを含む、前記第1特徴量および前記第2特徴量を抽出する、請求項1乃至請求項5のいずれか一項に記載の情報出力装置。
  7. 前記第1特徴量と前記第2特徴量と前記情報とを表示する表示部を備える請求項1乃至請求項6のいずれか一項に記載の情報出力装置。
  8. 前記表示部は、前記眼底画像を表示する請求項7に記載の情報出力装置。
  9. 前記抽出部は、前記被検眼のSLO画像または前記被検眼のOCT画像から、前記第1特徴量と前記第2特徴量とを抽出する、請求項1乃至請求項8のいずれか一項に記載の情報出力装置。
  10. 前記抽出部は、Naive Bayes、Random Forest、及びサポートベクターマシンのいずれかのアルゴリズムを用いて実行、又は該いずれかのアルゴリズムにAdaBoostを組み合わせて実行し、前記第1特徴量と前記第2特徴量とを前記眼底画像に基づく学習によって学習モデルを構築する、請求項1乃至請求項9のいずれか一項に記載の情報出力装置。
  11. 請求項1乃至請求項10のいずれか一項に記載の情報出力装置と、
    前記眼底画像を撮影する撮像部と、を備える、眼底画像撮影装置。
  12. 前記撮像部は、前記被検眼のSLO画像または前記被検眼のOCT画像を撮影する、請求項11に記載の眼底画像撮影装置。
  13. 被検眼の眼底が撮影された眼底画像を取得するステップと、
    前記眼底画像から前記被検眼の特徴量として、第1特徴量と第2特徴量とを各々抽出するステップと、
    前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力するステップと、
    からなる情報出力方法。
  14. 請求項1乃至請求項7のいずれか一項に記載の情報出力装置を用いて、撮影した被検眼の眼底画像から前記被検眼の疾患リスクに関する情報を出力する情報出力方法。
  15. コンピュータを、
    被検眼の眼底が撮影された眼底画像を取得する取得部、前記被検眼の特徴量として、前記眼底画像から第1特徴量と第2特徴量とを抽出する抽出部、及び前記第1特徴量と前記第2特徴量とから、前記被検眼の疾患リスクに関する情報を出力する出力部と、して機能させる情報出力プログラム。
JP2021176779A 2021-10-28 2021-10-28 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム Pending JP2023066198A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021176779A JP2023066198A (ja) 2021-10-28 2021-10-28 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021176779A JP2023066198A (ja) 2021-10-28 2021-10-28 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム

Publications (1)

Publication Number Publication Date
JP2023066198A true JP2023066198A (ja) 2023-05-15

Family

ID=86322041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021176779A Pending JP2023066198A (ja) 2021-10-28 2021-10-28 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム

Country Status (1)

Country Link
JP (1) JP2023066198A (ja)

Similar Documents

Publication Publication Date Title
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
CN111885954B (zh) 图像处理方法、存储介质及眼科装置
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
JP2022040372A (ja) 眼科装置
JP2019154988A (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2019177032A (ja) 眼科画像処理装置、および眼科画像処理プログラム
US20230154010A1 (en) Image processing method, image processing device, and program
JP6637743B2 (ja) 眼科装置
JP2019171221A (ja) 眼科撮影装置及び眼科情報処理装置
JP2020058647A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7419946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
US11419495B2 (en) Image processing method, image processing device, and storage medium
JP2020058627A (ja) 画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置
US20230139849A1 (en) Image processing method, image processing device, and image processing program
JP2022089086A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2023066198A (ja) 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム
JP7494855B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
US20240153203A1 (en) Image processing method, image processing device, and program
JP7306482B2 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021210295A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2022113409A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7272453B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム