JP7406403B2 - 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体 - Google Patents

眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体 Download PDF

Info

Publication number
JP7406403B2
JP7406403B2 JP2020034202A JP2020034202A JP7406403B2 JP 7406403 B2 JP7406403 B2 JP 7406403B2 JP 2020034202 A JP2020034202 A JP 2020034202A JP 2020034202 A JP2020034202 A JP 2020034202A JP 7406403 B2 JP7406403 B2 JP 7406403B2
Authority
JP
Japan
Prior art keywords
image
fundus
wavelength
subject
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020034202A
Other languages
English (en)
Other versions
JP2021133175A (ja
Inventor
希望 大手
二三生 橋本
秀直 山田
明 尾花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOCIAL WELFARE CORPORATION SEIREI SOCIAL WELFARE COMMUNITY
Hamamatsu Photonics KK
Original Assignee
SOCIAL WELFARE CORPORATION SEIREI SOCIAL WELFARE COMMUNITY
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOCIAL WELFARE CORPORATION SEIREI SOCIAL WELFARE COMMUNITY, Hamamatsu Photonics KK filed Critical SOCIAL WELFARE CORPORATION SEIREI SOCIAL WELFARE COMMUNITY
Priority to JP2020034202A priority Critical patent/JP7406403B2/ja
Priority to PCT/JP2021/000077 priority patent/WO2021171788A1/ja
Priority to EP21759882.0A priority patent/EP4092622A4/en
Priority to CN202180016865.5A priority patent/CN115175603A/zh
Priority to US17/800,062 priority patent/US20230078077A1/en
Publication of JP2021133175A publication Critical patent/JP2021133175A/ja
Application granted granted Critical
Publication of JP7406403B2 publication Critical patent/JP7406403B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • A61B3/1176Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens for determining lens opacity, e.g. cataract
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Image Processing (AREA)

Description

実施形態の一側面は、眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体に関する。
従来から、被験者の眼底の自発蛍光画像を用いて黄斑色素光学密度(MPOD:Macular Pigment Optical Density)を測定する装置が用いられている。黄斑色素密度を示すMPODの測定は、加齢黄斑変性(AMD:Age-related Macular Degeneration)の予防のために重要である。このMPODの測定を白内障患者に行った場合には、自発蛍光画像の画質低下に起因してMPOD値が過小評価される。そこで、真の値を得るためには測定したMPOD値を補正する必要があることが知られている(下記非特許文献1参照。)。
A. Obana et al., "Grade ofCataract and Its Influence on Measurement of Macular Pigment Optical DensityUsing Autofluorescence Imaging", Investigative Ophthalmology & Visual Science,June 2018, Vol.59, 3011-3019
上述したような従来の補正の手法においては、主観評価によって導き出した補正係数をMPODの実測値に反映させる方法と、重回帰による手法によって補正している。しかし、これらの方法は補正処理が煩雑であり、補正したMPODの信頼度も十分ではない場合があった。
そこで、実施形態の一側面は、かかる課題に鑑みてなされたものであり、簡易な処理によって信頼度の高いMPODを導出することが可能な眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体を提供することを課題とする。
実施形態の一側面に係る眼底画像処理方法は、被験者の眼底に第1の波長の励起光を照射することで発生した眼底の蛍光像の第1の画像を取得するステップと、被験者の眼底に第1の波長と異なる第2の波長の励起光を照射することで発生した眼底の蛍光像の第2の画像を取得するステップと、複数の異なる初期値を用いて、第1の画像及び第2の画像を少なくとも含む入力画像から被験者の黄斑色素量を算出するための補正係数を予測するための複数の学習済みの深層学習モデルを、訓練により生成するステップと、第1の画像及び第2の画像を少なくとも含む入力画像を、複数の学習済みの深層学習モデルに入力することにより、複数の補正係数を予測するステップと、複数の補正係数を対象に統計値を算出し、統計値を被験者の補正係数として導出するステップと、第1の画像あるいは第2の画像の少なくとも一方と、被験者の補正係数とを基に、被験者の黄斑色素量を算出するステップと、を備える。
あるいは、実施形態の他の側面に係る眼底画像処理装置は、被験者の眼底に第1の波長の励起光を照射することで発生した眼底の蛍光像の第1の画像を取得する第1取得部と、被験者の眼底に第1の波長と異なる第2の波長の励起光を照射することで発生した眼底の蛍光像の第2の画像を取得する第2取得部と、複数の異なる初期値を用いて、第1の画像及び第2の画像を少なくとも含む入力画像から被験者の黄斑色素量を算出するための補正係数を予測するための複数の学習済みの深層学習モデルを、訓練により生成する生成部と、第1の画像及び第2の画像を少なくとも含む入力画像を、複数の学習済みの深層学習モデルに入力することにより、複数の補正係数を予測する予測部と、複数の補正係数を対象に統計値を算出し、統計値を被験者の補正係数として導出する導出部と、第1の画像あるいは第2の画像の少なくとも一方と、被験者の補正係数とを基に、被験者の黄斑色素量を算出する算出部と、を備える。
あるいは、実施形態の他の側面に係る眼底画像処理プログラムは、プロセッサを、被験者の眼底に第1の波長の励起光を照射することで発生した眼底の蛍光像の第1の画像を取得する第1取得部、被験者の眼底に第1の波長と異なる第2の波長の励起光を照射することで発生した眼底の蛍光像の第2の画像を取得する第2取得部、複数の異なる初期値を用いて、第1の画像及び第2の画像を少なくとも含む入力画像から被験者の黄斑色素量を算出するための補正係数を予測するための複数の学習済みの深層学習モデルを、訓練により生成する生成部、第1の画像及び第2の画像を少なくとも含む入力画像を、複数の学習済みの深層学習モデルに入力することにより、複数の補正係数を予測する予測部、複数の補正係数を対象に統計値を算出し、統計値を被験者の補正係数として導出する導出部、及び 第1の画像あるいは第2の画像の少なくとも一方と、被験者の補正係数とを基に、被験者の黄斑色素量を算出する算出部、として機能させる。
あるいは、実施形態の他の側面は、眼底画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体である。
上記一側面あるいは他の側面のいずれかによれば、第1の波長の励起光によって得た眼底の蛍光像である第1の画像と、第2の波長の励起光によって得た眼底の蛍光像である第2の画像とが取得され、複数の異なる初期値を用いて、第1の画像及び第2の画像を含む入力画像から補正係数を予測するための複数の学習済みの深層学習モデルが生成される。そして、第1の画像及び第2の画像を含む入力画像が複数の学習済みの深層学習モデルに入力されることにより複数の補正係数が予測され、複数の補正係数の統計値が被験者の補正係数として導出され、第1の画像あるいは第2の画像とその補正係数とを基に被験者の黄斑色素量が算出される。これにより、第1の画像と第2の画像とを訓練データとして複数の深層学習モデルが構築され、被験者を対象にした第1の画像及び第2の画像を複数の深層学習モデルに入力させて複数の補正係数が予測され、複数の予測係数を統計的に評価することで黄斑色素量が算出される。その結果、簡易な処理によって複数の被験者の画像における画質の傾向を反映した信頼度の高い黄斑色素量を算出することができる。
上記一側面あるいは他の側面のいずれかにおいては、第1の波長及び第2の波長の一方は、青色領域内の波長であり、第1の波長及び第2の波長の他方は、緑色領域内の波長である、ことが好適である。黄斑は青色光を吸収する性質を有するため、このような波長の励起光による2つの画像を入力画像とすることで、高精度に黄斑色素量を算出することができる。
また、入力画像は、第1の画像と第2の画像とを基にした差分画像あるいは加算画像をさらに含む、ことも好適である。この場合、2つの画像を基にした差分画像あるいは加算画像を入力画像に含めることで、より高精度に黄斑色素量を算出することができる。
さらに、統計値は、複数の補正係数の平均値あるいは中央値である、ことが好適である。この場合、複数の学習済みの深層学習モデルを用いて予測した複数の補正係数を均等に反映して黄斑色素量を算出することができるので、より信頼度の高い黄斑色素量の算出が可能となる。
またさらに、上記一側面あるいは他の側面のいずれかは、複数の異なる初期値を基に発生させた擬似乱数を用いて深層学習モデルを訓練する、ことも好適である。かかる構成によれば、限られた数の入力画像を用いて訓練する場合であっても補正係数を予測するための複数の深層学習モデルを網羅的に生成できる。
さらにまた、上記一側面あるいは他の側面のいずれかは、擬似乱数を深層学習モデルのパラメータの初期化に用いる、ことも好適であり、擬似乱数を基に、深層学習モデルに入力する入力画像の順番を変更する、ことも好適である。こうすれば、限られた数の入力画像を用いて訓練する場合であっても補正係数を予測するための複数の深層学習モデルを網羅的に生成できる。
実施形態によれば、簡易な処理によって信頼度の高い黄斑色素密度を導出することができる。
実施形態にかかる眼底画像処理装置1の機能構成を示すブロック図である。 図1の眼底画像処理装置1として用いられるコンピュータ20のハードウェア構成の一例を示すブロック図である。 図1のモデル生成部7の生成する学習済みモデルLMのネットワーク構造を示す図である。 図3の学習済みモデルLMの後段構造L2における2層の全結合層の結合構成を示す図である。 眼底画像処理装置1によって実行される訓練フェーズの手順を示すフローチャートである。 眼底画像処理装置1によって実行される予測フェーズの手順を示すフローチャートである。 実施形態にかかる眼底画像処理プログラムの構成を示す図である。 本実施形態によって予測されたMPOD数値列の精度の実験結果を示すグラフである。 本実施形態によって予測されたMPOD数値列の精度の実験結果を示すグラフである。 変形例で用いる学習済みモデルLMのネットワーク構造を示す図である。 図10の学習済みモデルLMの後段構造L5における2層の結合構成を示す図である。
以下、添付図面を参照して、本発明の実施形態について詳細に説明する。なお、説明において、同一要素又は同一機能を有する要素には、同一符号を用いることとし、重複する説明は省略する。
図1は、本実施形態に係る眼底画像処理装置1の機能構成を示すブロック図である。図1に示されるように、眼底画像処理装置1は、外部の眼底解析装置50によって得られた被験者の眼底画像を処理して被験者の黄斑色素量を示す黄斑色素光学密度(MPOD)を推定する演算装置である。眼底画像処理装置1は、眼底解析装置50から有線あるいは無線の通信ネットワークを介して眼底画像を取得することができる。
眼底解析装置50は、被験者を対象に眼底画像を取得する公知の光学装置であり、図示しない光源及び撮像素子等を内蔵し、被験者の眼底に励起光を照射し、それに応じて発生した眼底の自発蛍光像を眼底画像として取得する機能を有する。本実施形態では、眼底解析装置50は、被験者を対象に青色波長486nmの励起光を照射して得られた第1眼底画像と、被験者を対象に緑色波長518nmの励起光を照射して得られた第2眼底画像とを、取得する。ただし、第1眼底画像を得るのに用いられる励起光の波長は、青色の波長領域である450~495nmの範囲内であればよく、第2眼底画像を得るのに用いられる励起光の波長は、緑色の波長領域である495~570nmの範囲内であればよい。
一般に、網膜の中心に位置する黄斑は青色光を吸収する性質を有するため、眼底解析装置50で得られた被験者の眼底画像には黄斑色素の量に応じた輝度分布の変化が現れる。従来は、青色光励起に応じて得られた自発蛍光画像を基に、網膜の中心(中心窩)付近における輝度値とその周辺の円形領域の輝度値の平均値との比を計算することによりMPODを計算していた。
眼底画像処理装置1は、上記の眼底解析装置50によって被験者を対象にして得られた第1眼底画像及び第2眼底画像を基に、MPODを推定する。すなわち、眼底画像処理装置1は、機能的構成要素として、画像入力部(第1取得部、第2取得部)3、係数算出部5、モデル生成部7、係数予測部9、係数導出部11、色素量算出部13、及びモデル格納部15を備えて構成されている。
図2は、本実施形態の眼底画像処理装置1を実現するコンピュータ20のハードウェア構成を示している。図2に示すように、コンピュータ20は、物理的には、プロセッサであるCPU(Central Processing Unit)101、記録媒体であるRAM(Random Access Memory)102又はROM(Read Only Memory)103、通信モジュール104、及び入出力モジュール106等を含んだコンピュータ等であり、各々は電気的に接続されている。なお、コンピュータ20は、入出力モジュール106として、ディスプレイ、キーボード、マウス、タッチパネルディスプレイ等を含んでいてもよいし、ハードディスクドライブ、半導体メモリ等のデータ記録装置を含んでいてもよい。また、コンピュータ20は、複数のコンピュータによって構成されていてもよい。なお、コンピュータ20は、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)をさらに含んでいてもよく、CPU101とGPUとで並列処理が可能に構成されていてもよい。
図1に示す眼底画像処理装置1の各機能部は、CPU101及びRAM102等のハードウェア上にプログラム(本実施形態の眼底画像処理プログラム)を読み込ませることにより、CPU101の制御のもとで、通信モジュール104、及び入出力モジュール106等を動作させるとともに、RAM102におけるデータの読み出し及び書き込みを行うことで実現される。コンピュータ20のCPU101は、このコンピュータプログラムを実行することによってコンピュータ20を図1の各機能部として機能させ、後述する眼底画像処理方法に対応する処理を順次実行する。このコンピュータプログラムの実行に必要な各種データ、及び、このコンピュータプログラムの実行によって生成された各種データは、全て、ROM103、RAM102等の内蔵メモリ、又は、ハードディスクドライブなどの記憶媒体に格納される。
ここで、眼底画像処理装置1の各機能部の機能の詳細について説明する。
画像入力部3は、被験者のMPODを推定する予測フェーズにおいて、白内障手術を受ける前の被験者を対象とした第1眼底画像及び第2眼底画像(以下、予測対象の眼底画像セット)を取得する。また、画像入力部3は、複数の学習済みの深層学習モデルを生成する訓練フェーズにおいて、訓練に用いられる訓練データとしての白内障手術の前の被験者を対象とした第1眼底画像及び第2眼底画像(以下、術前の眼底画像セットともいう。)と、白内障手術の後の当該被験者を対象とした第1眼底画像及び第2眼底画像(以下、術後の眼底画像セットともいう。)との組み合わせを、様々な被験者を対象にあるいは様々な撮影条件下において複数組み合わせ(例えば、148組)取得する。また、画像入力部3は、予測対象の眼底画像セット、及び術前の眼底画像セットを取得すると、それぞれの眼底画像セットに含まれる第1眼底画像及び第2眼底画像とを基に、それらの画像間で対応する画素を差分し、差分した輝度値の最小値が0となるように全画素の輝度値をシフトした差分画像を生成し、生成した差分画像をそれぞれの眼底画像セットに付加する。
係数算出部5は、訓練フェーズにおいて、術前の眼底画像セット及び術後の眼底画像セットとの複数の組み合わせを基に、MPODを補正するための補正係数であるCF(Correction Factor)値を、それぞれの組み合わせを対象に計算する。
具体的には、係数算出部5は、術前の眼底画像セットのうちの少なくとも一方の眼底画像(好ましくは、第1眼底画像)を参照して、MPODを計算する。MPODの計算は、網膜の中心付近の予め指定された画素位置の輝度値Iminとその周辺の予め指定された複数の円形領域の輝度値の平均値Imax(ave)との比を基に下記式により計算する。
MPOD=-1.4・log{Imin/Imax(ave)}
係数算出部5は、このMPODを、網膜中心(中心窩)からの離心角(eccentricity)0.23度、0.51度、0.98度、1.99度のそれぞれの位置において計算し、ローカルMPOD0.23、ローカルMPOD0.51、ローカルMPOD0.98、ローカルMPOD1.99とする。加えて、係数算出部5は、網膜中心(中心窩)からの離心角8.98度以内の領域のMPODの合計を計算し、MPODボリュームとする。係数算出部5は、計算したMPODの値の組{ローカルMPOD0.23、ローカルMPOD0.51、ローカルMPOD0.98、ローカルMPOD1.99、MPODボリューム}をMPOD数値列として設定する。
同様にして、係数算出部5は、術後の眼底画像セットのうちの少なくとも一方の眼底画像(好ましくは、第1眼底画像)を参照して、MPOD数値列を計算する。
さらに、係数算出部5は、術前の眼底画像セットから計算したMPOD数値列(術前のMPOD数値列)と、術後の眼底画像セットから計算したMPOD数値列(術後のMPOD数値列)とを基に、術前のMPOD数値列のそれぞれから術後のMPOD数値列のそれぞれに補正するためのCF値を計算する。例えば、術後のMPOD数値列のそれぞれを術前のMPOD数値列で除算することにより、CF値の組{CF0.23、CF0.51、CF0.98、CF1.99、CFTOTAL}(以下、CF数値列という。)を計算する。
係数算出部5は、上記のようにして計算した複数組のCF数値列を、モデル生成部7において訓練データとして用いられる複数の対応する術前の眼底画像セットに付加して、モデル生成部7に引き渡す。このCF数値列は、モデル生成部7における訓練(教師あり学習)において教師データ(ラベル)としても用いられることとなる。
モデル生成部7は、訓練フェーズにおいて、被験者を対象とした予測対象の眼底画像セットのうちの少なくとも1つの画像を入力画像として被験者の黄斑色素量を算出するための補正係数を示すCF数値列を予測するための複数の学習済みの深層学習モデルを、複数の術前の眼底画像セットを用いた訓練により生成する。詳細には、モデル生成部7は、予測対象の眼底画像セットに含まれる第1眼底画像、第2眼底画像、及び差分画像を入力画像とした、CF数値列を予測する畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の構造を有する学習済みモデルを3つ生成し、生成した3つ学習済みモデルを動作させるためのパラメータ等を含むデータMD1,MD2,MD3をモデル格納部15に格納する。
図3には、モデル生成部7の生成する学習済みモデルLMのネットワーク構造を示している。学習済みモデルLMは、予測対象の眼底画像セットが3chで入力される入力層L0と、入力層L0の後段において畳み込み層及びプーリング層が複数組で交互に接続された前段構造L1と、前段構造L1の後段に順次接続された2層の全結合層を有する後段構造L2と、後段構造L2からの各ノードのデータを最終的なCF数値列に変換して一次ベクトルとして出力する出力層L3とから構成されている。このような学習済みモデルLMは、ImageNet等の大規模な画像データベースによって訓練済みのCNNの構造をベースに、出力層L3のノード数を所望の数(本実施形態では5)に変更したものを使用することができる。学習済みモデルLMのパラメータのうち、最後段の全結合層以外においては、既に訓練済みのパラメータ(重みフィルタのパラメータ等)が初期値として用いられる(転移学習を適用することが前提とされる)。
モデル生成部7は、3つの学習済みモデルを、複数の術前の眼底画像セットを訓練データ、それらに対応するCF数値列を教師データとして用いて、異なる3つの初期値を基に訓練することにより、生成する。すなわち、モデル生成部7は、訓練に先立って、予め設定された3つの初期値である3つの乱数シードのそれぞれをコンピュータ20内に備える擬似乱数生成器に入力することにより擬似乱数系列を発生させ、その擬似乱数系列を基にCNNの学習済みモデルLMにおける最後段の全結合層のパラメータを初期化する。例えば、図4に示すように、学習済みモデルLMの後段構造L2における2層の全結合層のノードiとノードjとの間(i,jは任意の整数)の結合重みwi,jの初期値を、擬似乱数系列に依存させて設定する。このような学習済みモデルLMのランダムな初期化により、訓練により生成した3つの学習済みモデルの最適化結果が初期値に依存することから、3つの学習済みモデルによる予測結果がやや異なる結果となる。
また、モデル生成部7は、上記のような擬似乱数系列を基にした学習済みモデルLMのパラメータの初期化に代えて、あるいはそのパラメータの初期化に加えて、全ての訓練データを学習済みモデルLMに提示(入力)する各ループ(各エポック)において、擬似乱数系列を基に訓練データの提示の順番をランダムに変更してもよい。このようにすることで、訓練時に学習済みモデルのパラメータが局所解に陥ることを防ぐことができる。また、CNNである学習済みモデルの訓練時には、提示される入力画像の中心付近のランダムな位置をクロップして入力画像のバリエーションを増やすデータ拡張(data argumentation)を実行することも可能であるが、モデル生成部7による上記機能により3つの学習済みモデル間でデータ拡張の効果も変化させることができる。
係数予測部9は、予測フェーズにおいて、訓練フェーズによって生成された3つの学習済みモデルをそれぞれ用いて、被験者を対象とした術前の眼底画像セットを入力とすることにより、被験者のCF数値列を3組予測する。このとき、係数予測部9は、3つの学習済みモデルを用いた予測処理を実行するために必要なデータMD1,MD2,MD3を、モデル格納部15から読み出す。
係数導出部11は、予測フェーズにおいて、係数予測部9によって被験者を対象に予測された3組のCF数値列を対象に統計値を算出し、統計値を最終的な被験者のCF数値列として導出する。例えば、係数導出部11は、3組のCF数値列{CF0.23、CF0.51、CF0.98、CF1.99、CFTOTAL}のそれぞれの数値の平均値{CFA0.23、CFA0.51、CFA0.98、CFA1.99、CFATOTAL}を算出し、それらの平均値の数値列を最終的なCF数値列とする。このように予測値の平均値を最終的な予測値とする(アンサンブル処理を行う)ことで、深層学習の最適化結果の初期値依存性を緩和することができ、補正値の予測精度の改善が実現される。
色素量算出部13は、予測フェーズにおいて、係数導出部11によって導出された最終的なCF数値列を用いて、被験者のMPOD数値列を算出し、入出力モジュール106(図2)に出力する。また、色素量算出部13は、算出したMPOD数値列を通信モジュール104(図2)を介して外部装置に送信してもよい。すなわち、色素量算出部13は、被験者を対象にした予測対象の眼底画像セットのうちの少なくとも一方の眼底画像(好ましくは、第1眼底画像)を参照して、係数算出部5と同様な計算方法を用いて、MPOD数値列を計算する。そして、色素量算出部13は、計算したMPOD数値列をCF数値列を用いて補正することにより被験者のMPOD数値列を算出する。このとき、色素量算出部13は、MPOD数値列{ローカルMPOD0.23、ローカルMPOD0.51、ローカルMPOD0.98、ローカルMPOD1.99、MPODボリューム}に含まれるそれぞれの数値に、CF数値列{CFA0.23、CFA0.51、CFA0.98、CFA1.99、CFATOTAL}に含まれる対応する補正値を乗算することにより、被験者のMPOD数値列を算出する。
次に、本実施形態に係る眼底画像処理装置1を用いた被験者のMPODの予測処理の手順、すなわち、本実施形態に係る眼底画像処理方法の流れについて説明する。図5は、眼底画像処理装置1によって実行される訓練フェーズの手順を示すフローチャート、図6は、眼底画像処理装置1によって実行される予測フェーズの手順を示すフローチャートである。
まず、眼底画像処理装置1のオペレータの指示入力等に応じて訓練フェーズが開始されると、画像入力部3によって術前の眼底画像セットと術後の眼底画像セットの組が複数組取得される(ステップS101)。それに応じて、係数算出部5により、術前の眼底画像セット及び術後の眼底画像セットのそれぞれを対象に、MPOD数値列が計算され、それらの数値列を基にCF数値列が計算される(ステップS102)。CF数値列の計算は術前の眼底画像セットと術後の眼底画像セットの全ての組を対象に繰り返され、計算されたCF数値列は、教師データとして、対応する術前の眼底画像セットに付加される。
次に、モデル生成部7により、予め設定された乱数シードを用いて擬似乱数が発生される(ステップS103)。そして、モデル生成部7により、擬似乱数を基にCNNの初期値を設定し、かつ、訓練データの提示の順番を擬似乱数を基に変更することにより、学習済みの深層学習モデルが訓練により生成される(ステップS104)。さらに、モデル生成部7により、生成された学習済みの深層学習モデルのデータがモデル格納部15に格納される(ステップS105)。
上記のステップS103~ステップS105の処理が3つの乱数シードを設定しながら3回繰り返される結果(ステップS106)、3つの学習済みの深層学習モデルが生成及び格納される。
次に、眼底画像処理装置1のオペレータの指示入力等に応じて被験者に対する予測フェーズが開始されると、画像入力部3によってその被験者を対象とした予測対象の眼底画像セットが取得される(ステップS201)。そして、係数予測部9により、予測対象の眼底画像セットが入力画像として3つの学習済みの深層学習モデルに入力されることにより、3組のCF数値列が予測される(ステップS202)。
さらに、係数導出部11により、予測された3組のCF数値列の統計値が算出されることにより、被験者の最終のCF数値列が導出される(ステップS203)。その後、色素量算出部13により、予測対象の眼底画像セットに含まれる第1の眼底画像と第2眼底画像を基にMPOD数値列が計算される(ステップS204)。最後に、色素量算出部13により、MPOD数値列がCF数値列を用いて補正され、補正されたMPOD数値列が出力される(ステップS205)。
次に、図7を参照して、コンピュータ20を上記眼底画像処理装置1として機能させるための眼底画像処理プログラムの構成を説明する。
眼底画像処理プログラムP1は、メインモジュールP10、画像入力モジュールP15、係数算出モジュールP16、モデル生成モジュールP17、係数予測モジュールP18、係数導出モジュールP19、及び色素量算出モジュールP20を備えている。
メインモジュールP10は、眼底画像の処理を統括的に制御する部分である。画像入力モジュールP15、係数算出モジュールP16、モデル生成モジュールP17、係数予測モジュールP18、係数導出モジュールP19、及び色素量算出モジュールP20を実行することにより実現される機能は、それぞれ、眼底画像処理装置1の画像入力部3、係数算出部5、モデル生成部7、係数予測部9、係数導出部11、及び色素量算出部13の機能と同様である。
眼底画像処理プログラムP1は、例えば、CD-ROM、DVDもしくはROM等の記録媒体または半導体メモリによって提供される。また、眼底画像処理プログラムP1は、搬送波に重畳されたコンピュータデータ信号としてネットワークを介して提供されてもよい。
以上説明した眼底画像処理装置1によれば、青色を含む波長領域の励起光によって得た第1眼底画像と、緑色を含む波長領域の励起光によって得た第2眼底画像とが複数組取得され、3つの異なる初期値を用いて、第1眼底画像及び第2眼底画像を含む入力画像からCF数値列を予測するための3つの学習済みの深層学習モデルが生成される。そして、第1眼底画像及び第2眼底画像を含む白内障手術前の被験者を対象に得られた入力画像が、3つの学習済みの深層学習モデルに入力されることにより3つのCF数値列が予測され、3つのCF数値列の統計値である平均値が被験者の最終的なCF数値列として導出され、第1眼底画像と第2眼底画像から計算されたMPOD数値列とそのCF数値列とを基に被験者のMPOD数値列が算出される。これにより、第1眼底画像と第2眼底画像とを訓練データとして3つの深層学習モデルが構築され、被験者を対象にした第1眼底画像及び第2眼底画像を3つの深層学習モデルに入力させて3つのCF数値列が予測され、3つのCF数値列を統計的に評価することで黄斑色素量が算出される。その結果、簡易な処理によって複数の被験者の画像における画質の変化傾向を反映した信頼度の高い黄斑色素量を算出することができる。
特に、本実施形態では、乱数シードを変えながら訓練フェーズを実行している。この場合、CNNのパラメータの初期化、訓練データの提示の順番、データ拡張の効果などが、乱数シードに応じて変化することになる。最適なCNNのパラメータの初期値、最適な訓練データの提示の順番、あるいは、最適なデータ拡張の方法は未知であるため、様々な訓練シードを用いて訓練した学習済みのCNNの予測値の平均を取ることにより、最適な訓練が行われた場合のCNNの予測結果に近い予測値を得ることができる。
また、本実施形態では、第1眼底画像の取得に青色波長領域内の波長の励起光を用いており、第2眼底画像の取得に緑色波長領域内の波長の励起光を用いている。黄斑は青色光を吸収する性質を有するため、このような波長の励起光によって生じた2つの画像を入力画像とすることで、高精度に黄斑色素量を算出することができる。
また、本実施形態では、CNNに入力する入力画像に差分画像を含めている。この場合、より高精度に黄斑色素量を算出することができる。
さらに、本実施形態では、3つの学習済みの深層学習モデルによって予測された3つの予測値の平均値を統計値として求めている。この場合、3つの学習済みの深層学習モデルを用いて予測した予測値を均等に反映して黄斑色素量を算出することができるので、より信頼度の高い黄斑色素量の算出が可能となる。
また、本実施形態では、3つの乱数シードから発生させた擬似乱数を用いて深層学習モデルを訓練している。このような構成によれば、限られた数の入力画像を用いて訓練する場合であってもCF数値列を予測するための3つの深層学習モデルを網羅的に生成できる。
また、本実施形態では、擬似乱数を、深層学習モデルのパラメータの初期化に用いたり、深層学習モデルに入力する入力画像の順番を変更するために用いている。こうすれば、限られた数の入力画像を用いて訓練する場合であってもCF数値列を予測するための複数の深層学習モデルを網羅的に生成できる。その結果、統計値を基に黄斑色素量を予測する際の精度を高めることができる。
ここで、本実施形態によって予測されたMPOD数値列の精度の実験結果を示す。
図8には、本実施形態によって予測されたMPOD数値列に含まれる各数値{ローカルMPOD0.23、ローカルMPOD0.51、ローカルMPOD0.98、ローカルMPOD1.99、MPODボリューム}毎の平均誤差を、CF数値列を用いた補正を行わなかった場合、従来の重回帰による手法(「A. Obana et al., “Grade of Cataract and Its Influence on Measurementof Macular Pigment Optical Density Using Autofluorescence Imaging”, InvestigativeOphthalmology & Visual Science, June 2018, Vol.59, 3011-3019」に記載)によって補正を行った場合と比較して示している。このように、重回帰による手法に比較して、本実施形態では、全体的に誤差が改善されていることが分かる。特に、MPODボリュームの誤差が14.81%から7.81%に大幅に改善されている。
図9には、第2眼底画像のみを1chの入力画像として用い、アンサンブル処理を行わなかった場合(例1)、差分画像のみを1chの入力画像として用い、アンサンブル処理を行わなかった場合(例2)、第1眼底画像のみを1chの入力画像として用い、アンサンブル処理を行わなかった場合(例3)、3chの入力画像を用いてアンサンブル処理を行わなかった場合(例4)、第2眼底画像のみを1chの入力画像として用い、アンサンブル処理を行った場合(例5)、差分画像のみを1chの入力画像として用い、アンサンブル処理を行った場合(例6)、第1眼底画像のみを1chの入力画像として用い、アンサンブル処理を行った場合(例7)、3chの入力画像を用いてアンサンブル処理を行った場合(例8)について、MPOD数値列に含まれる各数値の平均誤差を示している。この実験結果から、アンサンブル処理がありの場合も無しの場合も、3ch入力において誤差が減少している。また、3ch入力でアンサンブル処理がありの場合に最も誤差が小さいことが分かった。このような結果から、3ch入力及びアンサンブル処理のどちらも、予測値の誤差低減に重要であることが示された。
以上、本発明の種々の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、各請求項に記載した要旨を変更しない範囲で変形し、又は他のものに適用したものであってもよい。
上記実施形態の眼底画像処理装置1の画像入力部3は、予測対象の眼底画像セット、及び術前の眼底画像セットを対象に、差分画像を取得し、差分画像を訓練フェーズ及び予測フェーズに用いていた。変形例としては、それらの眼底画像セットを対象に、第1眼底画像と第2眼底画像との間で各画素の輝度値を加算した加算画像を取得し、加算画像を訓練フェーズ及び予測フェーズにおいて用いてもよい。
また、上記実施形態の眼底画像処理装置1の係数導出部11は、3つのCF数値列の統計値として平均値を算出していたが、中央値を算出してもよい。この場合にも、精度の高い黄斑色素量の予測が可能となる。
また、上記実施形態の眼底画像処理装置1で用いるCF数値列の予測のための深層学習モデルの構成は、図3に示した構成には限定されない。例えば、図10に示すような学習済みモデルLMの構成であってもよい。
図10に示す学習済みモデルLMは、前段構造L1の後段に接続される後段構造L4として、畳み込み層と大域的平均プーリング層(global average pooling)とがこの順で接続された構成を有する。このような構造の学習済みモデルLMのパラメータのうち、後段構造L4の畳み込み層以外においては、既に訓練済みのパラメータ(重みフィルタのパラメータ等)が初期値として用いられる。
図10に示すような学習済みモデルLMの構成を採用する変形例においては、モデル生成部7は、擬似乱数系列を基に、後段構造L4の畳み込み層のパラメータの初期値をランダムに変更する。具体的には、図11に示すように、モデル生成部7は、擬似乱数系列に従って、後段構造L4の畳み込み層において適用するフィルタの重み係数wの初期値を設定する。このような変形例によっても、CF数値列を予測するための複数の深層学習モデルを網羅的に生成できる。
1…眼底画像処理装置、P1…眼底画像処理プログラム、3…画像入力部(第1取得部、第2取得部)、7…モデル生成部、9…係数予測部、11…係数導出部、13…色素量算出部、20…コンピュータ、101…CPU(プロセッサ)、LM…学習済みモデル。

Claims (14)

  1. 被験者の眼底に第1の波長の励起光を照射することで発生した眼底の蛍光像の第1の画像を取得するステップと、
    被験者の眼底に前記第1の波長と異なる第2の波長の励起光を照射することで発生した眼底の蛍光像の第2の画像を取得するステップと、
    予め設定された複数の異なる乱数シードを用いて、前記第1の画像及び前記第2の画像を少なくとも含む入力画像から前記被験者の黄斑色素量を算出するための補正係数を予測するための複数の学習済みの深層学習モデルを、訓練により生成するステップと、
    前記第1の画像及び前記第2の画像を少なくとも含む入力画像を、前記複数の学習済みの深層学習モデルに入力することにより、複数の補正係数を予測するステップと、
    前記複数の補正係数を対象に統計値を算出し、前記統計値を前記被験者の前記補正係数として導出するステップと、
    前記第1の画像あるいは前記第2の画像の少なくとも一方と、前記被験者の前記補正係数とを基に、前記被験者の黄斑色素量を算出するステップと、
    を備える眼底画像処理方法。
  2. 前記第1の波長及び前記第2の波長の一方は、青色領域内の波長であり、前記第1の波長及び前記第2の波長の他方は、緑色領域内の波長である、
    請求項1記載の眼底画像処理方法。
  3. 前記入力画像は、前記第1の画像と前記第2の画像とを基にした差分画像あるいは加算画像をさらに含む、
    請求項1又は2に記載の眼底画像処理方法。
  4. 前記統計値は、前記複数の補正係数の平均値あるいは中央値である、
    請求項1~3のいずれか1項に記載の眼底画像処理方法。
  5. 前記生成するステップでは、前記複数の異なる乱数シードのそれぞれを基に発生させた擬似乱数を基に深層学習モデルにおける2層の全結合層のノードの間の結合重みの初期値を設定することにより、前記複数の学習済みの深層学習モデルを訓練により生成する、
    請求項1~4のいずれか1項に記載の眼底画像処理方法。
  6. 前記生成するステップでは、前記擬似乱数を基に、深層学習モデルに入力する入力画像の順番を変更する、
    請求項に記載の眼底画像処理方法。
  7. 被験者の眼底に第1の波長の励起光を照射することで発生した眼底の蛍光像の第1の画像を取得する第1取得部と、
    被験者の眼底に前記第1の波長と異なる第2の波長の励起光を照射することで発生した眼底の蛍光像の第2の画像を取得する第2取得部と、
    予め設定された複数の異なる乱数シードを用いて、前記第1の画像及び前記第2の画像を少なくとも含む入力画像から前記被験者の黄斑色素量を算出するための補正係数を予測するための複数の学習済みの深層学習モデルを、訓練により生成する生成部と、
    前記第1の画像及び前記第2の画像を少なくとも含む入力画像を、前記複数の学習済みの深層学習モデルに入力することにより、複数の補正係数を予測する予測部と、
    前記複数の補正係数を対象に統計値を算出し、前記統計値を前記被験者の前記補正係数として導出する導出部と、
    前記第1の画像あるいは前記第2の画像の少なくとも一方と、前記被験者の前記補正係数とを基に、前記被験者の黄斑色素量を算出する算出部と、
    を備える眼底画像処理装置。
  8. 前記第1の波長及び前記第2の波長の一方は、青色領域内の波長であり、前記第1の波長及び前記第2の波長の他方は、緑色領域内の波長である、
    請求項記載の眼底画像処理装置。
  9. 前記入力画像は、前記第1の画像と前記第2の画像とを基にした差分画像あるいは加算画像をさらに含む、
    請求項7又は8に記載の眼底画像処理装置。
  10. 前記統計値は、前記複数の補正係数の平均値あるいは中央値である、
    請求項7~9のいずれか1項に記載の眼底画像処理装置。
  11. 前記生成部は、前記複数の異なる乱数シードのそれぞれを基に発生させた擬似乱数を基に深層学習モデルにおける2層の全結合層のノードの間の結合重みの初期値を設定することにより、前記複数の学習済みの深層学習モデルを訓練により生成する、
    請求項7~10のいずれか1項に記載の眼底画像処理装置。
  12. 前記生成部は、前記擬似乱数を基に、深層学習モデルに入力する入力画像の順番を変更する、
    請求項11に記載の眼底画像処理装置。
  13. プロセッサを、
    被験者の眼底に第1の波長の励起光を照射することで発生した眼底の蛍光像の第1の画像を取得する第1取得部、
    被験者の眼底に前記第1の波長と異なる第2の波長の励起光を照射することで発生した眼底の蛍光像の第2の画像を取得する第2取得部、
    予め設定された複数の異なる乱数シードを用いて、前記第1の画像及び前記第2の画像を少なくとも含む入力画像から前記被験者の黄斑色素量を算出するための補正係数を予測するための複数の学習済みの深層学習モデルを、訓練により生成する生成部、
    前記第1の画像及び前記第2の画像を少なくとも含む入力画像を、前記複数の学習済みの深層学習モデルに入力することにより、複数の補正係数を予測する予測部、
    前記複数の補正係数を対象に統計値を算出し、前記統計値を前記被験者の前記補正係数として導出する導出部、及び
    前記第1の画像あるいは前記第2の画像の少なくとも一方と、前記被験者の前記補正係数とを基に、前記被験者の黄斑色素量を算出する算出部、
    として機能させる眼底画像処理プログラム。
  14. 請求項13に記載の眼底画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体。
JP2020034202A 2020-02-28 2020-02-28 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体 Active JP7406403B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020034202A JP7406403B2 (ja) 2020-02-28 2020-02-28 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体
PCT/JP2021/000077 WO2021171788A1 (ja) 2020-02-28 2021-01-05 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体
EP21759882.0A EP4092622A4 (en) 2020-02-28 2021-01-05 EYE BACKGROUND IMAGE PROCESSING METHOD, EYE BACKGROUND IMAGE PROCESSING APPARATUS, EYE BACKGROUND IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM HAVING THE PROGRAM RECORDED THEREIN
CN202180016865.5A CN115175603A (zh) 2020-02-28 2021-01-05 眼底图像处理方法、眼底图像处理装置、眼底图像处理程序及存储该程序的存储介质
US17/800,062 US20230078077A1 (en) 2020-02-28 2021-01-05 Ocular fundus image processing method, ocular fundus image processing device, ocular fundus image processing program, and recording medium having said program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020034202A JP7406403B2 (ja) 2020-02-28 2020-02-28 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体

Publications (2)

Publication Number Publication Date
JP2021133175A JP2021133175A (ja) 2021-09-13
JP7406403B2 true JP7406403B2 (ja) 2023-12-27

Family

ID=77491397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020034202A Active JP7406403B2 (ja) 2020-02-28 2020-02-28 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体

Country Status (5)

Country Link
US (1) US20230078077A1 (ja)
EP (1) EP4092622A4 (ja)
JP (1) JP7406403B2 (ja)
CN (1) CN115175603A (ja)
WO (1) WO2021171788A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008110202A (ja) 2006-10-04 2008-05-15 Yukinori Takibatake 赤外光眼底撮影方法および装置
JP2010525866A (ja) 2007-05-01 2010-07-29 スパイド,リチャード 眼底カメラを使用する自己蛍光写真撮影法
JP2015523526A (ja) 2012-07-31 2015-08-13 サンシン ブレーキ カンパニー リミティドSangsin Brakeco., Ltd. ガイドピンを有する車両用ディスクブレーキ
JP2018000619A (ja) 2016-07-04 2018-01-11 株式会社ニデック 走査型レーザー検眼鏡

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013255050B2 (en) * 2012-05-01 2016-07-28 Translatum Medicus Inc. Methods for treating and diagnosing blinding eye diseases
US9968250B2 (en) * 2014-02-24 2018-05-15 Image Technologies Corporation Autofluorescence imaging of macular pigment: image quality criteria and corrections

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008110202A (ja) 2006-10-04 2008-05-15 Yukinori Takibatake 赤外光眼底撮影方法および装置
JP2010525866A (ja) 2007-05-01 2010-07-29 スパイド,リチャード 眼底カメラを使用する自己蛍光写真撮影法
JP2015523526A (ja) 2012-07-31 2015-08-13 サンシン ブレーキ カンパニー リミティドSangsin Brakeco., Ltd. ガイドピンを有する車両用ディスクブレーキ
JP2018000619A (ja) 2016-07-04 2018-01-11 株式会社ニデック 走査型レーザー検眼鏡

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Obana Akira,Correction for the Influence of Cataract onMacular Pigment Measurement by Autofluorescence Technique Using Deep Learning,Trans Vis Sci Tech.,2021年02月12日,Vol.10,No.2,pp.1-11
Obana Akira,Grade of Cataract and Its Influence on Measurement of Macular Pigment Optical Density Using Autofluorescence Imaging,Investigative Ophthalmology & Visual Science,2018年,Vol.59, No.7,pp.3011-3019
Sasamoto Yuzuru,Effect of Cataract in Evaluation of Macular Pigment Optical Density by Autofluorescence Spectrometry,Investigative Ophthalmology & Visual Science,2011年,Vol.52, No.2,pp.927-932
You Qi-Sheng,Reproducibility of Macular Pigment Optical Density Measurement by Two-wave Length Auto-fluorescence in a Clinical Setting,Retina,2016年,Vol.36, No.7,pp.1381-1387

Also Published As

Publication number Publication date
JP2021133175A (ja) 2021-09-13
WO2021171788A1 (ja) 2021-09-02
CN115175603A (zh) 2022-10-11
EP4092622A1 (en) 2022-11-23
EP4092622A4 (en) 2024-02-14
US20230078077A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
US10719932B2 (en) Identifying suspicious areas in ophthalmic data
KR102297136B1 (ko) 최적화된 진단적 성과를 위한 경계 조건에서 혈류를 모형화하기 위한 방법과 시스템
Zhu et al. Predicting visual function from the measurements of retinal nerve fiber layer structure
JP2022520708A (ja) 広角自発蛍光画像における加齢黄斑変性症患者の地図状委縮パターンのセグメントテーションおよび分類
US20120287401A1 (en) Integration and fusion of data from diagnostic measurements for glaucoma detection and progression analysis
WO2021038202A1 (en) Computerised tomography image processing
JP2022546969A (ja) 構造由来の視野の事前情報を作成するための機械学習方法
EP4128138B1 (en) Correction of flow projection artifacts in octa volumes using neural networks
US20230140881A1 (en) Oct en face pathology segmentation using channel-coded slabs
US20220284577A1 (en) Fundus image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP7406403B2 (ja) 眼底画像処理方法、眼底画像処理装置、眼底画像処理プログラム、及びそのプログラムを記録する記録媒体
Ma et al. Predictive models of aging of the human eye based on ocular anterior segment morphology
WO2022234828A1 (ja) 情報処理装置およびプログラム
TW202105410A (zh) 視網膜病變評估模型建立方法及系統
Gelman Evaluation of transfer learning for classification of:(1) diabetic retinopathy by digital fundus photography and (2) diabetic macular edema, choroidal neovascularization and drusen by optical coherence tomography
US20240350001A1 (en) Systems and Methods for Predicting Corneal Improvement From Scheimpflug Imaging Using Machine Learning
EP3684243A1 (en) Method for obtaining a visual field map of an observer
US20190080043A1 (en) Method and device for modelling human or animal tissue
Haq et al. Automatic Detection of Retinal Diseases in Optical Coherence Tomography Images using Convolutional Neural Network
EP4392983A1 (en) Systems and methods for predicting corneal improvement from scheimpflug imaging using machine learning
US20230087264A1 (en) Method for obtaining a visual field map of an observer
US20230142121A1 (en) Fusion of sensor data for persistent disease monitoring
WO2024095434A1 (ja) 画像処理プログラム、画像処理方法、検出プログラム、検出方法、および情報処理装置
Ghidotti et al. Bi-Level 3D Reconstruction of Malignant Pleural Mesothelioma Volume From CT Images
JP2023552394A (ja) Oct/octaデータの位置合わせ及び網膜ランドマークの検出のための複数のサブボリューム、厚さ、及び曲率の使用

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231215

R150 Certificate of patent or registration of utility model

Ref document number: 7406403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150