JPWO2019142910A1 - 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム - Google Patents

診断支援装置、学習装置、診断支援方法、学習方法及びプログラム Download PDF

Info

Publication number
JPWO2019142910A1
JPWO2019142910A1 JP2019566525A JP2019566525A JPWO2019142910A1 JP WO2019142910 A1 JPWO2019142910 A1 JP WO2019142910A1 JP 2019566525 A JP2019566525 A JP 2019566525A JP 2019566525 A JP2019566525 A JP 2019566525A JP WO2019142910 A1 JPWO2019142910 A1 JP WO2019142910A1
Authority
JP
Japan
Prior art keywords
fundus
image
information
region
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019566525A
Other languages
English (en)
Other versions
JP7143862B2 (ja
Inventor
俊英 栗原
俊英 栗原
侑作 堅田
侑作 堅田
一男 坪田
一男 坪田
奏斗 正好
奏斗 正好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Publication of JPWO2019142910A1 publication Critical patent/JPWO2019142910A1/ja
Priority to JP2022147056A priority Critical patent/JP2022180466A/ja
Application granted granted Critical
Publication of JP7143862B2 publication Critical patent/JP7143862B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Hematology (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

診断支援装置は、眼底の画像である眼底画像と、眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定する特定部と、患者の眼底画像と、学習モデルとを用いて特定部が特定した患者の眼底画像における血液循環異常領域を示す情報を出力する出力部とを有する。

Description

本発明は、診断支援装置、学習装置、診断支援方法、学習方法及びプログラムに関する。
本願は、2018年1月19日に、日本に出願された特願2018−7585号に基づき優先権を主張し、その内容をここに援用する。
糖尿病網膜症は本邦の失明原因の第2位を占める重要な疾患であるが、自覚症状が出現するのは、病期がかなり進行してからとなるため、検診などでの早期発見・早期治療が重要である。この課題に対し、糖尿病網膜症の初期変化である毛細血管瘤を強調させる眼底画像解析システム(特許文献1参照)や、眼底画像から糖尿病網膜症のスクリーニングを行う画像解析システム(特許文献2参照)が提案されている。
特開2010−178802号公報 US2014/0314288A1
特許文献1及び特許文献2で提案されている技術は、上記のように、疾患の発見やスクリーニングを目的としたものである。一方で、糖尿病網膜症の疾患スクリーニングから一歩進んで、糖尿病網膜症患者の診療・治療の段階となった場合、糖尿病網膜症は高血糖に伴う血管障害が生じて虚血状態に陥って病期が進んでいくことが明らかになっており、網膜循環動態を把握することが最も肝要である。網膜循環動態を把握するためには、蛍光眼底造影検査と呼ばれる網膜の造影検査が必須となる。しかし、網膜の造影検査は、その危険性、侵襲性、大病院に限られる地理的な制約などから、患者・医療者双方にとって負担の大きい検査であり、視力良好例や身体機能低下患者の撮影、繰り返しの撮影などがためらわれることがある。このため、発症や病勢の把握が遅れて、治療が遅滞する症例が多いという課題がある。同様のことが、糖尿病網膜症を代表とする眼虚血性疾患全般にあてはまる。なお、非侵襲的に網膜循環異常を検出する機器としてOCTアンギオグラフィーがあるが、これは造影検査と違って血流動態までは把握できず、また画角が狭いため、黄斑部疾患など局所的な疾患には有効であるが、網膜の全体像を把握することができない。このため、糖尿病網膜症をはじめとした眼虚血性疾患の網膜循環動態の把握には不向きである。
本発明は、このような状況に鑑みてなされたものであり、蛍光眼底造影検査を実施することなく、眼底画像から、循環異常所見を早期かつ容易に特定すること目的とする。
(1)本発明の一態様は、
眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定する特定部と、
患者の眼底画像と、前記学習モデルとを用いて前記特定部が特定した患者の前記眼底画像における血液循環異常領域を示す情報を出力する出力部と
を有する診断支援装置である。
(2)本発明の一態様は、上記(1)に記載の診断支援装置において、
前記血液循環異常領域は、前記蛍光眼底造影画像と、前記蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて生成される診断支援装置である。
(3)本発明の一態様は、上記(1)又は上記(2)に記載の診断支援装置において、
前記特定部は、前記眼底画像における網膜無灌流領域と新生血管に該当する領域とのいずれか一方又は両方を特定する診断支援装置である。
(4)本発明の一態様は、上記(1)から上記(3)のいずれか一項に記載の診断支援装置において、
前記出力部は、前記眼底画像に前記特定部が特定した血液循環異常領域を重ねた画像を出力する、診断支援装置である。
(5)本発明の一態様は、
眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する学習部
を有する学習装置である。
(6)本発明の一態様は、上記(5)に記載の学習装置において、
前記血液循環異常領域は、前記蛍光眼底造影画像と、前記蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて生成される、学習装置である。
(7)本発明の一態様は、
眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定し、
患者の眼底画像と、前記学習モデルとを用いて特定した患者の前記眼底画像における血液循環異常領域を示す情報を出力する、診断支援装置が実行する診断支援方法である。
(8)本発明の一態様は、
眼底の画像である眼底画像を示す情報と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域を示す情報とを取得し、
取得した前記眼底画像と、前記眼底の前記蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する、学習装置が実行する学習方法である。
(9)本発明の一態様は、
診断支援装置のコンピュータに、
眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定させ、
患者の眼底画像と、前記学習モデルとを用いて特定させた患者の前記眼底画像における血液循環異常領域を示す情報を出力させる、プログラムである。
(10)本発明の一態様は、
学習装置のコンピュータに、
眼底の画像である眼底画像を示す情報と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域を示す情報とを取得させ、
取得させた前記眼底画像と、前記眼底の前記蛍光眼底造影画像に基づいて特定させた血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成させる、プログラムである。
なお、本発明において、「眼底画像」とは、眼科系の疾患に関する診断を行うために、眼底カメラによって患者の眼底を撮像した画像をいい、「蛍光眼底造影画像」とは、患者の腕の静脈から蛍光色素を注射しながら、蛍光色素に対応した励起光とフィルターを用いて、眼底写真を連続撮影し、眼底の循環状態の造影像を撮影した画像をいう。
本発明によれば、蛍光眼底造影検査を実施することなく、眼底画像から、循環異常所見を簡便に予測することができる。
本発明の情報処理装置の一実施形態であるサーバを含む、情報処理システムの構成図である。 図1の情報処理システムのうち、サーバのハードウェア構成を示すブロック図である。 図2のサーバの機能的構成のうち、NPA・NV存在確率マップ生成処理、付随所見存在確率マップ生成処理、推定NPA・NV特定処理、及び推定NPA・NV表示処理の各種処理を実現するための機能的構成の一例を示す機能ブロック図である。 図3のサーバが実行するNPA・NV存在確率マップ生成処理、付随所見存在確率マップ生成処理、推定NPA・NV特定処理、及び推定NPA・NV表示処理等の各種処理の流れを説明するフローチャートである。 図3のサーバが実行する処理に用いられる各種情報の流れを示す図である。 図3のサーバが実行する処理において取得される眼底画像情報の一例を示す図である。 図3のサーバが実行する処理において取得される蛍光眼底造影画像情報の一例を示す図である。 図3のサーバが実行するNPA・NV存在確率マップ生成処理で出力されるNPA・NV存在確率マップの一例を示す図である。 図3のサーバが実行する推定NPA・NV特定処理において特定される推定NPA及び推定NVの一例を示す図である。 本発明の一実施形態の変形例の情報処理システムの構成図である。 本発明の一実施形態の変形例の学習装置の一例を示すブロック図である。 眼底画像の一例を示す図である。 蛍光眼底造影画像の一例を示す図である。 血液循環異常領域の一例を示す図である。 ニューラルネットワークの構造の一例を示す図である。 本発明の一実施形態の変形例の診断支援装置の一例を示すブロック図である。 本発明の一実施形態の変形例の学習装置の動作の一例を示すフローチャートである。 本発明の一実施形態の変形例の診断支援装置の動作の一例を示すフローチャートである。
以下、本発明の実施形態について図面を用いて説明する。
図1は、本発明の情報処理装置の一実施形態であるサーバ1を含む、情報処理システムの構成図である。
図1に示す情報処理システムは、サーバ1と、眼科医端末2と、検査機器3とを含むように構成されている。
サーバ1と、眼科医端末2と、検査機器3とは、インターネット(Internet)等のネットワークNを介して相互に接続されている。
サーバ1は、図1に示す情報処理システムを管理するサーバであり、例えば、NPA・NV存在確率マップ生成処理、付随所見存在確率マップ生成処理、推定NPA・NV特定処理等の各種処理を実行する。なお、サーバ1が実行する具体的な処理の内容については、図3を参照して後述する。
「NPA・NV存在確率マップ生成処理」とは、サーバ1が実行する処理のうち、NPA・NV教師情報を生成してからNPA・NV存在確率マップを生成するまでの一連の処理をいう。
「NPA・NV教師情報」とは、患者の眼底画像情報における網膜無灌流領域(NPA/non−perfusion area)(以下「網膜無灌流領域」または「NPA」と呼ぶ)の存在確率(以下「NPA存在確率」と呼ぶ)と、新生血管(NV/neovascularization)の存在確率(以下「NV存在確率」と呼ぶ)とを演算する際の教師情報をいう。具体的には、「NPA・NV教師情報」は、蛍光眼底造影画像情報と、この情報に付されたNPA・NVアノテーション情報とに基づいて生成される。
「網膜無灌流領域」とは、眼虚血性疾患において網膜血管閉塞の結果生じる網膜の循環不良領域をいう。
「NPA・NV存在確率マップ」とは、眼底画像情報にNPA存在確率と、NV存在確率とを識別表示させた画像情報である。
「眼底画像情報」とは、眼底画像に基づく画像情報をいう。
「蛍光眼底造影画像情報」とは、蛍光眼底造影画像に基づく情報をいう。
「NPA・NVアノテーション情報」とは、蛍光眼底造影画像情報に付された、網膜無灌流領域(NPA)と新生血管(NV)とのうち少なくとも一方に関する眼科医Dの診断注記をいう。
「新生血管」とは、網膜無灌流領域における網膜の循環不良や虚血がさらに進行したものである。新生血管から、出血や、増殖膜形成を介した網膜剥離が生じると、最終的には失明に至るため、網膜無灌流領域や新生血管などの網膜の循環不良領域を特定することは、診療上非常に重要である。
なお、NPA・NV存在確率マップ生成処理の具体的な処理の流れについては、図4のフローチャートを参照して後述する。
「付随所見存在確率マップ生成処理」とは、サーバ1が実行する処理のうち、付随所見教師情報を生成してから付随所見存在確率マップを生成するまでの一連の処理をいう。
「付随所見教師情報」とは、患者の眼底画像情報における付随所見の存在確率を演算する際の教師情報をいう。具体的には、「付随所見教師情報」は、蛍光眼底造影画像情報及び眼底画像情報と、これらの画像情報に付された付随所見アノテーション情報とに基づいて生成された教師情報をいう。
「付随所見アノテーション情報」とは、蛍光眼底造影画像情報及び眼底画像情報に対して眼科医Dが「正常ではない」という判断を付随的に行った診断注記のうち、網膜無灌流領域(NPA)または新生血管(NV)に関する診断注記以外のものをいう。例えば、毛細血管瘤、眼底出血、硬性白斑、軟性白斑、静脈異常、網膜内細小血管異常、硝子体出血、増殖膜、網膜剥離といった情報は、いずれも「付随所見アノテーション情報」の一例である。
「付随所見存在確率マップ」とは、眼底画像情報に付随所見の存在確率を識別表示させた画像情報(図示せず)である。
なお、付随所見存在確率マップ生成処理の具体的な処理の流れについては、図4のフローチャートを参照して後述する。
「推定NPA・NV特定処理」とは、サーバ1が実行する処理のうち、NPA存在確率に基づいて、眼底画像情報のうち網膜無灌流領域(NPA)に該当することが推定される領域を推定NPAとして特定し、NV存在確率に基づいて、眼底画像情報のうち新生血管(NV)に該当することが推定される領域を推定NVとして特定するまでの一連の処理をいう。
なお、推定NPA・NV特定処理の具体的な処理の流れについては、図4のフローチャートを参照して後述する。
眼科医端末2は、眼科医Dが操作する情報処理装置であって、例えばパーソナルコンピュータ等で構成される。眼科医端末2では、サーバ1に対するNPA・NVアノテーション情報及び付随所見アノテーション情報の送信、サーバ1により特定された推定NPA・NVに関する情報の取得等が行われる。眼科医端末2が取得した各種情報は、眼科医端末2から出力されて、眼科医Dによる診察に用いられる。
検査機器3は、患者の眼検査において用いられる各種機器で構成される。検査機器3は、眼底検査における撮像により得られた眼底画像情報と、蛍光眼底造影検査における撮像により得られた蛍光眼底造影画像情報との夫々をサーバ1に送信する。
図2は、図1の情報処理システムのうち、サーバ1のハードウェア構成を示すブロック図である。
サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。
出力部16は各種液晶ディスプレイ等で構成され、各種情報を出力する。
入力部17は、各種ハードウェア鉛等で構成され、各種情報を入力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置との間で行う通信を制御する。
ドライブ20は、必要に応じて設けられる。ドライブ20には磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。またリムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
次に、このようなハードウェア構成を持つサーバ1の機能的構成について、図3を参照して説明する。
図3は、図1の情報処理システムにおける図2のサーバ1の機能的構成のうち、NPA・NV存在確率マップ生成処理、付随所見存在確率マップ生成処理、推定NPA・NV特定処理、及び推定NPA・NV表示処理を実現するための機能的構成の一例を示す機能ブロック図である。
図3に示すように、サーバ1のCPU11(図2)においては、NPA・NV存在確率マップ生成処理が実行される場合には、画像取得部101と、アノテーション取得部102と、教師情報生成部103と、演算部104とが機能する。
付随所見存在確率マップ生成処理が実行される場合には、画像取得部101と、アノテーション取得部102と、教師情報生成部103と、演算部104とが機能する。
推定NPA・NV特定処理が実行される場合には、推定NPA・NV特定部106が機能する。
推定NPA・NV表示処理が実行される場合には、推定NPA・NV表示制御部107が機能する。
記憶部18(図2)の一領域には、画像DB401と、アノテーションDB402と、教師DB403とが設けられている。なお、記憶部18は、サーバ1ではなく、眼科医端末2に配置されてもよい。
画像取得部101は、患者の蛍光眼底造影画像情報と、患者の眼底画像情報とを取得する。画像取得部101により取得された蛍光眼底造影画像情報及び眼底画像情報は、画像DB401に夫々記憶されて管理される。具体的には、患者の蛍光眼底造影検査において、検査機器3により患者の蛍光眼底造影画像が撮像されると、蛍光眼底造影画像に基づく蛍光眼底造影画像情報がサーバ1に送信される。また、患者の眼底検査において、検査機器3により患者の眼底画像が撮像されると、眼底画像に基づく眼底画像情報がサーバ1に送信される。サーバ1の画像取得部101は、検査機器3からサーバ1に送信されて来た蛍光眼底造影画像情報及び眼底画像情報を取得し、これらの画像情報を画像DB401に記憶させる。
これにより、サーバ1は、患者の蛍光眼底造影画像情報及び眼底画像情報を漏れなく的確に管理することができる。
アノテーション取得部102は、患者の蛍光眼底造影画像情報に付された、網膜無灌流領域(NPA)と、新生血管(NV)とのうち少なくとも一方に関する眼科医Dの診断注記を、NPA・NVアノテーション情報として取得する。具体的には、蛍光眼底造影検査において、蛍光眼底造影画像情報に、網膜無灌流領域(NPA)、新生血管(NV)に関する眼科医Dの診断注記が付されると、眼科医端末2は、眼科医Dの操作に基づいて、当該診断注記をNPA・NVアノテーション情報としてサーバ1に送信する。サーバ1のアノテーション取得部102は、眼科医端末2から送信されて来たNPA・NVアノテーション情報を取得し、この情報をアノテーションDB402に記憶させる。なお、蛍光眼底造影画像情報と、この画像情報に付されたNPA・NVアノテーション情報とは、互いに紐付けられて管理される。
これにより、サーバ1は、蛍光眼底造影画像情報に付された網膜無灌流領域(NPA)と、新生血管(NV)とのうち少なくとも一方に関する眼科医Dの診断注記を、NPA・NVアノテーション情報として漏れなく管理することができる。
また、アノテーション取得部102は、蛍光眼底造影画像及び眼底画像に付された、付随所見に関する眼科医Dの診断注記を、付随所見アノテーション情報として取得する。具体的には、蛍光眼底造影画像情報と、眼底画像情報とについて、付随所見に関する眼科医Dの診断注記が付される場合、眼科医端末2は、眼科医Dの操作に基づいて、当該診断注記を付随所見アノテーション情報としてサーバ1に送信する。サーバ1のアノテーション取得部102は、眼科医端末2から送信されて来た付随所見アノテーション情報を取得し、この情報をアノテーションDB402に記憶させる。なお、蛍光眼底造影画像情報及び眼底画像情報と、これらの画像情報に付された付随所見アノテーション情報とは、互いに紐付けられて管理される。
これにより、サーバ1は、蛍光眼底造影画像情報及び眼底画像情報に付された付随所見に関する眼科医Dの診断注記を、付随所見アノテーション情報として漏れなく管理することができる。
教師情報生成部103は、蛍光眼底造影画像情報と、この情報に対応するNPA・NVアノテーション情報とに基づいて、NPA存在確率とNV存在確率とを演算するための教師情報となるNPA・NV教師情報を生成する。
即ち、画像DB401には、複数の患者から得られた蛍光眼底造影画像情報が蓄積されており、アノテーションDB402には、NPA・NVアノテーション情報が蓄積されている。教師情報生成部103は、これらデータベースに蓄積された情報に基づいて、眼底画像情報におけるNPA・NVの存在確率を演算する際の教師情報となるNPA・NV教師情報を生成する。
これにより、サーバ1は、患者の眼底画像情報におけるNPA存在確率とNV存在確率とを演算するための教師情報を生成して蓄積することができる。
また、教師情報生成部103は、蛍光眼底造影画像情報及び眼底画像情報と、これら画像情報に対応する付随所見アノテーション情報とに基づいて、付随所見教師情報を生成する。
即ち、画像DB401には、複数の患者から得られた眼底画像情報と蛍光眼底造影画像情報とが蓄積されており、アノテーションDB402には、付随所見アノテーション情報が蓄積されている。教師情報生成部103は、これらデータベースに蓄積された情報に基づいて、眼底画像情報における付随所見の存在確率を演算する際の教師情報となる付随所見教師情報を生成する。
これにより、サーバ1は、患者の眼底画像情報における付随所見の存在確率を演算するための教師情報を蓄積することができる。
演算部104は、少なくともNPA・NV教師情報に基づいて、NPA存在確率とNV存在確率とを演算する。また、演算部104は、後述する付随所見存在確率マップが生成されている場合には、付随所見存在確率マップと、NPA・NV教師情報とに基づいて、NPA存在確率とNV存在確率とを演算する。なお、NPA存在確率とNV存在確率とを演算する具体的な手法は特に限定されない。例えば、NPA・NV教師情報から、NPA・NVを有する眼底画像に共通する特徴を抽出し、患者の眼底画像情報が、当該特徴を有するのかどうかについて、当該特徴との合致度合を正規化させることでNPA存在確率とNV存在確率とを演算してもよい。ディープラーニング(深層学習)の技術を用いてNPA存在確率とNV存在確率とを演算してもよい。
これにより、眼底画像情報のうち網膜無灌流領域(NPA)に該当することが推定される領域と、新生血管(NV)に該当することが推定される領域とを特定するための基準を設定することが可能となる。
また、演算部104は、付随所見教師情報に基づいて、眼底画像情報における付随所見の存在確率を演算する。付随所見の存在確率を演算する具体的な手法は特に限定されない。例えば、付随所見教師情報から、付随所見を有する眼底画像に共通する特徴を抽出し、患者の眼底画像情報が、この特徴を有するのかどうかについて、特徴に対する合致度合を正規化させることによって付随所見の存在確率を演算してもよい。ディープラーニング(深層学習)の技術を用いて付随所見の存在確率を演算してもよい。
これにより、眼底画像情報のうち網膜無灌流領域(NPA)該当することが推定される領域と、新生血管(NV)に該当することが推定される領域とを特定するための基準を設定することが可能となる。
マップ生成部105は、眼底画像情報にNPA存在確率とNV存在確率とを識別表示させた画像情報としてのNPA・NV存在確率マップを生成する。具体的には、図8に例示するNPA・NV存在確率マップEのような画像情報を生成する。
これにより、眼底画像情報における網膜無灌流領域(NPA)、及び新生血管(NV)の存在を推定するための根拠となる情報を生成することができる。
なお、眼底画像情報にNPA存在確率とNV存在確率とを識別表示させる手法は特に限定されない。例えば、色の違いによってNPA存在確率とNV存在確率とを識別表示してもよいし、色の濃淡によってNPA存在確率とNV存在確率とを識別表示してもよい。
また、マップ生成部105は、眼底画像情報に付随所見存在確率を識別表示させた画像情報としての付随所見存在確率マップ(図示せず)を生成する。
これにより、眼底画像情報における網膜無灌流領域(NPA)、及び新生血管(NV)の存在を推定するための根拠となる情報を生成することができる。
なお、眼底画像情報に付随所見存在確率を識別表示させる手法は特に限定されない。例えば、色の違いによって付随所見存在確率を識別表示させてもよいし、色の濃淡によって付随所見存在確率を識別表示してもよい。
推定NPA・NV特定部106は、NPA存在確率とNV存在確率とに基づいて、眼底画像情報のうち網膜無灌流領域(NPA)に該当することが推定される領域を推定NPAとして特定し、新生血管(NV)に該当すると推定される領域を推定NVとして特定する。具体的には、患者の眼底画像情報のうち、NPA存在確率とNV存在確率とが所定の閾値を超えている領域を、網膜無灌流領域(NPA)に該当すると推定される領域(推定NPA)、または新生血管(NV)に該当すると推定される領域(推定NV)としてそれぞれ特定する。なお、閾値は、眼科医Dの判断で任意に変更することができる。
これにより、眼底画像に基づく画像情報のうち、網膜無灌流領域(NPA)の存在が推定される領域(推定NPA)と、新生血管(NV)の存在が推定される領域(推定NV)を早期かつ容易に特定することができる。
推定NPA・NV表示制御部107は、眼底画像情報に、推定NPA領域と、推定NV領域とを表示させる制御を実行する。
これにより、眼底画像に基づく画像情報に、網膜無灌流の存在が推定される領域(推定NPA)と、新生血管(NV)の存在が推定される領域(推定NV)を重畳して表示させることができる。
次に、図4を参照して、図3の機能的構成を有するサーバ1が実行する一連の処理の流れについて説明する。
図4は、図3のサーバ1が実行する一連の処理の流れを説明するフローチャートである。
図4に示すように、サーバ1では、次のような一連の処理が実行される。
ステップS1において、画像取得部101は、検査機器3から蛍光眼底造影画像情報が送信されて来たか否かを判定する。
蛍光眼底造影画像情報が送信されて来た場合には、ステップS1においてYESであると判定されて、処理はステップS2に進む。一方、蛍光眼底造影画像情報が送信されて来ていない場合には、ステップS1においてNOであると判定されて、処理はステップS1に戻される。即ち、蛍光眼底造影画像情報が送信されて来るまでの間、ステップS1の判定処理が繰り返される。その後、蛍光眼底造影画像情報が送信されて来ると、ステップS1においてYESであると判定されて、処理はステップS2に進む。
ステップS2において、画像取得部101は、送信されて来た蛍光眼底造影画像情報を取得する。
ステップS3において、アノテーション取得部102は、眼科医端末2からNPA・NVアノテーション情報が送信されて来たか否かを判定する。
NPA・NVアノテーション情報が送信されて来た場合には、ステップS3においてYESであると判定されて、処理はステップS4に進む。一方、NPA・NVアノテーション情報が送信されて来ていない場合には、ステップS3においてNOであると判定されて、処理はステップS3に戻される。即ち、NPA・NVアノテーション情報が送信されて来るまでの間、ステップS3の判定処理が繰り返される。その後、NPA・NVアノテーション情報が送信されて来ると、ステップS3においてYESであると判定されて、処理はステップS4に進む。
ステップS4において、アノテーション取得部102は、送信されて来たNPA・NVアノテーション情報を取得する。
ステップS5において、教師情報生成部103は、蛍光眼底造影画像情報と、当該蛍光眼底造影画像情報に対応するNPA・NVアノテーション情報とに基づいて、NPA・NV教師情報を生成する。
ステップS6において、画像取得部101は、検査機器3から眼底画像情報が送信されて来たか否かを判定する。
眼底画像情報が送信されて来た場合には、ステップS6においてYESであると判定されて、処理はステップS7に進む。一方、眼底画像情報が送信されて来ていない場合には、ステップS6においてNOであると判定されて、処理はステップS6に戻される。即ち、眼底画像情報が送信されて来るまでの間、ステップS6の判定処理が繰り返される。その後、眼底画像情報が送信されて来ると、ステップS6においてYESであると判定されて、処理はステップS7に進む。
ステップS7において、画像取得部101は、送信されて来た眼底画像情報を取得する。
ステップS8において、アノテーション取得部102は、眼科医端末2から付随所見アノテーション情報が送信されて来たか否かを判定する。
付随所見アノテーション情報が送信されて来た場合には、ステップS8においてYESであると判定されて、処理はステップS9に進む。一方、付随所見アノテーション情報が送信されて来ていない場合には、ステップS8においてNOであると判定されて、処理はステップS9乃至S11をスキップしてステップS12に進む。
ステップS9において、アノテーション取得部102は、付随所見アノテーション情報を取得する。
ステップS10において、教師情報生成部103は、蛍光眼底造影画像情報と、当該蛍光眼底造影画像情報に対応するNPA・NVアノテーション情報とに基づいて、付随所見教師情報を生成する。
ステップS11において、演算部104は、付随所見教師情報に基づいて、眼底画像情報における付随所見の存在確率を演算する。
ステップS12において、マップ生成部105は、眼底画像情報に付随所見存在確率を識別表示させた画像情報としての付随所見存在確率マップを生成する。
ステップS13において、演算部104は、少なくともNPA・NV教師情報に基づいて、NPA存在確率と、NV存在確率とを演算する。また、付随所見存在確率マップが生成されている場合には、演算部104は、NPA・NV教師情報と、付随所見存在確率マップとに基づいて、NPA存在確率と、NV存在確率とを演算する。
ステップS14において、マップ生成部105は、眼底画像情報にNPA存在確率と、NV存在確率とを識別表示させた画像情報としてのNPA・NV存在確率マップを生成する。
ステップS15において、推定NPA・NV特定部106は、NPA存在確率と、NV存在確率とに基づいて、眼底画像情報のうち網膜無灌流領域(NPA)に該当することが推定される領域を推定NPAとして特定し、新生血管(NV)に該当することが推定される領域を推定NVとして特定する。
ステップS16において、推定NPA・NV表示制御部107は、眼底画像情報に、推定NPAと、NV領域とを表示させる制御を実行する。
ステップS17において、サーバ1は、処理の終了指示があったか否かを判定する。
処理の終了指示がない場合には、ステップS17においてNOであると判定されて、処理はステップS1に戻される。一方、処理の終了指示があった場合には、ステップS17においてYESであると判定されて、処理は終了する。
以上のような一連の処理をサーバ1が実行することにより、推定NPA領域と、推定NV領域とが眼底画像情報に表示される。
次に、図5を参照して、サーバ1が実行する各種処理に用いられる各種情報の流れについて説明する。
図5は、サーバ1が実行する処理における各種情報の流れを示す図である。
図5に示すように、蛍光眼底造影検査において、患者の蛍光眼底造影画像が撮像されると、この蛍光眼底造影画像に基づく蛍光眼底造影画像情報が、サーバ1によって取得される。この蛍光眼底造影画像情報には、網膜無灌流領域(NPA)と、新生血管(NV)とのうち少なくとも一方に関する眼科医Dの診断注記が付される。この診断注記は、NPA・NVアノテーション情報として、蛍光眼底造影画像情報とともにNPA・NV教師情報を構成することとなる。
眼底検査において、患者の眼底画像が撮像されると、この眼底画像に基づく眼底画像情報は、サーバ1により取得される。眼底画像情報及びNPA・NV教師情報は、演算部104のNPA・NVアノテーションプログラムによる演算処理に用いられる。NPA・NVアノテーションプログラムによる演算処理の結果、NPA・NV存在確率マップが生成される。このNPA・NV存在確率マップに基づいて、眼底画像情報における推定NPAと推定NVとが特定される。
蛍光眼底造影画像情報及び眼底画像情報に、付随所見に関する眼科医Dの診断注記が付される場合がある。この場合の診断注記は、付随所見アノテーション情報として、蛍光眼底造影画像情報及び眼底画像情報とともに付随所見教師情報を構成することとなる。
眼底画像情報及びNPA・NV教師情報は、演算部104の付随所見判定プログラムによる演算処理に用いられる。付随所見判定プログラムによる演算処理の結果、付随所見存在確率マップが生成される。このように、付随所見存在確率マップが生成された場合には、付随所見存在確率マップと、NPA・NV教師情報とに基づいて、眼底画像情報における推定NPAと、推定NVとが特定される。
図6は、サーバ1が実行する処理において取得される眼底画像情報の一例を示す図である。
図7は、サーバ1が実行する処理において取得される蛍光眼底造影画像情報の一例を示す図である。
患者の眼底検査では、検査機器3による患者の眼底の撮像が行われ、図6に示すような眼底画像情報が得られる。眼科医Dは、図6に示すような眼底画像情報を参照しながら診察を行う。しかしながら、眼底画像情報は、図6に示すように、出血や白斑など灌流異常の結果生じた所見が表出されるのみで、循環動態や循環異常部位を読み取ることは困難である。このため、蛍光眼底造影検査が行われることにより、図7に示すような蛍光眼底造影画像情報が得られる。蛍光眼底造影画像情報は、図7に示すように、網膜循環動態を明確に判別することができる。ただし、蛍光眼底造影検査はその検査の危険性、侵襲性、大病院に限られる地理的な制約などから患者・医療者双方に負担の大きい検査であり、視力良好例や身体機能低下患者の撮影、繰り返しの撮影などがためらわれることから、発症や病勢の把握が遅れ治療が遅滞する症例が多いという課題がある。
そこで、サーバ1は、蓄積された複数の患者から得られた蛍光眼底造影画像情報と、これら情報の夫々に付されたNPA・NVアノテーション情報に基づいて生成されたNPA・NV教師情報を用いて、NPA・NV存在確率マップ生成処理を行う。これにより、負担の大きい蛍光眼底造影検査を実施することなく、近隣の診療所や検診などで簡便に撮影可能な眼底画像から、循環異常所見を簡便に特定することが可能となる。
図8は、サーバ1が実行するNPA・NV存在確率マップ生成処理で出力されるNPA・NV存在確率マップの一例を示す図である。
図8に示すNPA・NV存在確率マップEは、眼底画像情報にNPA存在確率とNV存在確率とを識別表示させた画像情報である。NPA・NV存在確率マップEは、NPA存在確率とNV存在確率とを、色の違いや、色の濃淡とよって識別表示させることができる。例えば、暖色系の色で示された領域はNPA存在確率及びNV存在確率が高く、寒色系の色で示された領域はNPA存在確率及びNV存在確率が低いといった識別表示が可能である。また、NPA存在確率及びNV存在確率が低い寒色系の色で示された領域であっても、濃い色の領域は薄い色の領域に比べてNPA存在確率及びNV存在確率がさらに低いといった識別表示も可能である。
これにより、眼底画像情報における網膜無灌流領域(NPA)、及び新生血管(NV)の存在を推定するための根拠となる情報を生成することができる。
図9は、サーバ1が実行する推定NPA・NV特定処理において特定される推定NPA、及び推定NVの一例を示す図である。
サーバ1は、NPA・NV存在確率マップの内容に基づいて、眼底画像情報のうち、網膜無灌流領域(NPA)に該当すると推定される領域を推定NPAとして特定し、新生血管(NV)に該当すると推定される領域を、推定NVとして特定する。例えば、図9に示すように、破線で示された領域Aを推定NPAとし、領域Bを推定NVとすることができる。推定NPAと、推定NVとは、眼底画像情報に重畳的に表示させることができる。
これにより、特殊な眼底カメラや診断装置を必要とする蛍光眼底造影検査を実施することなく、患者の眼底を撮像した眼底画像から、網膜無灌流の存在が推定される領域や、新生血管の存在が推定される領域を早期かつ容易に特定することができる。
以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述した実施形態では、画像取得部101は、検査機器3から各種画像情報が送信されて来ると、これらの情報を取得する構成としているが、検査機器3による撮像が行われると、画像取得部101が、自発的に各種画像情報を取りに行く構成にしてもよい。同様に、アノテーション取得部102は、眼科医端末2から各種アノテーション情報が送信されて来ると、これらの情報を取得する構成としているが、眼科医端末2に各種アノテーション情報の入力が行われると、アノテーション取得部102が、自発的に各種アノテーション情報を取に行く構成にしてもよい。
また、図2に示す各ハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。
また、図3に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行出来る機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図3の例に限定されない。
また、機能ブロックの存在場所も、図3に示す場所に限定されず、任意でよい。例えばサーバ1の機能ブロックの少なくとも一部を、眼科医端末2や検査機器3に設けてもよい。
そして、1つの機能ブロックは、ハードウェア単体で構成しても良いし、ソフトウェア単体との組み合わせで構成しても良い。
各機能ブロックの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に添って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
例えば、図4のステップS6において、画像取得部101は、検査機器3から眼底画像情報が送信されて来たか否かを判定し、ステップS7において眼底画像情報を取得する。しかし、眼底画像情報は、付随所見存在確率マップ生成処理が実行される場合には、付随所見教師情報が生成される時点で適切に管理されていれば足りる。また、付随所見存在確率マップ生成処理が実行されない場合には、NPA存在確率と、NV存在確率とが演算される時点で適切に管理されていれば足りる。このため、眼底画像情報は、付随所見教師情報が生成される場合には、ステップS10において付随所見教師情報が生成されるよりも前のいずれかの時点から画像DB401に記憶され管理されていればよい。また、付随所見教師情報が生成されない場合には、ステップS13においてNPA存在確率と、NV存在確率とが演算されるよりも前のいずれかの時点から画像DB401に記憶され管理されていればよい。
以上まとめると、本発明が適用されるプログラムは、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用されるプログラムは、
情報処理装置を制御するコンピュータに、
蛍光眼底造影画像情報(例えば図7の蛍光眼底造影画像情報C)を取得する蛍光眼底造影画像取得ステップ(例えば図4のステップS2)と、
前記蛍光眼底造影画像情報に付された、網膜無灌流領域(NPA)と新生血管(NV)とのうち少なくとも一方に関する眼科医の診断注記を、NPA・NVアノテーション情報として取得するNPA・NVアノテーション取得ステップ(例えば図4のステップS4)と、
前記蛍光眼底造影画像情報と、当該蛍光眼底造影画像情報に対応する前記NPA・NVアノテーション情報とに基づいて、前記網膜無灌流領域(NPA)の存在確率、及び新生血管(NV)の存在確率を演算するための教師情報となるNPA・NV教師情報を生成するNPA・NV教師情報生成ステップ(例えば図4のステップS5)と、
眼底画像情報(例えば図6の眼底画像情報F)を取得する眼底画像取得ステップ(例えば図4のステップS7)と、
前記NPA・NV教師情報に基づいて、前記眼底画像情報における前記網膜無灌流領域(NPA)の存在確率と、新生血管(NV)の存在確率とを演算するNPA・NV存在確率演算ステップ(例えば図4のステップS13)と、
前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とに基づいて、前記眼底画像情報のうち前記網膜無灌流領域(NPA)に該当すると推定される領域を推定NPAとして特定し、前記新生血管(NV)に該当すると推定される領域を推定NVとして特定する推定NPA・NV特定ステップ(例えば図4のステップS15)と、
を含む。
これにより、特殊な眼底カメラや診断装置を必要とする蛍光眼底造影検査を実施することなく、患者の眼底を撮像した眼底画像から、網膜無灌流の存在が推定される領域を早期かつ容易に特定することができる。
また、前記眼底画像情報に前記NPA存在確率と、前記NV存在確率とを識別表示させた、NPA・NV存在確率マップ(例えば図8のNPA・NV存在確率マップE)を生成するNPA・NV存在確率マップ生成ステップ(例えば図4のステップS14)をさらに含む制御処理を実行させることができる。
これにより、眼底画像情報における網膜無灌流領域(NPA)、及び新生血管(NV)の存在を推定するための根拠となる情報を生成することができる。
また、前記蛍光眼底造影画像情報及び前記眼底画像情報に付された、付随所見に関する前記眼科医の診断注記を、付随所見アノテーション情報として取得する付随アノテーション取得ステップ(例えば図4のステップS9)と、
前記蛍光眼底造影画像情報及び前記眼底画像情報と、当該蛍光眼底造影画像情報及び当該眼底画像情報に対応する前記付随所見アノテーション情報とに基づいて、前記眼底画像情報における前記付随所見の存在確率を演算するための教師情報となる付随所見教師情報を生成する付随所見教師情報生成ステップ(例えば図4のステップS10)と、
前記付随所見教師情報に基づいて、前記眼底画像情報における前記付随所見の存在確率を演算する付随所見存在確率演算ステップ(例えば図4のステップS11)と、
をさらに含み、
前記NPA・NV存在確率演算ステップではさらに、
前記付随所見の存在確率と、前記NPA・NV教師情報とに基づいて、前記眼底画像情報における前記網膜無灌流領域(NPA)の存在確率と、新生血管(NV)の存在確率とを演算する制御処理を実行させることができる。
また、前記眼底画像情報に、前記付随所見の存在確率を識別表示させた付随所見存在確率マップを生成する付随所見存在確率マップ生成ステップ(例えば図4のステップS12)をさらに含むことができる。
以下、本発明の一実施形態の変形例について図面を用いて説明する。
(変形例)
図10は、本発明の一実施形態の変形例の情報処理システムの構成図である。本発明の一実施形態の変形例の情報処理システムは、眼科医端末2と、検査機器3と、学習装置200と、診断支援装置300とを含む。これらの装置は、ネットワークNを介して互いに接続される。
学習装置200は、眼底の画像である眼底画像と、その眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する。ここで、血液循環異常領域とは、糖尿病網膜症などの眼虚血性疾患において生じる網膜上の血液障害によって生じる血液の循環が異常である領域である。
学習装置200は、患者の眼底画像を示す情報と、その患者の蛍光眼底造影画像を示す情報とを取得し、取得した眼底画像を示す情報と、蛍光眼底造影画像を示す情報とを関連付けて、記憶する。具体的には、患者の眼底検査において、検査機器3は、患者の眼底画像を撮像し、患者IDと、撮像した眼底画像を示す情報とを含み、学習装置200を宛先とする眼底画像通知情報を作成し、作成した眼底画像通知情報を、学習装置200へ送信する。また、患者の蛍光眼底造影検査において、検査機器3は、患者の蛍光眼底造影画像を撮像し、患者IDと、撮像した蛍光眼底造影画像を示す情報とを含み、学習装置200を宛先とする蛍光眼底造影画像通知情報を作成し、作成した蛍光眼底造影画像通知情報を、学習装置200へ送信する。
学習装置200は、検査機器3から学習装置200へ送信された眼底画像通知情報に含まれる患者IDと、眼底画像を示す情報と、蛍光眼底造影画像通知情報に含まれる患者IDと、蛍光眼底造影画像を示す情報とを取得し、取得した患者IDと、眼底画像を示す情報と、蛍光眼底造影画像を示す情報とを関連付けて記憶する。
学習装置200は、患者の蛍光眼底造影画像に付された、網膜無灌流領域(NPA)と、新生血管(NV)とのいずれか一方又は両方に関する眼科医Dの診断注記を、NPA・NVアノテーション情報として取得する。具体的には、蛍光眼底造影検査において、蛍光眼底造影画像に、網膜無灌流領域(NPA)、新生血管(NV)に関する眼科医Dの診断注記が付されると、眼科医端末2は、眼科医Dの操作に基づいて、患者IDと、当該診断注記とを含み、学習装置200を宛先とするNPA・NVアノテーション通知情報を作成し、作成したNPA・NVアノテーション通知情報を、学習装置200へ送信する。
学習装置200は、眼科医端末2が送信したNPA・NVアノテーション通知情報を受信し、受信したNPA・NVアノテーション通知情報に含まれるNPA・NVアノテーション情報を記憶する。なお、蛍光眼底造影画像を示す情報と、この蛍光眼底造影画像に付されたNPA・NVアノテーション情報とは、互いに関連付けられて記憶される。
学習装置200は、眼底画像と蛍光眼底造影画像とに付された、付随所見に関する眼科医Dの診断注記を、付随所見アノテーション情報として取得する。具体的には、蛍光眼底造影画像を示す情報と、眼底画像を示す情報とについて、付随所見に関する眼科医Dの診断注記が付される場合、眼科医端末2は、眼科医Dの操作に基づいて、患者IDと、当該診断注記とを含み、学習装置200を宛先とする付随所見アノテーション通知情報を作成し、作成した付随所見アノテーション通知情報を、学習装置200に送信する。学習装置200は、眼科医端末2が送信した付随所見アノテーション通知情報を受信し、受信した付随所見アノテーション通知情報に含まれる患者IDと、付随所見アノテーション情報を取得し、取得した患者IDと、付随所見アノテーション情報とを、記憶する。なお、眼底画像を示す情報と蛍光眼底造影画像を示す情報と、付随所見アノテーション情報とは、互いに関連付けられて記憶される。
学習装置200は、眼底画像を示す情報と、この眼底画像を示す情報に関連付けられている蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とを取得し、取得した蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とに基づいて、血液循環異常領域を特定する。学習装置200は、眼底画像を示す情報と、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域とを関連付けたNPA・NV学習情報を生成し、生成したNPA・NV学習情報を記憶する。
学習装置200は、NPA・NV学習情報に含まれる眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する。なお、学習モデルを生成する具体的な手法は特に限定されない。例えば、NPA・NV学習情報から、血液循環異常領域を有する眼底画像に共通する特徴を抽出し、抽出した共通する特徴と、眼底画像における血液循環異常領域との関係を導出してもよい。ニューラルネットワーク、ディープラーニング(深層学習)の技術を用いて、眼底画像と、その眼底画像における血液循環異常領域との関係とを導出してもよい。学習装置200は、生成した学習モデルを記憶するとともに、生成した学習モデルを含み、診断支援装置300をあて先とする学習モデル通知情報を作成し、作成した学習モデル通知情報を、診断支援装置300へ送信する。
診断支援装置300は、学習装置200が送信した学習モデルを受信し、受信した学習モデルを記憶する。
眼科医端末2は、患者IDと、患者の眼底画像を示す情報とを含み、診断支援装置300を宛先とする患者情報を作成し、作成した患者情報を、診断支援装置300へ送信する。
診断支援装置300は、眼科医端末2が送信した患者情報を受信し、受信した患者情報に含まれる患者IDと、患者の眼底画像を示す情報とを取得する。診断支援装置300は、記憶した学習モデルを用いて、取得した眼底画像を示す情報に基づいて、眼底画像における血液循環異常領域を特定する。診断支援装置300は、患者の眼底画像と、学習モデルとを用いて特定したその眼底画像における血液循環異常領域を示す情報と、患者IDとを含み、眼科医端末2を宛先とする診断結果を作成し、作成した診断結果を、眼科医端末2へ送信する。
以下、情報処理システムに含まれる学習装置200と、診断支援装置300とについて、説明する。
(学習装置200)
図11は、本発明の実施形態の変形例の学習装置の一例を示すブロック図である。
学習装置200は、通信部205と、記憶部210と、操作部220と、情報処理部230と、表示部240と、各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバスなどのバスライン250とを備える。
通信部205は、通信モジュールによって実現される。通信部205は、ネットワークNを介して、眼科医端末2、検査機器3、診断支援装置300などの外部の通信装置と通信する。具体的には、通信部205は、検査機器3が送信した眼底画像通知情報を受信し、受信した眼底画像通知情報を、情報処理部230へ出力する。通信部205は、検査機器3が送信した蛍光眼底造影画像通知情報を受信し、受信した蛍光眼底造影画像通知情報を、情報処理部230へ出力する。通信部205は、眼科医端末2が送信したNPA・NVアノテーション通知情報を受信し、受信したNPA・NVアノテーション通知情報を、情報処理部230へ出力する。通信部205は、眼科医端末2が送信した付随所見アノテーション通知情報を受信し、受信した付随所見アノテーション通知情報を、情報処理部230へ出力する。通信部205は、情報処理部230が出力した学習モデル通知情報を取得し、取得した学習モデル通知情報を、診断支援装置300へ送信する。
記憶部210は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部210には、情報処理部230により実行されるプログラム211と、アプリ212と、画像DB213と、アノテーションDB214と、学習情報215と、学習モデル216とが記憶される。
プログラム211は、例えば、オペレーティングシステムであり、ユーザやアプリケーションプログラムとハードウェアの中間に位置し、ユーザやアプリケーションプログラムに対して標準的なインターフェースを提供すると同時に、ハードウェアなどの各リソースに対して効率的な管理を行う。
アプリ212は、学習装置200に、検査機器3が送信した眼底画像通知情報を受信させ、受信させた眼底画像通知情報に含まれる患者IDと、眼底画像を示す情報とを関連付けて、記憶させる。アプリ212は、学習装置200に、検査機器3が送信した蛍光眼底造影画像通知情報を受信させ、受信させた蛍光眼底造影画像通知情報に含まれる患者IDと、蛍光眼底造影画像を示す情報とを関連付けて記憶させる。アプリ212は、学習装置200に、眼科医端末2が送信したNPA・NVアノテーション通知情報を受信させ、受信させたNPA・NVアノテーション通知情報に含まれる患者IDと、NPA・NVアノテーション情報とを関連付けて記憶させる。
アプリ212は、学習装置200に、眼科医端末2が送信した付随所見アノテーション通知情報を受信させ、受信させた付随所見アノテーション通知情報に含まれる患者IDと、付随所見アノテーション情報とを関連付けて記憶させる。アプリ212は、学習装置200に、患者IDに関連付けらえている眼底画像を示す情報と、蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とを取得させる。アプリ212は、学習装置200に、取得させた蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とに基づいて、血液循環異常領域を特定させる。
アプリ212は、学習装置200に、眼底画像を示す情報と、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域とを関連付けたNPA・NV学習情報を生成させ、生成させたNPA・NV学習情報を記憶させる。アプリ212は、学習装置200に、NPA・NV学習情報に含まれる眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成させる。アプリ212は、学習装置200に、生成した学習モデルを記憶させるとともに、診断支援装置300へ送信させる。
画像DB213は、患者IDと、眼底画像を示す情報と、蛍光眼底造影画像を示す情報とを関連付けて記憶する。
アノテーションDB214は、患者IDと、NPA・NVアノテーション情報と、付随所見アノテーション情報とを関連付けて記憶する。
学習情報215は、眼底画像を示す情報と、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域とを関連付けたNPA・NV学習情報を記憶する。
学習モデル216は、NPA・NV学習情報に含まれる眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを記憶する
操作部220は、例えば、タッチパネルなどによって構成され、表示部240に表示される画面に対するタッチ操作を検出し、タッチ操作の検出結果を、情報処理部230へ出力する。
表示部240は、例えば、タッチパネルによって構成され、学習装置200が受信した眼底画像を示す情報と、蛍光眼底造影画像を示す情報とを受け付ける画面を表示する。また、表示部240は、学習装置200が受信したNPA・NVアノテーション情報と、付随所見アノテーション情報とを処理する操作を受け付ける画面を表示する。
情報処理部230の全部または一部は、例えば、CPU(Central Processing Unit)などのプロセッサが記憶部210に格納されたプログラム211と、アプリ212とを実行することにより実現される機能部(以下、ソフトウェア機能部と称する)である。なお、情報処理部230の全部または一部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。情報処理部230は、例えば、画像取得部231と、アノテーション取得部232と、学習情報生成部233と、学習部234とを備える。
画像取得部231は、通信部205が出力した眼底画像通知情報を取得し、取得した眼底画像通知情報に含まれる患者IDと、眼底画像を示す情報とを取得する。画像取得部231は、取得した患者IDと、眼底画像を示す情報とを関連付けて、画像DB213に記憶する。
画像取得部231は、通信部205が出力した蛍光眼底造影画像通知情報を取得し、取得した蛍光眼底造影画像通知情報に含まれる患者IDと、蛍光眼底造影画像を示す情報とを取得する。画像取得部231は、取得した患者IDと、蛍光眼底造影画像を示す情報とを関連付けて、画像DB213に記憶する。
アノテーション取得部232は、通信部205が出力したNPA・NVアノテーション通知情報を取得し、取得したNPA・NVアノテーション通知情報に含まれる患者IDと、NPA・NVアノテーション情報とを取得する。アノテーション取得部232は、取得した患者IDと、NPA・NVアノテーション情報とを関連付けて、アノテーションDB214に記憶する。
アノテーション取得部232は、通信部205が出力した付随所見アノテーション通知情報を取得し、取得した付随所見アノテーション通知情報に含まれる患者IDと、付随所見アノテーション情報とを取得する。アノテーション取得部232は、取得した患者IDと、付随所見アノテーション情報とを関連付けて、アノテーションDB214に記憶する。
学習情報生成部233は、記憶部210の画像DB213に記憶された患者IDと、患者IDに関連付けられている眼底画像を示す情報と、蛍光眼底造影画像を示す情報とを取得する。学習情報生成部233は、記憶部210のアノテーションDB214に記憶された患者IDと、患者IDに関連付けられているNPA・NVアノテーション情報と、付随所見アノテーション情報とを取得する。学習情報生成部233は、取得した蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とに基づいて、血液循環異常領域を特定する。
以下、学習装置200の各構成について具体的に説明する。
図12は眼底画像の一例を示す図であり、図13は蛍光眼底造影画像の一例を示す図である。
学習情報生成部233は、眼底画像の緑成分を抽出し、緑成分を抽出した眼底画像である緑成分抽出眼底画像からノイズ成分を除去する。学習情報生成部233は、ノイズ成分を除去した緑成分抽出眼底画像を、矩形に分割する。学習情報生成部233は、矩形に分割した画像に基づいて、ノイズ成分を除去した緑成分抽出眼底画像を、所定のサイズにリサイズする。所定のサイズにリサイズする際に、バイキュービック補間などの補間方法によって補間する。
学習情報生成部233は、蛍光眼底造影画像の緑成分を抽出し、緑成分を抽出した蛍光眼底造影画像である緑成分抽出蛍光眼底造影画像からノイズ成分を除去する。学習情報生成部233は、ノイズ成分を除去した緑成分抽出蛍光眼底造影画像を、矩形に分割する。学習情報生成部233は、矩形に分割した画像に基づいて、ノイズ成分を除去した緑成分抽出蛍光眼底造影画像を、所定のサイズにリサイズする。所定のサイズにリサイズする際に、バイキュービック補間などの補間方法によって補間する。
学習情報生成部233は、ノイズ成分を除去した緑成分抽出眼底画像と、ノイズ成分を除去した緑成分抽出蛍光眼底造影画像とを、眼球の位置が一致するように回転成分を補正するとともに、所定のサイズにリサイズする。学習情報生成部233は、眼球の位置が一致するように回転成分を補正するとともに、所定のサイズにリサイズしたノイズ成分を除去した緑成分抽出眼底画像と、ノイズ成分を除去した緑成分抽出蛍光眼底造影画像とに基づいて、血液循環異常領域を特定する。
図14は、血液循環異常領域の一例を示す図である。
学習情報生成部233は、眼底画像を示す情報と、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域とを関連付けたNPA・NV学習情報を生成し、生成したNPA・NV学習情報を、記憶部210の学習情報215に記憶する。図11に戻り説明を続ける。
学習部234は、記憶部210の学習情報215に記憶したNPA・NV学習情報を取得する。学習部234は、取得したNPA・NV学習情報に含まれる眼底画像を示す情報と、血液循環異常領域を示す情報とを取得する。学習部234は、取得した眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する。
具体的には、本実施形態の変形例では、画像全体を一度に学習させ、予測させることはGPU(graphics processing unit)のメモリの制約上困難であることを想定して、画像からパッチを抽出して、抽出したパッチをニューラルネットワークに学習させる方法を用いた場合について説明する。ここでは、一例として、パッチサイズを64px×64pxとし、stride(パッチ抽出の枠を動かす間隔)を2pxとした。
生成したパッチを陽性の領域を含むものと、一切含まないものの2群に分ける。学習に使われる両群の割合が等しくなるようにパッチを選択する。
ニューラルネットワークが学習用データそのもの、あるいは、それに非常によく似た画像にのみに対して良い性能を示し、未知の画像に対しては著しく低い性能を示してしまう現象は、過学習(over−fitting)と呼ばれ、これを解決するにはより多くのサンプルを集めることや、学習データに回転などの幾何学的操作を加えることによって改善される。
本実施形態の変形例では、パッチを生成した後に、回転角をσ=3deg.の正規分布に基づいて決定し、50%の確率で水平反転、20%の確率で垂直反転を行った。
図15は、ニューラルネットワークの構造の一例を示す図である。
ニューラルネットワークの構造の一例はU−Netに基づいている。図15において、bはconvolution(kernel_size=(3,3))、gはmax pooling(pool_size=(2,2))、oはup sampling(size=(2,2))を表している。各convolution層の後には活性化関数ReLUを用い、batch normalizationを行った。ただし、最後のconvolution層には、活性化関数としてsigmoidを用いて、batch normalizationは行わなかった。
また、a1、a2、a3、a4で示される矢印はconcatenationによるskip connectionを表している。これは、画像の位置情報を復元するのに貢献していると考えられている。
学習部234は、生成した学習モデルを、記憶部210の学習モデル216に記憶する。
学習部234は、生成した学習モデルを含み、診断支援装置300をあて先とする学習モデル通知情報を作成し、作成した学習モデル通知情報を、通信部205へ出力する。
(診断支援装置300)
図16は、本発明の実施形態の変形例の診断支援装置の一例を示すブロック図である。
診断支援装置300は、通信部305と、記憶部310と、操作部320と、情報処理部330と、表示部340と、各構成要素を図16に示されているように電気的に接続するためのアドレスバスやデータバスなどのバスライン350とを備える。
通信部305は、通信モジュールによって実現される。通信部305は、ネットワークNを介して、眼科医端末2、学習装置200などの外部の通信装置と通信する。具体的には、通信部305は、学習装置200が送信した学習モデル通知情報を受信し、受信した学習モデル通知情報を、情報処理部330へ出力する。通信部305は、眼科医端末2が送信した患者情報を受信し、受信した患者情報を、情報処理部330へ出力する。通信部305は、情報処理部230が出力した診断情報を取得し、取得した診断情報を、眼科医端末2へ送信する。
記憶部310は、例えば、RAM、ROM、HDD、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。記憶部310には、情報処理部330により実行されるプログラム311と、アプリ312と、学習モデル216とが記憶される。
プログラム311は、例えば、オペレーティングシステムであり、ユーザやアプリケーションプログラムとハードウェアの中間に位置し、ユーザやアプリケーションプログラムに対して標準的なインターフェースを提供すると同時に、ハードウェアなどの各リソースに対して効率的な管理を行う。
アプリ312は、診断支援装置300に、学習装置200が送信した学習モデル通知情報を受信させ、受信させた学習モデル通知情報に含まれる学習モデルを記憶させる。アプリ312は、診断支援装置300に、眼科医端末2が送信した患者情報を受信させ、受信させた患者情報に含まれる患者IDと、眼底画像とを取得させる。アプリ312は、診断支援装置300に、記憶させた学習モデルを用いて、取得させた眼底画像における血液循環異常領域を特定させる。
アプリ312は、診断支援装置300に、患者の眼底画像と、学習モデルとを用いて特定させたその眼底画像における血液循環異常領域を示す情報と、患者IDとを含み、眼科医端末2をあて先とする診断情報を作成させ、作成させた診断情報を、眼科医端末2へ送信させる。
操作部320は、例えば、タッチパネルなどによって構成され、表示部340に表示される画面に対するタッチ操作を検出し、タッチ操作の検出結果を、情報処理部330へ出力する。
表示部340は、例えば、タッチパネルによって構成され、診断支援装置300が受信した患者情報に含まれる眼底画像を示す情報を受け付ける画面を表示する。また、表示部240は、診断支援装置300が診断した結果を表示する。
情報処理部330の全部または一部は、例えば、CPUなどのプロセッサが記憶部310に格納されたプログラム311と、アプリ312とを実行することにより実現されるソフトウェア機能部である。なお、情報処理部330の全部または一部は、LSI、ASIC、またはFPGAなどのハードウェアにより実現されてもよく、ソフトウェア機能部とハードウェアとの組み合わせによって実現されてもよい。情報処理部330は、例えば、受付部331と、特定部332と、作成部333とを備える。
受付部331は、通信部305が出力した学習モデル通知情報を取得し、取得した学習モデル通知情報に含まれる学習モデルを取得する。受付部331は、取得した学習モデルを受け付け、受け付けた学習モデルを、記憶部310の学習モデル216に記憶する。
受付部331は、通信部305が出力した患者情報を取得し、取得した患者情報に含まれる患者IDと、眼底画像を示す情報とを取得する。受付部331は、取得した患者IDと、眼底画像を示す情報とを受け付け、受け付けた患者IDと、眼底画像を示す情報とを、特定部332に出力する。
特定部332は、受付部331が出力した患者IDと、眼底画像を示す情報とを取得する。特定部332は、記憶部310の学習モデル216に記憶されている学習モデルを取得し、取得した学習モデルを用いて、取得した眼底画像における血液循環異常領域を特定する。特定部332は、特定した眼底画像における血液循環異常領域を示す情報と、患者IDとを、作成部333へ出力する。
具体的には、本実施形態の変形例では、学習装置200と同様に、画像からパッチを抽出して、抽出したパッチと、学習モデルとを用いて、眼底画像における血液循環異常領域を特定する場合について説明する。ここでは、一例として、パッチサイズを64px×64pxとし、stride(パッチ抽出の枠を動かす間隔)を2pxとした。生成したパッチの全てを選択する。
特定部332は、学習モデルに基づいて、64×64×1の画像を取得する。特定部332は、取得した画素値を、元画像の対応するピクセルにvoteし、平均化する。ここで、特定部332は、取得した画像を、カラー表示へ変換してもよい。
作成部333は、特定部332が出力した患者IDと、眼底画像における血液循環異常領域を示す情報とを取得する。作成部333は、取得した患者IDと、眼底画像における血液循環異常領域を示す情報とを含み、眼科医端末2を宛先とする診断情報を作成する。作成部333は、作成した診断情報を通信部305へ出力する。
(情報処理システムの動作)
図17と図18とを参照して、本実施形態の変形例の情報処理システムの動作の一例について説明する。
図17は、本実施形態の変形例の情報処理システムに含まれる学習装置の動作の一例を示すフローチャートである。図17は、眼科医端末2が、学習装置200へ、NPA・NVアノテーション通知情報と、付随所見アノテーション通知情報とを送信し、検査機器3が、学習装置200へ眼底画像通知情報と、蛍光眼底造影画像通知情報とを送信した後の動作について示す。
(ステップS201)
学習装置200の通信部205は、検査機器3が送信した眼底画像通知情報を受信し、受信した眼底画像通知情報を、情報処理部230へ出力する。情報処理部230の画像取得部231は、通信部205が出力した眼底画像通知情報を取得し、取得した眼底画像通知情報に含まれる患者IDと、眼底画像を示す情報とを関連付けて、記憶部210の画像DB213に記憶する。
(ステップS202)
学習装置200の通信部205は、検査機器3が送信した蛍光眼底造影画像通知情報を受信し、受信した蛍光眼底造影画像通知情報を、情報処理部230へ出力する。情報処理部230の画像取得部231は、通信部205が出力した蛍光眼底造影画像通知情報を取得し、取得した蛍光眼底造影画像通知情報に含まれる患者IDと、蛍光眼底造影画像を示す情報とを関連付けて、記憶部210の画像DB213に記憶する。
(ステップS203)
学習装置200の通信部205は、眼科医端末2が送信したNPA・NVアノテーション通知情報を受信し、受信したNPA・NVアノテーション通知情報を、情報処理部230へ出力する。情報処理部230のアノテーション取得部232は、通信部205が出力したNPA・NVアノテーション通知情報を取得し、取得したNPA・NVアノテーション通知情報に含まれる患者IDと、NPA・NVアノテーション情報とを関連付けて、記憶部210のアノテーションDB214に記憶する。
学習装置200の通信部205は、眼科医端末2が送信した付随所見アノテーション通知情報を受信し、受信した付随所見アノテーション通知情報を、情報処理部230へ出力する。情報処理部230のアノテーション取得部232は、通信部205が出力した付随所見アノテーション通知情報を取得し、取得した付随所見アノテーション通知情報に含まれる患者IDと、付随所見アノテーション情報とを関連付けて、記憶部210のアノテーションDB214に記憶する。
(ステップS204)
学習装置200の学習情報生成部233は、記憶部210の画像DB213に記憶された患者IDと、患者IDに関連付けられている眼底画像を示す情報と、蛍光眼底造影画像を示す情報とを取得する。学習情報生成部233は、記憶部210のアノテーションDB214に記憶された患者IDと、患者IDに関連付けられているNPA・NVアノテーション情報と、付随所見アノテーション情報とを取得する。学習情報生成部233は、取得した蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とに基づいて、血液循環異常領域を特定する。学習情報生成部233は、眼底画像を示す情報と、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域とを関連付けたNPA・NV学習情報を生成し、生成したNPA・NV学習情報を、記憶部210の学習情報215に記憶する。
(ステップS205)
学習装置200の学習部234は、記憶部210の学習情報215に記憶したNPA・NV学習情報を取得する。学習部234は、取得したNPA・NV学習情報に含まれる眼底画像を示す情報と、血液循環異常領域を示す情報とを取得する。学習部234は、取得した眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する。学習部234は、生成した学習モデルを、記憶部210の学習モデル216に記憶する。
図17に示されるフローチャートにおいて、ステップS201と、S202と、S203との順序を変更してもよい。
図17に示されるフローチャートによれば、学習装置200は、蛍光眼底造影画像を示す情報と、NPA・NVアノテーション情報と、付随所見アノテーション情報とに基づいて、血液循環異常領域を特定できる。学習装置200は、眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として、眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成できる。
図18は、本実施形態の変形例の情報処理システムに含まれる診断支援装置の動作の一例を示すフローチャートである。図18は、学習装置200が、診断支援装置300へ、学習モデル通知情報を送信し、眼科医端末2が、診断支援装置300へ、患者情報を送信した後の動作について示す。
(ステップS301)
診断支援装置300の通信部305は、学習装置200が送信した学習モデル通知情報を受信し、受信した学習モデル通知情報を、情報処理部330へ出力する。受付部331は、通信部305が出力した学習モデル通知情報を取得し、取得した学習モデル通知情報に含まれる学習モデルを取得する。受付部331は、取得した学習モデルを受け付け、受け付けた学習モデルを、記憶部310の学習モデル216に記憶する。
(ステップS302)
通信部305は、眼科医端末2が送信した患者情報を受信し、受信した患者情報を、情報処理部330へ出力する。受付部331は、通信部305が出力した患者情報を取得し、取得した患者情報に含まれる患者IDと、眼底画像を示す情報とを取得する。受付部331は、取得した患者IDと、眼底画像を示す情報とを受け付け、受け付けた患者IDと、眼底画像を示す情報とを、特定部332に出力する。
(ステップS303)
特定部332は、受付部331が出力した患者IDと、眼底画像を示す情報とを取得する。特定部332は、記憶部310の学習モデル216に記憶されている学習モデルを取得する。
(ステップS304)
特定部332は、記憶部310の学習モデル216に記憶されている学習モデルを取得し、取得した学習モデルを用いて、特定対象である眼底画像における血液循環異常領域を特定する。特定部332は、特定した眼底画像における血液循環異常領域を示す情報と、患者IDとを、作成部333へ出力する。
(ステップS305)
作成部333は、特定部332が出力した患者IDと、眼底画像における血液循環異常領域を示す情報とを取得する。作成部333は、患者IDと、取得した眼底画像における血液循環異常領域を示す情報とを含み、眼科医端末2を宛先とする診断情報を作成する。作成部333は、作成した診断情報を通信部305へ出力する。
通信部305は、作成部333が出力した診断情報を取得し、取得した診断情報を、眼科医端末2へ送信する。
図18に示されるフローチャートによれば、診断支援装置300は、眼底画像を示す情報を入力情報とし、その眼底画像に対応する蛍光眼底造影画像に基づいて特定された血液循環異常領域を教師情報として生成された眼底画像と、その眼底画像における血液循環異常領域との関係を表す学習モデルを用いて、特定対象である眼底画像における血液循環異常領域を特定できる。
前述した変形例では、診断支援装置300が、学習装置200が送信した学習モデル通知情報を受信し、受信した学習モデル通知情報に含まれる学習モデルを、記憶部310に記憶する。診断支援装置300は、眼科医端末2が送信した患者情報に含まれる眼底画像と、記憶した学習モデルとを用いて、眼底画像における血液循環異常領域を特定し、特定した血液循環異常領域を示す情報を含む診断結果を、眼科医端末2へ送信する場合について説明したが、この例に限られない。例えば、診断支援装置300が、学習装置200へ、患者情報を送信するようにしてもよい。学習装置200は、診断支援装置300が送信した患者情報を受信し、受信した患者情報に含まれる眼底画像と、学習モデルとを用いて、眼底画像における血液循環異常領域を特定する。学習装置200は、特定した血液循環異常領域を示す情報を含む診断結果を作成し、作成した診断結果を、診断支援装置300に送信する。診断支援装置300は、学習装置200が送信した診断結果を受信し、受信した診断結果を、眼科医端末2へ送信するようにしてもよい。
本実施形態の変形例によれば、診断支援装置300は、眼底の画像である眼底画像と、眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定する特定部と、患者の眼底画像と、学習モデルとを用いて特定部が特定した患者の前記眼底画像における血液循環異常領域を示す情報を出力する出力部とを有する。このように構成することによって、診断支援装置300は、蛍光眼底造影画像から医師が特定した循環異常域情報とそれに対応した眼底画像とを教師情報とした機械学習によって得られた学習モデルを用いて、通常の眼底画像から循環異常域を高精度に推定できる。
血液循環異常領域は、蛍光眼底造影画像と、蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて生成される。このように構成することによって、蛍光眼底造影画像と、蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて、教師情報とする血液循環異常領域を生成できる。
特定部は、眼底画像における網膜無灌流領域と新生血管に該当する領域とのいずれか一方又は両方を特定する。このように構成することによって、通常の眼底画像から、網膜無灌流領域と新生血管に該当する領域とのいずれか一方又は両方を高精度で特定できる。
出力部は、眼底画像に特定部が特定した血液循環異常領域を重ねた画像を出力する。このように構成することによって、通常の眼底画像から、その眼底画像に循環異常域を重畳した画像を取得できる。
本実施形態の変形例によれば、学習装置200は、眼底の画像である眼底画像と、眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する学習部を有する。このように構成することによって、学習装置200は、眼底画像と、眼底画像における血液循環異常領域との関係を表す学習モデルを機械学習によって生成できる。
血液循環異常領域は、蛍光眼底造影画像と、蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて生成される。このように構成することによって、蛍光眼底造影画像と、蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて、教師情報とする血液循環異常領域を生成できる。
以上、本発明の実施形態及びその変形例を説明したが、これらの実施形態及びその変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態及びその変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合わせを行うことができる。これら実施形態及びその変形例は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
なお、前述のサーバ1、眼科医端末2、検査機器3、学習装置200、診断支援装置300は内部にコンピュータを有している。そして、前述した各装置の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)情報処理装置を制御するコンピュータに、
蛍光眼底造影画像情報を取得する蛍光眼底造影画像取得ステップと、
前記蛍光眼底造影画像情報に付された、網膜無灌流領域と新生血管とのうち少なくとも一方に関する眼科医の診断注記を、NPA・NVアノテーション情報として取得するNPA・NVアノテーション取得ステップと、
前記蛍光眼底造影画像情報と、当該蛍光眼底造影画像情報に対応する前記NPA・NVアノテーション情報とに基づいて、前記網膜無灌流領域の存在確率、及び新生血管の存在確率を演算するための教師情報となるNPA・NV教師情報を生成するNPA・NV教師情報生成ステップと、
眼底画像情報を取得する眼底画像取得ステップと、
前記NPA・NV教師情報に基づいて、前記眼底画像情報における前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とを演算するNPA・NV存在確率演算ステップと、
前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とに基づいて、前記眼底画像情報のうち前記網膜無灌流領域に該当すると推定される領域を推定NPAとして特定し、前記新生血管に該当すると推定される領域を推定NVとして特定する推定NPA・NV特定ステップと、
を含む制御処理を実行させるプログラム。
(付記2)前記眼底画像情報に前記NPA存在確率と、NV存在確率とを識別表示させた、NPA・NV存在確率マップを生成するNPA・NV存在確率マップ生成ステップをさらに含む、
付記1に記載のプログラム。
(付記3)前記蛍光眼底造影画像情報及び前記眼底画像情報に付された、付随所見に関する前記眼科医の診断注記を、付随所見アノテーション情報として取得する付随アノテーション取得ステップと、
前記蛍光眼底造影画像情報及び前記眼底画像情報と、当該蛍光眼底造影画像情報及び当該眼底画像情報に対応する前記付随所見アノテーション情報とに基づいて、前記眼底画像情報における前記付随所見の存在確率を演算するための教師情報となる付随所見教師情報を生成する付随所見教師情報生成ステップと、
前記付随所見教師情報に基づいて、前記眼底画像情報における前記付随所見の存在確率を演算する付随所見存在確率演算ステップと、
をさらに含み、
前記NPA・NV存在確率演算ステップではさらに、
前記付随所見の存在確率と、前記NPA教師情報とに基づいて、前記眼底画像情報における前記網膜無灌流領域の存在確率と、新生血管の存在確率とを演算する制御処理を実行させる、
付記1又は2に記載のプログラム。
(付記4)前記眼底画像情報に前記付随所見の存在確率を識別表示させた、付随所見存在確率マップを生成する付随所見存在確率マップ生成ステップをさらに含む、
付記3に記載のプログラム。
(付記5)情報処理装置が実行する情報処理方法であって、
蛍光眼底造影画像情報を取得する蛍光眼底造影画像取得ステップと、
前記蛍光眼底造影画像情報に付された、網膜無灌流領域と新生血管とのうち少なくとも一方に関する眼科医の診断注記を、NPA・NVアノテーション情報として取得するNPA・NVアノテーション取得ステップと、
前記蛍光眼底造影画像情報と、当該蛍光眼底造影画像情報に対応する前記NPA・NVアノテーション情報とに基づいて、前記網膜無灌流領域の存在確率、及び新生血管の存在確率を演算するための教師情報となるNPA・NV教師情報を生成するNPA・NV教師情報生成ステップと、
眼底画像情報を取得する眼底画像取得ステップと、
前記NPA・NV教師情報に基づいて、前記眼底画像情報における前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とを演算するNPA・NV存在確率演算ステップと、
前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とに基づいて、前記眼底画像情報のうち前記網膜無灌流領域に該当すると推定される領域を推定NPAとして特定し、前記新生血管に該当すると推定される領域を推定NVとして特定する推定NPA・NV特定ステップと、
を含む情報処理方法。
(付記6)蛍光眼底造影画像情報を取得する蛍光眼底造影画像取得手段と、
前記蛍光眼底造影画像情報に付された、網膜無灌流領域と新生血管とのうち少なくとも一方に関する眼科医の診断注記を、NPA・NVアノテーション情報として取得するNPA・NVアノテーション取得手段と、
前記蛍光眼底造影画像情報と、当該蛍光眼底造影画像情報に対応する前記NPA・NVアノテーション情報とに基づいて、前記網膜無灌流領域の存在確率、及び新生血管の存在確率を演算するための教師情報となるNPA・NV教師情報を生成するNPA・NV教師情報生成手段と、
眼底画像情報を取得する眼底画像取得手段と、
前記NPA・NV教師情報に基づいて、前記眼底画像情報における前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とを演算するNPA・NV存在確率演算手段と、
前記網膜無灌流領域の存在確率と、前記新生血管の存在確率とに基づいて、前記眼底画像情報のうち前記網膜無灌流領域に該当すると推定される領域を推定NPAとして特定し、前記新生血管に該当すると推定される領域を推定NVとして特定する推定NPA・NV特定手段と、
を備える情報処理装置。
1:サーバ
2:眼科医端末
3:検査機器
11:CPU
12:ROM
13:RAM
14:バス
15:入出力インターフェース
16:表示部
17:入力部
18:記憶部
19:通信部
20:ドライブ
30:リムーバブルメディア
101:画像取得部
102:アノテーション取得部
103:教師情報生成部
104:演算部
105:マップ生成部
106:推定NPA・NV特定部
107:推定NPA・NV表示制御部
200:学習装置
205:通信部
210:記憶部
211:プログラム
212:アプリ
213:画像DB
214:アノテーションDB
215:学習情報
216:学習モデル
220:操作部
230:情報処理部
231:画像取得部
232:アノテーション取得部
233:学習情報生成部
234:学習部
240:表示部
250:バスライン
300:診断支援装置
305:通信部
310:記憶部
311:プログラム
312:アプリ
320:操作部
330:情報処理部
331:受付部
332:特定部
333:作成部
240:表示部
350:バスライン
401:画像DB
402:アノテーションDB
403:教師DB
A:推定NPA
B:推定NV
C:蛍光眼底造影画像情報
D:眼科医
E:NPA・NV存在確率マップ
F:眼底画像情報

Claims (10)

  1. 眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定する特定部と、
    患者の眼底画像と、前記学習モデルとを用いて前記特定部が特定した患者の前記眼底画像における血液循環異常領域を示す情報を出力する出力部と
    を有する診断支援装置。
  2. 前記血液循環異常領域は、前記蛍光眼底造影画像と、前記蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて生成される、請求項1に記載の診断支援装置。
  3. 前記特定部は、前記眼底画像における網膜無灌流領域と新生血管に該当する領域とのいずれか一方又は両方を特定する、請求項1又は請求項2に記載の診断支援装置。
  4. 前記出力部は、前記眼底画像に前記特定部が特定した血液循環異常領域を重ねた画像を出力する、請求項1から請求項3のいずれか一項に記載の診断支援装置。
  5. 眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する学習部
    を有する学習装置。
  6. 前記血液循環異常領域は、前記蛍光眼底造影画像と、前記蛍光眼底造影画像に付された網膜無灌流領域と新生血管とのうちいずれか一方又は両方に関する眼科医の診断注記とに基づいて生成される、請求項5に記載の学習装置。
  7. 眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定し、
    患者の眼底画像と、前記学習モデルとを用いて特定した患者の前記眼底画像における血液循環異常領域を示す情報を出力する、診断支援装置が実行する診断支援方法。
  8. 眼底の画像である眼底画像を示す情報と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域を示す情報とを取得し、
    取得した前記眼底画像と、前記眼底の前記蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成する、学習装置が実行する学習方法。
  9. 診断支援装置のコンピュータに、
    眼底の画像である眼底画像と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を学習した学習モデルを用いて、眼底画像における血液循環異常領域を特定させ、
    患者の眼底画像と、前記学習モデルとを用いて特定させた患者の前記眼底画像における血液循環異常領域を示す情報を出力させる、プログラム。
  10. 学習装置のコンピュータに、
    眼底の画像である眼底画像を示す情報と、前記眼底の蛍光眼底造影画像に基づいて特定された血液循環異常領域を示す情報とを取得させ、
    取得させた前記眼底画像と、前記眼底の前記蛍光眼底造影画像に基づいて特定させた血液循環異常領域とに基づいて、眼底画像と、前記眼底画像における血液循環異常領域との関係を表す学習モデルを学習によって生成させる、プログラム。
JP2019566525A 2018-01-19 2019-01-18 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム Active JP7143862B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022147056A JP2022180466A (ja) 2018-01-19 2022-09-15 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018007585 2018-01-19
JP2018007585 2018-01-19
PCT/JP2019/001470 WO2019142910A1 (ja) 2018-01-19 2019-01-18 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022147056A Division JP2022180466A (ja) 2018-01-19 2022-09-15 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019142910A1 true JPWO2019142910A1 (ja) 2021-01-07
JP7143862B2 JP7143862B2 (ja) 2022-09-29

Family

ID=67302295

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019566525A Active JP7143862B2 (ja) 2018-01-19 2019-01-18 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム
JP2022147056A Pending JP2022180466A (ja) 2018-01-19 2022-09-15 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022147056A Pending JP2022180466A (ja) 2018-01-19 2022-09-15 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム

Country Status (5)

Country Link
US (1) US20210000343A1 (ja)
EP (1) EP3741288A4 (ja)
JP (2) JP7143862B2 (ja)
CN (1) CN111902071A (ja)
WO (1) WO2019142910A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142910A1 (ja) * 2018-01-19 2019-07-25 学校法人慶應義塾 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム
JP6916849B2 (ja) * 2019-09-13 2021-08-11 株式会社クレスコ 情報処理装置、情報処理方法および情報処理プログラム
JP2021176056A (ja) * 2020-05-01 2021-11-04 国立研究開発法人理化学研究所 医療システム及び医療情報処理装置
CN112967260B (zh) * 2021-03-17 2024-01-26 中国科学院苏州生物医学工程技术研究所 基于弱监督学习的眼底荧光造影图像渗漏点检测方法
KR102543937B1 (ko) * 2021-03-18 2023-06-14 가톨릭대학교 산학협력단 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법
JPWO2023032162A1 (ja) * 2021-09-03 2023-03-09
JP2023051045A (ja) * 2021-09-30 2023-04-11 DeepEyeVision株式会社 情報処理装置、情報処理方法及びプログラム
CN115272255A (zh) * 2022-08-02 2022-11-01 中山大学中山眼科中心 一种利用眼底彩照自动生成荧光造影图像的方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160071266A1 (en) * 2014-09-08 2016-03-10 The Cleveland Clinic Foundation Automated analysis of angiographic images

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7290880B1 (en) * 2005-07-27 2007-11-06 Visionsense Ltd. System and method for producing a stereoscopic image of an eye fundus
JP4822527B2 (ja) * 2006-09-26 2011-11-24 国立大学法人岐阜大学 画像解析装置及び画像解析プログラム
JP2010178802A (ja) 2009-02-03 2010-08-19 Gifu Univ 眼底画像解析システム、及び眼底画像解析プログラム
CN201624637U (zh) * 2009-08-21 2010-11-10 上海市第一人民医院 可调谐光源结合共焦激光同步眼底血管造影系统
JP5628636B2 (ja) * 2010-11-09 2014-11-19 株式会社トプコン 眼底画像処理装置及び眼底観察装置
US20140314288A1 (en) 2013-04-17 2014-10-23 Keshab K. Parhi Method and apparatus to detect lesions of diabetic retinopathy in fundus images
WO2016154485A1 (en) * 2015-03-25 2016-09-29 Oregon Health & Science University Optical coherence tomography angiography methods
CN104835150B (zh) * 2015-04-23 2018-06-19 深圳大学 一种基于学习的眼底血管几何关键点图像处理方法及装置
JP6090505B1 (ja) * 2016-04-12 2017-03-08 株式会社網膜情報診断研究所 眼底画像解析システムとそのプログラム
JP6744625B2 (ja) 2016-07-11 2020-08-19 株式会社ペティオ ペット用サークル
EP3300654B1 (en) * 2016-09-30 2022-01-05 Nidek Co., Ltd. Method for fundus image observation
CN108172291B (zh) * 2017-05-04 2020-01-07 深圳硅基智能科技有限公司 基于眼底图像的糖尿病视网膜病变识别系统
WO2019142910A1 (ja) * 2018-01-19 2019-07-25 学校法人慶應義塾 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160071266A1 (en) * 2014-09-08 2016-03-10 The Cleveland Clinic Foundation Automated analysis of angiographic images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VARUN GULSHAN, ET AL.: "Development and Validation of a Deep Learning Algorithm for Detection of Diabetic Retinopathy in Ret", JAMA, vol. 316, no. 22, JPN6022033527, 29 November 2016 (2016-11-29), pages 2402 - 2410, XP055509254, ISSN: 0004849559, DOI: 10.1001/jama.2016.17216 *

Also Published As

Publication number Publication date
JP7143862B2 (ja) 2022-09-29
US20210000343A1 (en) 2021-01-07
JP2022180466A (ja) 2022-12-06
EP3741288A1 (en) 2020-11-25
CN111902071A (zh) 2020-11-06
EP3741288A8 (en) 2021-01-13
WO2019142910A1 (ja) 2019-07-25
EP3741288A4 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
JP7143862B2 (ja) 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム
CN111493814B (zh) 眼底病变的识别系统
Keel et al. Development and validation of a deep‐learning algorithm for the detection of neovascular age‐related macular degeneration from colour fundus photographs
WO2020200087A1 (en) Image-based detection of ophthalmic and systemic diseases
KR20130042640A (ko) 화상 처리 장치
JP2022033126A (ja) 眼の画像内における病変の検知
JP7258354B2 (ja) 生体組織内の異常を検出するための方法及びシステム
US11200674B2 (en) Image processing apparatus, method, and storage medium for enabling user to REC0GNT7E change over time represented by substraction image
US11894125B2 (en) Processing fundus camera images using machine learning models trained using other modalities
US11730364B2 (en) Apparatus and methods for supporting reading of fundus image
JP2006149654A (ja) 眼底の病変についての診断の支援
Güven Automatic detection of age-related macular degeneration pathologies in retinal fundus images
JP2006263127A (ja) 眼底画像診断支援システム、及び眼底画像診断支援プログラム
JP2021182403A (ja) 変換装置、変換方法、及びプログラム
JP2019146936A (ja) 診断支援システム、診断支援方法、及びプログラム
JP2019149094A (ja) 診断支援システム、診断支援方法、及びプログラム
JP6620636B2 (ja) 眼底画像処理装置
JP2010158279A (ja) 眼底画像解析システム、及び眼底画像解析プログラム
US20220328186A1 (en) Automatic cervical cancer diagnosis system
WO2013041977A1 (en) Method of retinal image enhancement and tool therefor
Almazroa et al. The appropriateness of digital diabetic retinopathy screening images for a computer-aided glaucoma screening system
JP6410498B2 (ja) 眼科装置及びその制御方法
US20220181026A1 (en) Information processing apparatus, information processing system, information processing method, and storage medium
JP2024062089A (ja) 医用情報処理装置、医用情報処理方法、医用情報処理プログラム、及び医用情報処理システム
CN116703941A (zh) 眼底渗出病灶提取方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R150 Certificate of patent or registration of utility model

Ref document number: 7143862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150