JP2022084511A - 画像処理システムおよび画像処理方法 - Google Patents

画像処理システムおよび画像処理方法 Download PDF

Info

Publication number
JP2022084511A
JP2022084511A JP2021129318A JP2021129318A JP2022084511A JP 2022084511 A JP2022084511 A JP 2022084511A JP 2021129318 A JP2021129318 A JP 2021129318A JP 2021129318 A JP2021129318 A JP 2021129318A JP 2022084511 A JP2022084511 A JP 2022084511A
Authority
JP
Japan
Prior art keywords
image
deep learning
optic nerve
neural
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021129318A
Other languages
English (en)
Other versions
JP7270686B2 (ja
Inventor
春賢 余
Chun-Hsien Yu
振宇 ▲黄▼
Jehn-Yu Huang
成典 謝
Cheng-Tien Hsieh
▲イン▼廷 林
Yun-Ting Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acer Inc
National Taiwan University Hospital NTUH
Original Assignee
Acer Inc
National Taiwan University Hospital NTUH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acer Inc, National Taiwan University Hospital NTUH filed Critical Acer Inc
Publication of JP2022084511A publication Critical patent/JP2022084511A/ja
Application granted granted Critical
Publication of JP7270686B2 publication Critical patent/JP7270686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より安価でより便利な眼底画像の解析に適用される画像処理システムおよび画像処理方法を提供する。【解決手段】カラー眼底画像を得るように構成された検眼鏡装置、および前記カラー眼底画像を受信するように構成され、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、前記カラー眼底画像に対応する血管セグメンテーション画像を生成し、前記カラー眼底画像と前記血管セグメンテーション画像を前処理して、初期入力画像を得て、前記初期入力画像を畳み込みニューラルネットワーク内に入力し、前記畳み込みニューラルネットワークは値を出力するプロセッサを含み、前記プロセッサは、前記陥凹乳頭径比および値に従って眼底画像解析情報を生成する画像処理システム。【選択図】図2

Description

本出願は、2020年11月26日に出願された台湾特許出願番号第109141552号についての優先権を主張するものであり、これらの全ては引用によって本願に援用される。
本発明は、画像処理システムに関するものであり、特に、眼底画像の解析に適用される画像処理システムおよび画像処理方法に関するものである。
緑内障は、台湾または米国における失明原因の第2位となっており、緑内障であることを自覚して診断を受ける人は、3分の1程度である。緑内障を診断する方法は、眼科用光干渉断層撮影(OCT)により、網膜神経線維層(RNFL)厚の画像を得ることである。
しかしながら、光干渉断層撮影のコストが高く、機器を入手するのが困難であるのに対し、カラー眼底画像は比較的入手しやすいため、ほとんどの人は、光干渉断層撮影を敢えて撮影することがない。
したがって、医師がカラー眼底画像を解釈するのを支援する、より安価でより便利な方法をどのように用いるかが、この分野で解決されるべき問題の1つとなっている。
より安価でより便利な眼底画像の解析に適用される画像処理システムおよび画像処理方法を提供する。
上記の問題を解決するために、本開示の一態様は、画像処理システムを提供する。画像処理システムは、検眼鏡装置およびプロセッサを含む。検眼鏡装置はカラー眼底画像を得るように構成される。プロセッサは、カラー眼底画像を受信するように構成され、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、カラー眼底画像に対応する血管セグメンテーション画像を生成し、カラー眼底画像と血管セグメンテーション画像を前処理して、初期入力画像を得て、初期入力画像を畳み込みニューラルネットワーク内に入力する。畳み込みニューラルネットワークは値を出力する。また、プロセッサは、陥凹乳頭径比および値から眼底画像解析情報を生成する。
本発明のもう1つの態様は、画像処理方法を提供することである。画像処理方法のステップは、視神経乳頭画像をカラー眼底画像に配置するステップ、視神経乳頭画像を切り取るステップ、視神経乳頭画像を第1の深層学習セグメンテーションネットワーク内に入力するステップ、ニューラル乳頭意味解析画像を第1の深層学習セグメンテーションネットワークから出力するステップ、視神経乳頭画像を第2の深層学習セグメンテーションネットワーク内に入力するステップ、ニューラル乳頭意味解析画像を第2の深層学習セグメンテーションネットワークから出力するステップ、およびニューラル乳頭意味解析画像の白色領域を、ニューラル乳頭陥凹意味解析画像の白色領域で分割し、陥凹乳頭径比を得るステップを含む。
本発明に示される画像処理システムおよび画像処理方法は、カラー眼底画像を分析して、陥凹乳頭径比および視神経欠損の確率を計算し、眼底画像解析情報を用いて、医師が緑内障の診断にカラー眼底画像を用いるのをアシストすることができるようにする。例えば、医師が、陥凹乳頭径比が正常な人間の目の範囲内に収まっており、視神経欠損の確率が50%以下であることを確認した場合、医師はまず患者が正常であると考え得る。医師が、陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であることを確認した場合、医師はまず患者が良性緑内障の疑いがあると考え得る。医師が、陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が悪性緑内障であると考え得る。医師は、患者が眼科用光干渉断層撮影を撮る必要があると考え、次いで医師は断層撮影に基づいて診断が確定されたかどうかを判断する。このようにして、画像処理システムと画像処理方法は、多くの情報を生成し、視神経欠損の確率と陥凹乳頭径比を統合して、医師が患者の緑内障の重症度を評価する助けをすることができる。
本発明は、添付の図面を参照しながら以下の詳細な説明から、より完全に理解することができる。
図1は、本発明の一実施形態による画像処理システムのブロック図である。 図2は、本発明の一実施形態による画像処理方法の概略図である。 図3は、本発明の一実施形態による血管セグメンテーション画像を生成する方法を示す概略図である。 図4は、本発明の一実施形態による視神経欠損状態の評価方法を示す概略図である。 図5は、本発明の実施形態によるU-Net深層学習セグメンテーションネットワークの概略図である。 図6は、本発明の一実施形態による画像処理方法のフローチャートである。 図7は、本発明の一実施形態による視神経乳頭陥凹(optic cup)および視神経乳頭(optic disc)システムのモデルの概略図である。 図8は、本発明の一実施形態によるニューラル乳頭意味解析画像(neural cup semantic analysis image)の概略図である。 図9は、本発明の一実施形態による視神経乳頭陥凹の意味解析画像(neural cup semantic analysis image)の概略図である。
上述の説明では、本発明を実施するベストモードを開示している。この説明は、本発明の一般原理を例示する目的のものであり、本発明を限定するものではない。本発明の範囲は、添付の特許請求の範囲を参考にして決定される。
本発明は、特定の実施形態に関して、且つ特定の図面を参照して説明されるが、本発明はこれに限定されるものではなく、請求項によってのみ限定される。更に理解されることであろうが、用語「含む(comprises)」、「含む(comprising)」、「含む(includes)」および/または「含む(including)」が本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素および/または構成要素の存在を特定するが、1つ又は複数の他の特徴、整数、ステップ、動作、要素、構成要素および/またはこれらの群の存在或いはこれらの追加を除外するものではない。
クレーム要素を変えるための、請求項における「第1の」、「第2の」、「第3の」等の序数詞の使用は、それ自体が、1つのクレーム要素を他のクレーム要素と比較して優先度、序列、又は順序を示唆するものではなく、むしろ、単にクレーム要素を区別するために、特定の名前を有する1つのクレーム要素を同じ名前を有する他の要素から区別するためのラベルとして(だけ、序数詞を)使用している。
図1~図3に示すように、図1は、本発明の一実施形態による画像処理システム100のブロック図である。図2は、本発明の一実施形態による画像処理方法の概略図である。図3は、本発明の一実施形態による血管セグメンテーション画像を生成する方法を示す概略図である。
図1に示されるように、画像処理システム100は、検眼鏡装置10およびプロセッサ20を含む。
一実施形態では、検眼鏡装置10がカラー眼底画像を得るのに用いられる。
一実施形態では、検眼鏡装置10は、直接検眼鏡または間接検眼鏡であり得る。直接検眼鏡を例にとると、検眼鏡装置10は、瞳孔を拡張することなく眼底を直接検査することができる。検査は暗い部屋で行われ、医師DRは、検眼鏡装置10を患者PTの右眼または左眼に近づける。検眼鏡装置10の前部は患者PTと接触しており、前眼部開口Aは患者の目を位置合わせするように用いられ、光色(light color)ノブBは発光のために用いられる。いくつかの例では、光色ノブBは、医師DRが検眼鏡装置10の前部を緑色光、白色光、または偏光に発光するのを選択するようにさせることができる。緑色光は血管の大網出血を観察するために用いられ、白色光は一般的な検査に用いられ、偏光は角膜の反射をなくすために用いられる。角膜の反射がなくなると、眼底の観察がしやすくなる。鋼製リングノブCは、医師DRが検眼鏡装置10の前部にある小さい開口、大きい開口、青色の開口などを選択することができるようになっている。小さい開口は、小さい瞳孔に用いられ、大きい開口は大きい瞳孔に用いられ、青色の開口は、蛍光染色に用いられる。
検眼鏡装置10の裏側は、医師DRに面している。いくつかの検眼鏡装置10は、裏側にディスプレイを有する。医師DRは、ディスプレイから患者PTの眼底を直接見ることができる。一実施形態では、検眼鏡装置10は、デジタル眼底カメラである。一般に、200万画素以上のデジタルカメラが、図3のカラー眼底画像310などの高解像度眼底画像を得るのに用いられる。デジタルカメラは、眼底カメラの専用インターフェースに接続され、必要な眼底画像を撮影し、次いで、データ伝送リンクLKを介してコンピュータシステムに送信し、画像解析、保存、および印刷を行う。一実施形態では、プロセッサ20は、カラー眼底画像を受信し、画像分析を実行する役割を担う。
一実施形態では、検眼鏡装置10で撮影された眼底画像(即ち、カラー眼底画像310)は、有線または無線伝送によってコンピュータシステムに送信することができる。
しかしながら、市場には様々なスタイルやモデルの眼底検査装置があり、これはその一例である。カラー眼底画像を撮影することができる任意の検眼鏡装置であれば、実施形態に適用することができる。
一実施形態では、プロセッサ20は、ノートブックコンピュータ、デスクトップコンピュータ、タブレット、携帯電話、または他の電子機器に配置することができる。一実施形態では、プロセッサ30は、例えば、マイクロコントローラ、マイクロプロセッサ、デジタル信号プロセッサ、特定用途向け集積回路(ASIC)または論理回路として実施することができる。
画像処理方法200は以下に説明され、画像処理方法200は、画像処理システム100によって実施することができる。
ステップ210では、検眼鏡装置10は、カラー眼底画像310を得る。
一実施形態では、カラー眼底画像310は、眼球EBの画像である。眼球EBの画像は一般的に赤(または赤やオレンジなどの同様の色)である。視神経乳頭(optic disc)ODと視神経乳頭陥凹(optic cup)OCは、わずかに異なる色領域(例えば、黄色)を示す。
より具体的には、医師DRは、検眼鏡装置10を用いて眼底を検査し、医学的に視神経乳頭ODと呼ばれる円板(disk)に類似した構造を見ることができる。これは、視神経が眼球の後部から眼球を貫通する部分を指す。臨床的にこれが視神経の根部である。即ち、この部分の視神経線維は、傘のように約360度放射し(視神経線維は、視神経乳頭OD網(net)から拡張されたカラー眼底マップ310の一部であり、分岐を有する可能性がある)、網膜を構成する。視神経乳頭の外径は中央に陥凹を形成する。カップのような形をしていることから、眼杯OCと呼ばれている。いわゆる陥凹乳頭径比(cup-to-disc ratio: CDR)とは、医師DRがお皿の上にあるコップを見下ろすように、眼底を見ていることを指す。視神経乳頭陥凹OCと視神経乳頭ODの直径の比は、陥凹乳頭径比と呼ばれる。詳細は後述する。
ステップ220では、プロセッサ20は、カラー眼底画像310を受信し、画像セグメンテーション操作320を介して、カラー眼底画像310に対応する血管セグメンテーション画像330を生成し、カラー眼底画像310および血管セグメンテーション画像330に対して前処理を行い、初期入力画像410を得る。
一実施形態では、画像セグメンテーション操作320は、コンピュータビジョンアルゴリズムまたは深層学習モデルとして実装することができる。コンピュータビジョンアルゴリズムまたは深層学習モデル(例えば、畳み込みニューラルネットワーク、U-Netモデル)は、既存の方法を用いて実施することができる。
図3に示されるように、プロセッサ20がカラー眼底画像310を受信した後、プロセッサ20は、カラー眼底画像310の血管をセグメント化する必要がある。プロセッサ20は、画像セグメンテーション操作320(コンピュータビジョンアルゴリズムまたは深層学習モデル)を介して、カラー眼底画像310に対応する血管セグメンテーション画像330を生成する。言い換えれば、プロセッサ20は、カラー眼底画像310内の血管以外の画像をフィルタリングして、血管セグメンテーション画像330を生成する。
一実施形態では、血管セグメンテーション画像330は、グレースケール画像であり、前処理とは、カラー眼底画像310と血管セグメンテーション画像330を重ね合わせて、初期入力画像410を得ることを指す。
一実施形態では、プロセッサ20がカラー眼底マップ310内の赤色をフィルタリングした後、次いで、赤色がフィルタリングされたカラー眼底画像310と血管セグメンテーション画像330を重ね合わせる。
一実施形態では、プロセッサ20は、血管セグメンテーション画像330内で最も厚い血管画像Lを選択して、視神経乳頭画像の長軸を決定し、長軸に垂直な次に厚い血管画像Wを選択して、視神経乳頭画像の短軸を決定する。視神経乳頭陥凹画像の長軸は視神経乳頭画像の長軸に平行であり、視神経乳頭陥凹画像の短軸は視神経乳頭画像の短軸に平行である。プロセッサ20は、楕円フィッティングアルゴリズムを用いて、視神経乳頭画像の長軸および視神経乳頭画像の短軸に従って視神経乳頭画像を切り出す。プロセッサ20は、楕円フィッティングアルゴリズムを用いて、視神経乳頭陥凹画像の長軸および視神経乳頭陥凹画像の短軸に従って視神経乳頭画像を切り出す。視神経乳頭画像の詳細は後述する。
ステップ230では、プロセッサ20は、初期入力画像410を深層学習モデルに入力し、深層学習モデルは、値を出力する。
一実施形態では、深層学習モデルは、畳み込みニューラルネットワークなどのニューラルネットワークであり得る。
一実施形態では、深層学習モデルは、U-Net深層学習セグメンテーションネットワークを適用することができる。図5に示すように、図5は、本発明の実施形態によるU-Net深層学習セグメンテーションネットワークの概略図である。図5は、U-Net深層学習セグメンテーションネットワークを簡略化したものであり、U-Net深層学習セグメンテーションネットワークの概念を説明するためにのみ用いられる。実施中には、U-Net深層学習セグメンテーションネットワークのパラメータは、出力結果の精度に応じて調整することができる。U-Net深層学習セグメンテーションネットワークは、医用画像の画像セグメンテーションに一般的に用いられるネットワークである。一実施形態では、U-Net深層学習セグメンテーションネットワークの経路は、左側の収縮経路と右側の拡張経路によって形成され、左側では2x2の最大プーリングの方法が用いられてダウンサンプリングする。元の画像から抽出されたデータの量は長方形で表されているため、長方形の面積がますます小さくなっていることがわかる。右側では、2x2のアップコンボリューションを用いてアップサンプリングをし、次いで同次元の低深度の特徴テンソルを連結する。そのため、データ量を表す長方形がますます大きくなり、最終的にセグメンテーション画像が出力されることがわかる。これはほんの一例である。U-Net深層学習セグメンテーションネットワークは、さまざまなバリエーションを有することができる。U-Net深層学習セグメンテーションネットワークのパラメータは、実際の実施に応じて調整される、またはパラメータ(例えば、画素サンプリングを縮減するときにU-Net深層学習セグメンテーションネットワークによって撮像された複数の特徴)は、他のアプリケーション用に取り出すことができる。
一実施形態では、ステップ230において、U-Net深層学習セグメンテーションネットワークのいくつかのパラメータが、適用のために取り出される。例えば、プロセッサ20は、U-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を有するニューラルネットワークを形成し、初期入力画像410が正常であるかどうかを判定する。
図4に示すように、図4は、本発明の一実施形態による視神経欠損状態430の評価方法を示す概略図である。一実施形態では、プロセッサ20は、初期入力画像410を深層学習モデル420に入力する。深層学習モデル420は、視神経欠損状態430を出力する。視神経欠損状態430は、確率を表す数値であり得る。値が大きいほど視神経欠損の確率が高く、値が小さいほど視神経欠損の確率が低いことを示す。しかしながら、ここでの値の定義は一例に過ぎない。一実施形態では、深層学習モデル420によって出力された欠損430は、欠損の位置を枠で囲む(frame)か、または領域をマークし、その後、プロセッサ20が欠損状態を判定することができる。例えば、プロセッサ20は、全体的な初期入力画像410に対する欠損領域の比率を計算するか、または欠損位置が視神経の末端にあるか視神経の根にあるかどうかを判定する。
一実施形態では、プロセッサ20は、初期入力画像410をニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。ニューラルネットワークは、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を分類し、次いで、分類後の複数の特徴がニューラルネットワークに結合される。プロセッサ20は、初期入力画像410をニューラルネットワークに入力し、ニューラルネットワークは値を出力する。一実施形態では、プロセッサ20は、ピクセルサンプリングを低減するときに、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、これらの特徴を分類し、次いで分類された特徴をニューラルネットワークに結合する。また、プロセッサ20は、初期入力画像410をこのニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。
一実施形態では、プロセッサ20は、初期入力画像410をニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。ニューラルネットワークは、トレーニングされたU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、これらの各特徴の重みを固定し、完全接続層(fully connected layer)の重みを調整してニューラルネットワークを生成する。さらに、プロセッサ20は、初期入力画像410をこのニューラルネットワーク内に入力し、ニューラルネットワークは値を出力する。
ステップ240では、プロセッサ20は、陥凹乳頭径比および値に基づいて眼底画像解析情報を生成する。
一実施形態では、プロセッサ20は、値が閾値(例えば、50%の確率値である0.5)より大きいかどうかを判定するためにさらに用いられる。値が閾値より大きい場合、カラー眼底画像310は異常であると見なされる。値が閾値より大きくない場合、カラー眼底画像310は正常であると見なされる。従って、眼底画像解析情報は、カラー眼底画像310が正常または異常であるという情報を含む。カラー眼底像310が正常であることは、カラー眼底像310の神経線維が正常であることを表している。また、カラー眼底画像310が異常であることは、神経線維欠損がカラー眼底画像310に存在することを表している。
図6に示すように、図6は、本発明の一実施形態による画像処理方法600のフローチャートである。ステップ620および640は、並行して順次処理することができ、特定の処理順序はない。ステップ650および655は、並行して順次処理することができ、特定の処理順序はない。ステップ660および630が完了した後、ステップ670が実行される。
ステップ610では、プロセッサ20は、カラー眼底画像310を受信する。
ステップ620では、プロセッサ20は、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、カラー眼底画像310に対応する血管セグメンテーション画像330を生成し、カラー眼底画像310および血管セグメンテーション画像330に対して前処理を行い、初期入力画像410を取得する。
ステップ630では、プロセッサ20は、初期入力画像410を畳み込みニューラルネットワーク内に入力し、畳み込みニューラルネットワークは値を出力する。
図6および図7~図9に一緒に示すように、図7は、本発明の一実施形態による視神経乳頭陥凹(optic cup)および視神経乳頭(optic disc)システム700のモデルの概略図である。図8は、本発明の一実施形態によるニューラル乳頭意味解析画像(neural cup semantic analysis image)の概略図である。図9は、本発明の一実施形態による視神経乳頭陥凹の意味解析画像(neural cup semantic analysis image)の概略図である。陥凹乳頭径比を生成する方法は、以下、即ちステップ640~670で詳述する。
一実施形態では、プロセッサ20は、カラー眼底画像310内に視神経乳頭画像を配置する(ステップ640)。プロセッサ20は、視神経乳頭画像を切り出す(ステップ645)。プロセッサ20は、切り出された視神経乳頭画像を視神経乳頭システムに入力する。
一実施形態では、例えば、図3に示された血管セグメンテーション画像330は、このステップでは、プロセッサ20は、血管セグメンテーション画像330内で最も厚い血管画像Lを選択して、視神経乳頭画像の長軸を決定し、長軸に垂直な次に厚い血管画像を選択して、視神経乳頭画像の短軸を決定する。プロセッサ20は、楕円フィッティングアルゴリズムを用いて、視神経乳頭画像の長軸および視神経乳頭画像の短軸に従って視神経乳頭画像を切り出す。一実施形態では、プロセッサ20は、視神経乳頭画像の長軸、短軸、および楕円フィッティングアルゴリズムを用いて、視神経乳頭画像範囲を大まかに円で囲むことができる。プロセッサ20は、視神経乳頭の画像範囲を選択する最小の正方形を見つけることができる。切り出すとき、プロセッサ20は、最小の正方形の横軸および縦軸をもう少し拡大し(例えば、横軸の左右側に5画素、および縦軸の上下に5画素)、拡大された正方形を切り出することができる。正方形は、全ての視神経乳頭画像が範囲内にあることを確保するのに十分な大きさである。
一実施形態では、プロセッサ20は、視神経乳頭画像を深層学習セグメンテーションネットワークU1内に入力し、深層学習セグメンテーションネットワークU1は、ニューラル乳頭意味解析画像800を出力する(ステップ650)。
図8に示すように、ニューラル乳頭意味解析画像800は、グレースケール画像であり、その中の白色領域は、ニューラル乳頭画像範囲PODを表す。一実施形態では、深層学習セグメンテーションネットワークU1は、U-Net深層学習セグメンテーションネットワークである。プロセッサ20が視神経乳頭画像をU-Net深層学習セグメンテーションネットワーク内に入力した後、U-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像800では、ニューラル乳頭画像範囲PODは白色であり、残りは黒色である。
一実施形態では、プロセッサ20は、視神経乳頭画像を深層学習セグメンテーションネットワークU2内に入力し、深層学習セグメンテーションネットワークU2は、ニューラル乳頭意味解析画像800を出力する(ステップ655)。
図9に示すように、ニューラル乳頭陥凹意味解析画像900は、グレースケール画像であり、その中の白色領域は、ニューラル乳頭陥凹画像範囲POCを表す。一実施形態では、深層学習セグメンテーションネットワークU2は、もう1つのU-Net深層学習セグメンテーションネットワークである。プロセッサ20が視神経乳頭画像をもう1つのU-Net深層学習セグメンテーションネットワーク内に入力した後、もう1つのU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像800では、ニューラル乳頭陥凹画像範囲POCは白色であり、残りは黒色である。
一実施形態では、プロセッサ20が、視神経乳頭画像を切り出した後(ステップ645)、視神経乳頭画像の中心点を原点とし、極座標変換を行って、極座標変換された視神経乳頭画像を生成する。プロセッサ20は、極座標変換された視神経乳頭画像を、深層学習セグメンテーションネットワークU1内に入力し、深層学習セグメンテーションネットワークU1は、視神経乳頭意味解析画像800を出力する(ステップ650)。プロセッサ20は、極座標変換された視神経乳頭画像を、深層学習セグメンテーションネットワークU2内に入力し、深層学習セグメンテーションネットワークU2は、視神経乳頭意味解析画像を出力する(ステップ655)。極座標変換された視神経乳頭画像は棒グラフであるため、深層学習セグメンテーションネットワークU1およびU2は、円グラフを認識するよりも棒グラフを認識する方が優れている。従って、極座標変換された視神経乳頭画像は、深層学習セグメンテーションネットワークU1およびU2の認識精度を向上させることができる。
一実施形態では、切り出された視神経乳頭画像、ニューラル乳頭意味解析画像800、およびニューラル乳頭陥凹意味解析画像900は、同次元を有する。深層学習セグメンテーションネットワークU1とU2の入力は、全て同じ切り出された視神経乳部の画像である。深層学習セグメンテーションネットワークU1は、ニューラル乳頭意味解析画像800を出力し、深層学習セグメンテーションネットワークU2は、ニューラル乳頭陥凹意味解析画像900を出力する。
ステップ660では、プロセッサ20は、ニューラル乳頭意味解析画像800(即ち、ニューラル乳頭画像範囲POD)の白色領域を、ニューラル乳頭陥凹意味解析画像900(即ち、ニューラル乳頭陥凹画像範囲POC)の白色領域で分割し、陥凹乳頭径比を得る。
ステップ670では、プロセッサ20は、陥凹乳頭径比および値に従って眼底画像解析情報を生成する。
一実施形態では、眼底画像解析情報は、陥凹乳頭径比、陥凹乳頭径比が正常な人間の眼の範囲内にあるかどうか、視神経線維に欠損があるかどうか(視神経線維が正常かまたは異常か)などを含む。
本発明に示される画像処理システムおよび画像処理方法は、カラー眼底画像を解析して、陥凹乳頭径比および視神経欠損の確率を計算し、眼底画像解析情報を用いて、医師が緑内障の診断にカラー眼底画像を用いるのをアシストすることができるようにする。例えば、医師が陥凹乳頭径比が正常な人間の目の範囲内に収まっており、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が正常であると考え得る。医師が陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が良性緑内障の疑いがあると考え得る。医師が陥凹乳頭径比が正常な人間の目の範囲内に収まっておらず、視神経欠損の確率が50%以下であると確認した場合、医師はまず患者が悪性緑内障であると考え得る。医師は、患者が眼科用光干渉断層撮影を撮る必要があると考え、次いで医師は断層撮影に基づいて診断が確定されたかどうかを判断する。このようにして、画像処理システムと画像処理方法は、多くの情報を生成し、視神経欠損の確率と陥凹乳頭径比を統合して、医師が患者の緑内障の重症度を評価する助けをすることができる。
本発明の方法、またはその特定の形態または一部は、コードの形態で存在することができる。コードは、フロッピーディスク、CD-ROM、ハードディスク、または他の機械読み取り可能な(コンピュータ読み取り可能な)記憶媒体などの物理媒体、または外部形式に限定されないコンピュータプログラム製品に含まれることもできる。コンピュータなどの機械によってプログラムコードがローディングされて実行されたとき、その機械は、本発明に関与する装置となる。コードは、ワイヤまたはケーブル、光ファイバー、または任意の伝送タイプなど、いくつかの伝送媒体を介して伝送することもできる。コードがコンピュータなどの機械によって受信され、ローディングされて実行されたとき、その機械は、本発明に関与する装置となる。汎用処理ユニットに実装されたとき、処理ユニットと組み合わされたコードは、アプリケーション固有の論理回路と同様に動作する独自の装置を提供する。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の精神と領域を脱しない範囲内で各種の変更や潤色を加えることができ、従って本発明の保護範囲は、特許請求の範囲で指定した内容を基準とする。
100 画像処理システム
PT 患者
10 検眼鏡装置
A 前眼部開口
B 光色ノブ
C 鋼製リングノブ
DR 医師
LK データ伝送リンク
20 プロセッサ
200 画像処理方法
210~240 ステップ
310 カラー眼底画像
EB 眼球
OD 視神経乳頭(optic disc)
OC 視神経乳頭陥凹(optic cup)
320 画像セグメンテーション操作
330 血管セグメンテーション画像
L 最も厚い血管画像
W 長軸に垂直なもう1つの厚い血管画像
410 初期入力画像
420 深層学習モデル
430 視神経欠損状態
U1、U2 深層学習セグメンテーションネットワーク
600 画像処理方法
610~670 ステップ
800 ニューラル乳頭意味解析画像
POD ニューラル乳頭画像範囲
900 ニューラル乳頭陥凹意味解析画像
POC ニューラル乳頭陥凹画像範囲


Claims (20)

  1. カラー眼底画像を得るように構成された検眼鏡装置、および
    前記カラー眼底画像を受信するように構成され、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、前記カラー眼底画像に対応する血管セグメンテーション画像を生成し、前記カラー眼底画像と前記血管セグメンテーション画像を前処理して、初期入力画像を得て、前記初期入力画像を畳み込みニューラルネットワーク内に入力し、前記畳み込みニューラルネットワークは値を出力するプロセッサを含み、
    前記プロセッサは、前記陥凹乳頭径比および値に従って眼底画像解析情報を生成する画像処理システム。
  2. 前記プロセッサは、前記値が閾値より大きいかどうかを判定するためにさらに用いられ、前記値が前記閾値より大きい場合、前記カラー眼底画像は異常であると見なされ、前記値が前記閾値より大きくない場合、前記カラー眼底画像は正常であると見なされる請求項1に記載の画像処理システム。
  3. 前記プロセッサは、視神経乳頭画像を前記カラー眼底画像に配置し、前記視神経乳頭画像を切り取り、前記視神経乳頭画像を第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークはニューラル乳頭意味解析画像を出力し、前記視神経乳頭画像を第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークはニューラル乳頭意味解析画像を出力し、前記ニューラル乳頭意味解析画像の白色領域を、前記ニューラル乳頭陥凹意味解析画像の白色領域で分割し、前記陥凹乳頭径比を得る請求項1に記載の画像処理システム。
  4. 前記第1の深層学習セグメンテーションネットワークは、第1のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第1のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像では、前記視神経乳頭画像範囲は白色であり、残りは黒色であり、
    前記第2の深層学習セグメンテーションネットワークは、第2のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第2のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭陥凹意味解析画像では、前記視神経乳頭陥凹画像範囲は白色であり、残りは黒色であり、
    前記視神経乳頭画像、前記ニューラル乳頭意味解析画像、および前記ニューラル神経陥凹意味解析画像の次元は同じである請求項3に記載の画像処理システム。
  5. 前記血管セグメンテーション画像は、グレースケール画像であり、前記前処理とは、前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせることを指す請求項1に記載の画像処理システム。
  6. 前記プロセッサは前記カラー眼底マップ内の赤色をフィルタリングした後、次いで、赤色がフィルタリングされた前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせる請求項5に記載の画像処理システム。
  7. 前記プロセッサは、前記初期入力画像をニューラルネットワーク内に入力し、前記ニューラルネットワークは、前記値を出力し、前記ニューラルネットワークは、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を分類し、次いで、分類後の前記複数の特徴が前記ニューラルネットワークに結合される請求項1に記載の画像処理システム。
  8. 前記プロセッサは、前記初期入力画像をニューラルネットワーク内に入力し、前記ニューラルネットワークは前記値を出力し、前記ニューラルネットワークは、トレーニングされたU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、各前記特徴に対応する重みを固定し、完全接続層(fully connected layer)の重みを調整してニューラルネットワークを生成する請求項1に記載の画像処理システム。
  9. 前記プロセッサが、前記視神経乳頭画像を切り出した後、前記視神経乳頭画像の中心点を原点とし、極座標変換を行って、極座標変換された視神経乳頭画像を生成し、前記プロセッサは、前記極座標変換された視神経乳頭画像を、前記第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークは、前記視神経乳頭意味解析画像を出力し、前記プロセッサは、前記極座標変換された視神経乳頭画像を、前記第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークは、前記視神経乳頭意味解析画像を出力する請求項3に記載の画像処理システム。
  10. 前記プロセッサは、前記血管セグメンテーション画像内で最も厚い血管画像を選択して、前記視神経乳頭画像の長軸を決定し、長軸に垂直な次に厚い血管画像を選択して、前記視神経乳頭画像の短軸を決定し、視神経乳頭陥凹画像の長軸は前記視神経乳頭画像の長軸に平行であり、視神経乳頭陥凹画像の短軸は前記視神経乳頭画像の短軸に平行であり、前記プロセッサは、楕円フィッティングアルゴリズムを用いて、前記視神経乳頭画像の長軸および前記視神経乳頭画像の短軸に従って前記視神経乳頭画像を切り出し、前記プロセッサは、楕円フィッティングアルゴリズムを用いて、前記視神経乳頭陥凹画像の長軸および前記視神経乳頭陥凹画像の短軸に従って前記視神経乳頭画像を切り出す請求項1に記載の画像処理システム。
  11. 検眼鏡装置からカラー眼底画像を得るステップ、および
    前記カラー眼底画像をプロセッサで受信し、コンピュータビジョンアルゴリズムまたは深層学習モデルを用いて、前記カラー眼底画像に対応する血管セグメンテーション画像を生成し、前記カラー眼底画像と前記血管セグメンテーション画像を前処理して、初期入力画像を得て、前記初期入力画像を畳み込みニューラルネットワーク内に入力し、前記畳み込みニューラルネットワークは値を出力するステップを含み、
    前記プロセッサは、前記陥凹乳頭径比および値に従って眼底画像解析情報を生成する画像処理方法。
  12. 前記プロセッサは、前記値が閾値より大きいかどうかを判定するステップをさらに含み、
    前記値が前記閾値より大きい場合、前記カラー眼底画像は異常であると見なされ、前記値が前記閾値より大きくない場合、前記カラー眼底画像は正常であると見なされる請求項11に記載の画像処理方法。
  13. 前記プロセッサは、視神経乳頭画像を前記カラー眼底画像に配置し、前記視神経乳頭画像を切り取るステップ、
    前記視神経乳頭画像を第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークからニューラル乳頭意味解析画像を出力するステップ、
    前記視神経乳頭画像を第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークからニューラル乳頭意味解析画像を出力するステップ、および
    前記ニューラル乳頭意味解析画像の白色領域を、前記ニューラル乳頭陥凹意味解析画像の白色領域で分割し、前記陥凹乳頭径比を得るステップをさらに含む請求項11に記載の画像処理方法。
  14. 前記第1の深層学習セグメンテーションネットワークは、第1のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第1のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭意味解析画像では、前記視神経乳頭画像範囲は白色であり、残りは黒色であり、
    前記第2の深層学習セグメンテーションネットワークは、第2のU-Net深層学習セグメンテーションネットワークであり、前記プロセッサが前記視神経乳頭画像を前記U-Net深層学習セグメンテーションネットワーク内に入力したとき、前記第2のU-Net深層学習セグメンテーションネットワークによって出力されたニューラル乳頭陥凹意味解析画像では、前記視神経乳頭陥凹画像範囲は白色であり、残りは黒色であり、
    前記視神経乳頭画像、前記ニューラル乳頭意味解析画像、および前記ニューラル神経陥凹意味解析画像の次元は同じである請求項13に記載の画像処理方法。
  15. 前記血管セグメンテーション画像は、グレースケール画像であり、前記前処理とは、前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせることを指す請求項11に記載の画像処理方法。
  16. 前記カラー眼底マップ内の赤色をフィルタリングした後、次いで、赤色がフィルタリングされた前記カラー眼底画像と前記血管セグメンテーション画像を重ね合わせる請求項15に記載の画像処理方法。
  17. 前記初期入力画像をニューラルネットワーク内に入力し、前記ニューラルネットワークから前記値を出力するステップをさらに含み、
    前記ニューラルネットワークは、トレーニングされていないU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を分類し、次いで、分類後の前記複数の特徴が前記ニューラルネットワークに結合される請求項11に記載の画像処理方法。
  18. 前記ニューラルネットワークが前記値を出力した後、前記初期入力画像をニューラルネットワーク内に入力するステップをさらに含み、
    前記ニューラルネットワークは、トレーニングされたU-Net深層学習セグメンテーションネットワークによって抽出された複数の特徴を取り出し、各前記特徴に対応する重みを固定し、完全接続層(fully connected layer)の重みを調整してニューラルネットワークを生成する請求項11に記載の画像処理方法。
  19. 前記視神経乳頭画像を切り出した後、前記視神経乳頭画像の中心点を原点とし、極座標変換を行って、極座標変換された視神経乳頭画像を生成するステップ、
    前記極座標変換された視神経乳頭画像を、前記第1の深層学習セグメンテーションネットワーク内に入力し、前記第1の深層学習セグメンテーションネットワークから前記視神経乳頭意味解析画像を出力するステップ、および
    前記極座標変換された視神経乳頭画像を、前記第2の深層学習セグメンテーションネットワーク内に入力し、前記第2の深層学習セグメンテーションネットワークから前記視神経乳頭意味解析画像を出力するステップをさらに含む請求項13に記載の画像処理方法。
  20. 前記血管セグメンテーション画像内で最も厚い血管画像を選択して、前記視神経乳頭画像の長軸を決定するステップ、
    長軸に垂直な次に厚い血管画像を選択して、前記視神経乳頭画像の短軸を決定するステップ、
    その中の視神経乳頭陥凹画像の長軸は前記視神経乳頭画像の長軸に平行であり、視神経乳頭陥凹画像の短軸は前記視神経乳頭画像の短軸に平行であり、
    楕円フィッティングアルゴリズムを用いて、前記視神経乳頭画像の長軸および前記視神経乳頭画像の短軸に従って前記視神経乳頭画像を切り出すステップ、および
    前記プロセッサは、楕円フィッティングアルゴリズムを用いて、前記視神経乳頭陥凹画像の長軸および前記視神経乳頭陥凹画像の短軸に従って前記視神経乳頭画像を切り出すステップをさらに含む請求項11に記載の画像処理方法。
JP2021129318A 2020-11-26 2021-08-05 画像処理システムおよび画像処理方法 Active JP7270686B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW109141552 2020-11-26
TW109141552A TWI746287B (zh) 2020-11-26 2020-11-26 影像處理系統及影像處理方法

Publications (2)

Publication Number Publication Date
JP2022084511A true JP2022084511A (ja) 2022-06-07
JP7270686B2 JP7270686B2 (ja) 2023-05-10

Family

ID=75252473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021129318A Active JP7270686B2 (ja) 2020-11-26 2021-08-05 画像処理システムおよび画像処理方法

Country Status (4)

Country Link
US (1) US11887299B2 (ja)
EP (1) EP4006833A1 (ja)
JP (1) JP7270686B2 (ja)
TW (1) TWI746287B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580673B1 (en) * 2019-06-04 2023-02-14 Duke University Methods, systems, and computer readable media for mask embedding for realistic high-resolution image synthesis
CN111862187B (zh) * 2020-09-21 2021-01-01 平安科技(深圳)有限公司 基于神经网络的杯盘比确定方法、装置、设备及存储介质
TWI784688B (zh) * 2021-08-26 2022-11-21 宏碁股份有限公司 眼睛狀態評估方法及電子裝置
CN117689893B (zh) * 2024-02-04 2024-06-04 智眸医疗(深圳)有限公司 激光扫描超广角眼底图像语义分割方法、系统及终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018046958A (ja) * 2016-09-21 2018-03-29 株式会社トプコン 眼科撮影装置及び眼科画像処理装置
CN110992382A (zh) * 2019-12-30 2020-04-10 四川大学 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统
CN111863241A (zh) * 2020-07-10 2020-10-30 北京化工大学 一种基于集成深度学习的眼底照分类系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10405739B2 (en) * 2015-10-23 2019-09-10 International Business Machines Corporation Automatically detecting eye type in retinal fundus images
WO2018095994A1 (en) 2016-11-22 2018-05-31 Delphinium Clinic Ltd. Method and system for classifying optic nerve head
CN108771530B (zh) * 2017-05-04 2021-03-30 深圳硅基智能科技有限公司 基于深度神经网络的眼底病变筛查系统
WO2019083129A1 (ko) * 2017-10-27 2019-05-02 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
JP7229881B2 (ja) * 2018-08-14 2023-02-28 キヤノン株式会社 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
JP2020103714A (ja) * 2018-12-28 2020-07-09 株式会社トプコン 血流計測装置、その制御方法、プログラム、及び記録媒体
CN110033422B (zh) * 2019-04-10 2021-03-23 北京科技大学 一种眼底oct图像融合方法及装置
CN111724381B (zh) * 2020-06-24 2022-11-01 武汉互创联合科技有限公司 基于多视图交叉验证的显微图像细胞计数与姿态识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018046958A (ja) * 2016-09-21 2018-03-29 株式会社トプコン 眼科撮影装置及び眼科画像処理装置
CN110992382A (zh) * 2019-12-30 2020-04-10 四川大学 用于辅助青光眼筛查的眼底图像视杯视盘分割方法及系统
CN111863241A (zh) * 2020-07-10 2020-10-30 北京化工大学 一种基于集成深度学习的眼底照分类系统

Also Published As

Publication number Publication date
TWI746287B (zh) 2021-11-11
EP4006833A1 (en) 2022-06-01
JP7270686B2 (ja) 2023-05-10
US20220164947A1 (en) 2022-05-26
TW202221637A (zh) 2022-06-01
US11887299B2 (en) 2024-01-30

Similar Documents

Publication Publication Date Title
JP7270686B2 (ja) 画像処理システムおよび画像処理方法
CN109784337B (zh) 一种黄斑区识别方法、装置及计算机可读存储介质
US10441160B2 (en) Method and system for classifying optic nerve head
Patton et al. Retinal image analysis: concepts, applications and potential
JP7413147B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN114207736A (zh) 信息处理装置、信息处理方法、信息处理系统和程序
JP2016002380A (ja) 画像処理装置、その作動方法及びプログラム
JP7264195B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置、画像表示装置、及び画像表示方法
WO2017020045A1 (en) System and methods for malarial retinopathy screening
US20210259546A1 (en) Portable system for identifying potential cases of diabetic macular oedema using image processing and artificial intelligence
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
Attiku et al. Current status and future possibilities of retinal imaging in diabetic retinopathy care applicable to low-and medium-income countries
Tobin Jr et al. Characterization of the optic disc in retinal imagery using a probabilistic approach
CN115272255A (zh) 一种利用眼底彩照自动生成荧光造影图像的方法
Nirmala et al. Retinal image analysis: A review
JP7457315B2 (ja) 情報処理装置、推論モデル生成方法、情報処理方法、及びプログラム
Pinos-Velez et al. Implementation of support tools for the presumptive diagnosis of Glaucoma through identification and processing of medical images of the human eye
WO2022097620A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7494855B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2021145805A (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
CN114764777A (zh) 影像处理系统及影像处理方法
CN116894805B (zh) 基于广角眼底图像的病变特征的识别系统
CN113592780B (zh) 一种眼底图像分类方法、装置、设备及存储介质
WO2022157838A1 (ja) 画像処理方法、プログラム、画像処理装置、眼科システム
US20240081642A1 (en) En face retinal vessel shadow view optical coherence tomography images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230425

R150 Certificate of patent or registration of utility model

Ref document number: 7270686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150