JP2021500180A - 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置 - Google Patents

被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置 Download PDF

Info

Publication number
JP2021500180A
JP2021500180A JP2020523359A JP2020523359A JP2021500180A JP 2021500180 A JP2021500180 A JP 2021500180A JP 2020523359 A JP2020523359 A JP 2020523359A JP 2020523359 A JP2020523359 A JP 2020523359A JP 2021500180 A JP2021500180 A JP 2021500180A
Authority
JP
Japan
Prior art keywords
information
fundus image
region
macula
assisting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020523359A
Other languages
English (en)
Other versions
JP2021500180A5 (ja
JP7178672B2 (ja
JP7178672B6 (ja
Inventor
サンジュン バク
サンジュン バク
ジュヨン シン
ジュヨン シン
ジェミン ソン
ジェミン ソン
サングン ギム
サングン ギム
ギュファン ジョン
ギュファン ジョン
ヒョンジュン ギム
ヒョンジュン ギム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vuno Inc
Original Assignee
Vuno Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170141130A external-priority patent/KR101848322B1/ko
Priority claimed from KR1020170141129A external-priority patent/KR101848321B1/ko
Application filed by Vuno Inc filed Critical Vuno Inc
Publication of JP2021500180A publication Critical patent/JP2021500180A/ja
Publication of JP2021500180A5 publication Critical patent/JP2021500180A5/ja
Publication of JP7178672B2 publication Critical patent/JP7178672B2/ja
Application granted granted Critical
Publication of JP7178672B6 publication Critical patent/JP7178672B6/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Eye Examination Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、被検体に対する眼底映像の読取を支援する方法及びそれを利用したコンピューティング装置に関する。詳しくは、本発明によつコンピューティング装置は、前記被検体の眼底映像を獲得し、前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出し、抽出された前記属性情報を外部エンティティ(entity)に提供する。また、本発明によるコンピューティング装置は、前記抽出された属性情報に関する評価情報または属性情報の修正情報が獲得されたら、それに基づいて前記機械学習モデルを更新することもできる。【選択図】図3

Description

本発明は、被検体に対する眼底映像の読取を支援する方法及びそれを利用したコンピューティング装置に関する。詳しくは、本発明によるコンピューティング装置は、前記被検体の眼底映像を獲得し、前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出し、抽出された前記属性情報を外部エンティティ(entity)に提供する。また、本発明によるコンピューティング装置は、前記抽出された属性情報に関する評価情報または属性情報の修正情報が獲得されたら、それに基づいて前記機械学習モデルを更新することもできる。
眼底映像は、網膜、視神経、黄斑部の異常を観察することができるため、眼科で読取用に頻繁に活用されている。しかし、眼底映像を読み取るために提供されていた従来のラベリング(labeling)システムは、以下のいくつかの側面で効率的または効果的ではなかった。
まず、従来のラベリングシステムは、選択項目間の論理的関係を考慮せず、不必要であるか非合理的なラベリングを行う場合があった。詳しくは、疾病間の排他的な関係が考慮されず、病理学的に不可能なラベリングを許容する場合があった。
また、従来のラベリングシステムは所見(finding)と診断(diagnosis)を混用して効率的なデータの管理が難しく、所見に対応する位置を表示するための区画の設定が眼球の構造的特性を反映しない短所があった。
よって、本発明ではこのような問題点を解決し、医療チームをしてより効率的で正確に眼底映像に対するラベリングができるように支援する眼底映像の読取支援方法及びそれを利用した装置を提案しようとする。
Goodfellow,Ian J.;Pouget−Abadie,Jean;Mirza,Mehdi;Xu,Bing;Warde−Farley,David;Ozair,Sherjil;Courville,Aaron;Bengio,Yoshua(2014)."Generative Adversarial Networks" Ronneberger O.,Fischer P.,Brox T.(2015)U−Net:Convolutional Networks for Biomedicla Image Segmentation.In:Navab N.,Hornegger J.,Wells W.,Frangi A.(eds)Medical Image Computing and Computer−Assisted Intervention−MICCAI 2015.Lecture Notes in Computer Science,vol 9315.Springer,Cham
本発明は、人工知能を利用して解剖学的特性を反映して区画される領域を提供することで、眼底映像読取の便宜を適用することを目的とする。
また、本発明は論理的に適切な項目のみを選別してラベリングシステムに含ませることで、疾病の排他的関係をラベリング項目に反映するだけでなく、所見と診断を互いに区分して効率的にデータがまとめられるようにすることを目的とする。
そして、本発明は、主要所見の位置的特性と眼球の構造的特性を考慮した区画設定、特に黄斑と視神経乳頭の位置を自動的に探知して区画分割を容易にすることを目的とする。
上述した本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は下記のとおりである。
本発明の一様態によると、被検体に対する眼底映像の読取を支援する方法が提供されるが、その方法は、(a)コンピューティング装置が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置に連動される他の装置をして獲得するように支援するステップと、(b)前記コンピューティング装置が、前記眼底映像の属性情報を抽出するための機械学習モデル(machine learning model)に基づいて前記眼底映像から前記属性情報を抽出するか、前記他の装置をして抽出するように支援するステップと、(c)前記コンピューティング装置が、抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援するステップと、を含む。
好ましくは、前記方法は、(d)前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報が獲得されたら、前記コンピューティング装置が、前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップを更に含む。
本発明の他の一様態によると、被検体に対する眼底映像の読取を支援する方法が提供されるが、その方法は、(a)コンピューティング装置が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置に連動される他の装置をして獲得するように支援するステップと、(b)前記コンピューティング装置が、(i)前記眼底映像の正常可否情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、(c)前記コンピューティング装置が、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、(i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセルと、(ii)前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、(d)前記コンピューティング装置が、(i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、(e)前記コンピューティング装置が、前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記他の装置をして貯蔵または提供するように支援するステップと、を含む。
本発明の他の様態によると、本発明による他の方法を行うように具現された命令語(instructions)を含む、機械読取可能な非一時的記録媒体に貯蔵された、コンピュータプログラムも提供される。
本発明のまた他の様態によると、被検体に対する眼底映像の読取を支援する方法が提供されるが、そのコンピューティング装置は、前記被検体の眼底映像を獲得する通信部と、前記通信部を介して獲得された前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出するか、前記通信部を介して前記他の装置をして抽出するように支援するプロセッサと、を含むが、前記プロセッサは、抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援する。
好ましくは、前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報が前記通信部を介して獲得されたら、前記プロセッサは、前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新するか、前記他の装置をして更新するように支援する。
本発明のまた他の一様態によると、被検体に対する眼底映像の読取を支援するコンピューティング装置が提供されるが、そのコンピューティング装置は、前記被検体の眼底映像を獲得する入力モジュールを具現する通信部と、(1−i)前記眼底映像の正常可否情報を生成するか、前記通信部を介して連動される他の装置をして生成するように支援するプロセスと、(1−ii)前記通信部を介して少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う判別モジュールを具現するプロセッサと、を含むが、前記判別モジュールは、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、前記プロセッサは、(2−i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(2−ii)前記通信部を介して前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う所見入力モジュールと、(3−i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(3−ii)前記通信部を介して前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う診断結果入力モジュールと、前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記通信部を介して前記他の装置をして貯蔵または提供するように支援する貯蔵及び伝送モジュールと、を更に具現する。
本発明によると、従来の眼底映像ラベルイング方式のような論理的、病理学的に不必要であるか非合理的な読取を防止することができ、眼球の構造的特性を考慮した区画設定によって、所見に対応する位置を効果的に表示することができる効果がある。
また、本発明によると、効率的にデータをまとめることができて人工知能学習モデルのためのデータの取得が容易であり、事前に学習された情報を介して読取に容易に利用し得る初期の属性情報、例えば、両眼区分情報、黄斑及び視神経乳頭の位置情報、血管情報、C/D比(cup−to−disk ratio)の情報などが提供される効果がある。
これによって、本発明には論理的、病理学的に不可能な読取をシステムから抜き出すようにして医療チームがミスをする余地を除去する効果があり、ユーザの使用経験が蓄積されるほど学習モデルが持続的に更新されることで正確度が上がる長所がある。
要するに、効率的で正確な読取を可能にすることで、医療チームの時間を節約し診療の質を上げて、医療現場におけるワークフロー(workflow)を革新する効果がある。
そして、本発明によると、従来病院で利用されていた眼底撮影映像、例えば、眼底撮影機器及び医用画像保管電送システム(PACS)から獲得された映像をそのまま活用することができるため、本発明の方法は、コンピュータ運営体制に従属されない。
本発明の実施例の説明に利用されるために添付された以下の図面は本発明の実施例のうち単に一部に過ぎず、本発明が属する技術分野における通常の知識を有する者(以下、「通常の技術者」という)にとっては発明的作業が行われずにこの図面に基づいて他の図面が得られる。
本発明に利用される機械学習モデルの一例示であって、CNN(convolutional neural network;畳み込みニューラルネットワーク)の主要概念を示す図である。 本発明によって被検体に対する眼底映像の読取を支援する方法(以下、「眼底映像読取支援方法」という)を行うコンピューティング装置の例示的構成を概略的に示す概念図である。 本発明による眼底映像読取支援方法を行うコンピューティング装置のハードウェア及びソフトウェアアーキテクチャを例示的に示す概念図である。 本発明による眼底映像読取支援方法の一実施例において、血管の映像のみを分離して示す血管情報を例示的に示す図である。 視神経乳頭及び黄斑中心の位置を検出する従来の方式を説明するために示す図である。 本発明による眼底映像読取支援方法の一実施例において、視神経乳頭及び黄斑中心の位置を検出するための機械学習モデルを例示する図である。 本発明による眼底映像読取支援方法の一実施例において、抽出される眼底映像の区画を示す区画区分情報を例示的に示す図である。 本発明による眼底映像読取支援方法の一実施例を例示的に示すフローチャートである。 本発明による眼底映像読取支援方法の他の実施例を例示的に示すフローチャートである。 図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI;user interface)を例示的に示す図である。 図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。 図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。 図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。 図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。 図9に例示した実施例において、所見情報から診断情報を生成する方式の一例としてベイジアンネットワークを示す図である。
後述する本発明に対する詳細な説明は、本発明の目的、技術的解法、及び長所を明確にするために、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。これらの実施例は通常の技術者が本発明を十分に実施し得るように詳細に説明される。
そして、本発明の詳細な説明及び請求項にわたって「学習」または「ラーニング」は手順によるコンピューティング(computing)を介して機械学習(machine learning)を行うことを意味する用語であるゆえ、人間の教育活動のような精神的作用を称するように意図されていないことを通常の技術者は理解できるはずである。
そして、本発明の詳細な説明及び請求項にわたって、「含む」という単語及びその変形は、他の技術的特徴、付加物、構成要素、またはステップを除外すると意図されていない。通常の技術者にとって本発明の他の目的、長所、及び特性は、一部は本説明書から、そして一部は本発明の実施例から明らかになるはずである。以下の例示及び図面は実例として提供され、本発明を限定するように意図されていない。
なお、本発明は、本明細書に示した実施例の全ての可能な組み合わせを網羅する。本発明の多様な実施例は、互いに異なるが相互排他的な必要はないことを理解すべきである。例えば、ここに記載されている特定の形状、構造、及び特性は、実施例に関して本発明の思想及び範囲を逸脱しないながらも他の実施例に具現されてもよい。また、それぞれの開示された実施例内の個別の構成要素の位置または配置は、本発明の思想及び範囲を逸脱しないながらも変更され得ることを理解すべきである。よって、後述する詳細な説明は限定的な意味で取られるのではなく、本発明の範囲は、適切に説明されるのであれば、その請求項が主張するものと均等な全ての範囲と共に添付した請求項によってのみ限られる。図面において、類似した参照符号は多様な側面にわたって同じであるか類似した機能を指す。
本明細書において、異なるように表示されるか明白に文脈に矛盾しない限り、単数に称された項目は、その文脈で異なるように要求されない限り、複数のものを併せる。また、本発明を説明するに当たって、関連する公知構成または機能に関する具体的な説明が本発明の要旨を不明確にする恐れがあると判断される場合、その詳細な説明は省略する。
以下、通常の技術者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について添付した図面を参照して詳細に説明する。
図1は、本発明に利用される機械学習モデルの一例示であって、CNNの主要概念を示す図である。
図1を参照すると、本発明で利用される機械学習モデルのうち、深い神経網モデルは人工神経網を多層に積み上げた形態に簡略に説明される。つまり、深い構造のネットワークという意味で深い神経網またはディープ神経網(deep neural network)と表現し、図1に示したように、多層のネットワークからなる構造で多量のデータを学習させることでそれぞれの生体信号の特徴、生体信号間の関係を自動的に学習し、それを介して目的関数、つまり、致命的症状の予測正確度のエラー(error)を最小化する方法でネットワークを学習させていく形態である。これは、一見人間の頭脳の神経細胞間の連結とも表現されるゆえ、このような深い神経網は人工知能の次世代モデルとして位置づけられている。
次に、図2は本発明による眼底映像読取支援方法を行うコンピューティング装置の例示的構成を概略的に示す概念図である。
図2を参照すると、本発明の一実施例によるコンピューティング装置200は、通信部210及びプロセッサ220を含み、前記通信部210を介して外部コンピューティング装置(図示せず)と直間接的に通信する。
詳しくは、前記コンピューティング装置200は、典型的なコンピュータハードウェア(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他の従来のコンピューティング装置の構成要素を含む装置と、ルータ、スイッチなどのような電子通信装置と、ネットワークアタッチトストレージ(NAS)及びストレージエリアネットワーク(SAN)のような電子情報ストレージシステム)とコンピュータソフトウェア(つまり、コンピューティング装置をして特定の方式で機能するようにするインストラクション)の組み合わせとを利用して所望のシステム性能を達成するものである。
このようなコンピューティング装置の通信部210は、連動される他のコンピューティング装置と要請と応答を送受信するゆえ、一実施例としてそのような要請と応答は同じTCPセッションによって行われるが、それに限らず、例えば、UDPデータグラムとして送受信されてもよい。なお、広い意味で前記通信部210は命令語または指示などを伝達されるためのキーボード、マウス、その他の外部入力装置を含む。
また、コンピューティング装置のプロセッサ220は、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含む。また、運営体制、特定の目的を行うアプリケーションのソフトウェア構成を更に含んでもよい。
図3は、本発明による眼底映像読取支援方法を行うコンピューティング装置のハードウェア及びソフトウェアアーキテクチャを例示的に示す概念図である。
図3を参照して本発明による方法及び装置の構成を調べると、コンピューティング装置200はその一構成要素として映像獲得モジュール310を含む。このような映像獲得モジュール310は、前記コンピューティング装置200に含まれた通信部210、または前記通信部210及びプロセッサ220の連動によって具現されることは通常の技術者なら理解できるはずである。
映像獲得モジュール310は、被検体の眼底映像を獲得する。例えば、これは前記被検体の眼底映像撮影機器または医用画像保管電送システム(PACS)から獲得されるが、これに限らない。大部分の眼底映像が中間映像であるため、糖尿病患者の7−segment montageにも対応可能である。
次に、その獲得された眼底映像は判別モジュール320に伝達されるが、判別モジュール320では機械学習モデルに基づいて眼底映像の属性情報を抽出する。
例えば、眼底映像の属性情報は、(i)前記眼底映像に含まれた視神経血管の映像のみを分離して示す血管情報、(ii)前記眼底映像が左眼の映像であるのか右眼の映像であるのかを示す両眼区分情報、(iii)前記眼底映像に含まれた黄斑及び視神経乳頭のうち少なくとも一つの位置を示す位置情報、(iv)前記眼底映像の区画を示す区画区分情報、(v)前記眼底映像によるC/D比の情報などを含む。
第一、前記血管情報の場合、判別モジュールの機械学習モデルは畳み込みニューラルネットワーク及びGAN(generative adversarial networks)を含む。
GANに関する論文である、非特許文献1:[Goodfellow,Ian J.;Pouget−Abadie,Jean;Mirza,Mehdi;Xu,Bing;Warde−Farley,David;Ozair,Sherjil;Courville,Aaron;Bengio,Yoshua(2014).“Generative Adversarial Networks”]によると、GANの生成器は実際と類似したデータを生成することで判別機を騙して、その類似したデータを実際データと判別するようにすることを目標とし、判別機は実際データと生成された類似データを区分することを目標とする。このGANによる学習が行われる過程において、生成器と判別機はそれぞれの目標を達成するためにネットワーク加重値を更新するが、十分に学習した後は生成器が実際と類似したデータを生成し、判別機による判別率が理論的に0.5に収束されることが明らかになっている。結果的に、GANによって十分に学習された生成器は実際データと近いデータを生成するようになるため、機械学習におけるデータの不均衡問題が解決される。
このような畳み込みニューラルネットワーク(CNN)とGANを共に利用する方式で十分な繰り返し(interation)を経て学習を行うと、この機械学習モデルに基づいて前記視神経血管の映像が抽出されるが、図4は本発明による眼底映像読取支援方法の一実施例において、血管の映像のみを分離して示す血管情報を例示的に示す図である。
第二、前記両眼区分情報の場合、前記機械学習モデルは分画ネットワーク(segmentation networks)を含み、前記機械学習モデルに基づいて前記眼底映像の視神経乳頭(optic disk)の形状及び前記視神経乳頭から出る血との走行のうち少なくとも一つを判別することで、前記視神経乳頭の形状及び前記血管の走行によって前記眼底映像の両眼区分情報が抽出される。
詳しくは、この両眼区分情報の抽出において、視神経乳頭の位置のみでは該当眼底映像が左眼の映像なのか右眼の映像なのかを判断することができないことがあるゆえ、それに対する判別の正確度を上げるために、視神経乳頭の位置のみで判断が不可能な場合の眼底映像を学習データとして利用して前記機械学習モデルの学習を行った。右眼の場合、眼科で通常に撮影する映像はその中央に焦点が合わせられるため視神経乳頭が右側にあるが、学習データには右眼であるにも関わらず、視神経乳頭が左側または下側に位置するイメージを含ませることで、両眼区分の正確度を上げることができる。
眼底映像の個別チャネル(channel)のz−score(標準化点数)を求めて畳み込みニューラルネットワークの入力として利用するが、z−scoreは下記数式1のようである。
このz−scoreを利用することで眼底映像の明るさ(intensity)や明暗(contract)に影響を受けずに、完全に映像に現れた形態情報を利用して両眼を区分することができる。ここに利用される例示的な分画ネットワークの形態は以下のようである。
conv(2)−conv−maxpool(2)−conv(2)−conv−conv−maxpool(2)−conv−conv−conv−maxpool(22)−conv−conv−conv−maxpool(2)−conv−conv−dense(256)−dense(1)
ここで、入力データは512×512のz−scoreで変換されたRGB映像であり、convとmaxpoolのstrideは(x)で表現されている。また、ここで、活性化(activation)関数はsleuが、最後のdense layerにはsigmoidが利用されており、損失(loss)関数としてはbinary cross entropyが利用されている。
次に、第三、前記位置情報の場合、前記機械学習モデルは分画ネットワークを含み、それに基づいて前記黄斑及び前記視神経乳頭のうち少なくとも一つの位置が抽出される。
図5は視神経乳頭及び黄斑中心の位置を検出する従来の方式を説明するために示した図であるが、視神経乳頭及び黄斑は眼底映像読取の際に基準点の役割をし、従来は黄斑の位置をOCT(optical coherence tomography)撮影を介して検出しおり、視神経乳頭は眼底映像で明るくて鮮明に現わされる部分であってその位置の判定が比較的容易なため、視神経乳頭は眼底映像から検出していた。このような従来の技法とは異なって、本発明ではOCT撮影映像を利用せずも黄斑と視神経乳頭の位置をいずれも眼底映像から検出することができる。
図6は、本発明による眼底映像読取支援方法の一実施例において、視神経乳頭及び黄斑中心の位置を検出するための機械学習モデルを例示する図である。
詳しくは、この視神経乳頭及び黄斑中心位置の検出において、正常の眼底映像だけでなく病変がある眼底映像に対しても利用専門家がラベリング(詳しくは、位置座標をつける)したデータを学習データとして利用して前記機械学習モデルの学習を行っているが、機械学習モデルの一例として、非特許文献2:[Ronneberger O.,Fischer P.,Brox T.(2015)U−Net:Convolutional Networks for Biomedicla Image Segmentation.In:Navab N.,Hornegger J.,Wells W.,Frangi A.(eds)Medical Image Computing and Computer−Assisted Intervention−MICCAI2015.Lecture Notes in Computer Science,vol 9315.Springer,Cham]に開示されているように、パッディング(padding)の形態、層(layer)の個数、個別層の深さ(depth)をパラメータとするU−Netで利用されたdepth concatenation技法が活用される。その具体的なネットワークの形態は図6に示した通りである。
図6に示したこのネットワークでは、640×640のRGB映像に対して個別チャネルごとにz−scoreを求め、分画(segment)された血管(vessel)を入力として利用し、batch−normalizationが利用されており、損失関数としてはbinary cross entropyが利用されている。図6において、operationは個別blockの演算(operation)を示し、skip−connectedはU−Netにおいてdepth concat layerを意味し、upsampleはbilinear interpolationで長さと幅をそれぞれ2倍に増やしたことを意味する。
第四、前記区画区分情報の場合、前記機械学習モデルは分画ネットワークを含み、それに基づいて前記黄斑及び前記視神経乳頭の位置が抽出されることで、前記黄斑の中心位置及び前記視神経乳頭の中心位置に基づいて前記眼底映像を個別区画に区分する情報である前記区画区分情報が抽出される。好ましくは、前記個別区画は3つ以上に構成されるが、医療チームの必要に応じて多様に構成されてもよい。
個別区画を区分する一実施例として、前記個別区画は、黄斑(macula)領域、視神経乳頭上側(superior disk)領域、視神経乳頭下側(inferior disk)領域、外側(temporal)領域、上外側(superotemporal)領域、下外側(inferotemporal)領域、上鼻側(superonasal)領域、及び下鼻側(inferonasal)領域を含む。
図7は、この実施例で抽出される眼底映像の区画を示す区画区分情報を例示的に示す図である。
図7を参照すると、前記黄斑領域は、前記黄斑の中心位置と前記視神経乳頭の中心位置との間の距離がdであれば、0<k1≦1を満足する所定のk1に対し、k1×dを半径にし、前記黄斑の中心位置を中心点とする黄斑中心円の内部領域である。
また、前記視神経乳頭上側領域は、前記距離d及び0<k2≦1を満足する所定のk2に対し、k2×dを半径にし、前記視神経乳頭の中心位置を中心点とする視神経乳頭中心円の内部領域である視神経乳頭領域が、前記黄斑の中心位置と前記視神経乳頭の中心位置を通る直線l1によって分割される領域のうち上側の領域である。
そして、前記視神経乳頭下側領域は、前記視神経乳頭領域が前記直線l1によって分割される領域のうち下側の領域である。
また、前記上鼻側領域は、前記直線l1に垂直に前記視神経乳頭の中心位置を通る直線l2及び前記直線l1によって分割される領域のうち、前記黄斑から遠い上側の領域から前記視神経乳頭上側領域を除外した領域である。
次に、前記下鼻側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑から遠い下側の領域から前記視神経乳頭下側領域を除外した領域である。
また、前記外側領域は、前記直線l1に平行し前記黄斑中心円に接するが前記視神経乳頭から遠くなる方向に延長される2つの半直線l3及びl4と前記黄斑中心円によって分割される領域のうち、前記直線l1を含む領域から前記黄斑領域を除外した領域である。
前記上外側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑に近い上側の領域のから前記視神経乳頭上側領域、前記黄斑領域、及び前記外側領域を除外した領域である。
そして、前記下外側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑に近い下側の領域から前記視神経乳頭下側領域、前記黄斑領域、及び前記外側領域を除外した領域である。
好ましくはk1=2/3、k2=2/5であり、その結果は図7に例示的に示した通りである。
第五、前記C/D比情報である場合、前記機械学習モデルは分画ネットワークを含み、それに基づいて視神経乳頭及び眼杯(optic cup)を識別することで前記C/D比が抽出される。
眼底読取の臨床において、眼杯は視神経乳頭の内側に血管が脳の方に連結された部分を意味し、視神経束が眼杯と視神経乳頭との間に入るため、C/D比が高ければ視神経の損傷を意味し、これは緑内障を疑う一つの根拠となり得る。
ここで利用された分画ネットワークモデルは、例えば、VGG(Visual Geometry Group)ネットワーク形態の畳み込みブロック(convolution blok)を積層し、その畳み込みブロックに完全連結層(fully−connected layer)を連結したモデルあり、それを介して緑内障が高い正確度で自動的に読み取られる(ROC_AUC 0.8617以上)。
上述したように、判別モジュール320で利用される機械学習モデルの学習は判別モジュール320で行われてもよく、別途の学習モデル330によって学習されてもよい。
機械学習モデルに基づいて個別眼底映像に関して属性情報が抽出されたら、その属性情報は貯蔵及び伝送モジュール340を介して貯蔵されるか、外部エンティティに提供されるが、コンピューティング装置200に連動される他の装置(図示せず)に提供される。
更に図3を参照すると、前記抽出された属性情報に関して評価した評価情報及び抽出された属性情報を任意に修正した修正情報を獲得する結果入力モジュール350、及び前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新する更新モジュール360がコンピューティング装置200の構成要素として更に提供されるが、このようなモジュール310乃至360は通信部210及びプロセッサ220によって具現される。
より詳しくは、前記結果入力モジュール350は、後述する眼底映像読取支援方法の第2実施例で所見入力モジュール352(図示せず)及び診断結果入力モジュール354(図示せず)を更に含む。
以下、本発明による眼底映像読取支援方法の第1実施例を図8を参照して詳しく説明する。図8は、本発明の第1実施例による眼底映像読取支援方法を例示的に示すフローチャートである。
図8を参照すると、この実施例による眼底映像読取支援方法は、前記図3に関して説明したように、まず、コンピューティング装置200の通信部210によって具現される映像獲得モジュール310が、前記被検体の眼底映像を獲得するか、コンピューティング装置200に連動される他の装置(図示せず)をして獲得するように支援するステップS810を含む。
次に、本発明の一実施例による眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220によって具現される判別モジュール320が、前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出するか、前記他の装置をして抽出するように支援するステップS820と、前記コンピューティング装置200の通信部210及びプロセッサ220によって具現される貯蔵及び伝送モジュール340が抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援するステップS830と、を更に含む。
ここで、外部エンティティとは前記コンピューティング装置のユーザ、管理者、前記被検体を担当する担当医療専門家などを含むが、その他にも前記眼底映像を読み取ることができる主体であればどの主体でも含まれると理解すべきである。
一方、この実施例による眼底映像読取支援方法を行う前に、前記機械学習モデルが予め学習されるステップ(図示せず)を経る必要があるが、そのための学習モジュール330が前記プロセッサ220によって実行される。
例えば、前記学習モジュール330は、多数の従来の被検体に対する個別眼底映像及びそれをラベリングしたデータを学習データとして利用して前記機械学習モデルを学習する。
この実施例では、予め学習された機械学習モデルに基づいて眼底映像の読み取りを支援するが、抽出された属性情報を評価するか、修正した情報を更に前記機械学習モデルに対する再学習の資料とする活用すれば前記機械学習モデルがより正確になる長所があるため、このような長所を取るために、本発明のこの実施例による眼底映像読取支援方法は、前記プロセッサ220が、前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報を結果入力モジュール350を介して獲得し、前記評価情報または前記修正情報に基づいて更新モジュール360を介して前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップS840を更に含む。この際、以前の学習では考慮されていなかった眼底映像及びラベリングデータが追加に考慮され、以前の学習の際にあったエラーを直すことができて、前記機械学習モデルの正確度が上がるゆえ、データが蓄積されるほど前記機械学習の性能が持続的に向上される長所がある。
ここで、前記評価情報、前記修正情報は前記医療専門家などの外部エンティティから提供される。
次に、図9及び図10a乃至図10eを参照して、本発明による眼底映像読取支援方法の第2実施例を説明する。
図9は本発明による眼底映像読取支援方法の第2実施例を例示的に示すフローチャートであり、図10a乃至図10eは図9に例示した実施例の各ステップで提供されるユーザインタフェース(UI)を例示的に示す図である。
図9を参照すると、この第2実施例による眼底映像読取支援方法は、まず、コンピューティング装置200の通信部210によって具現される映像獲得モジュール310が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置200に連動される他の装置をして獲得するように支援するステップS910を含む。
図10aに例示的に示したように、このステップS910において、ユーザ、つまり、読取者の便宜のために前記被検体の識別番号、年齢、性別、及び前記眼底映像の両眼区分情報のうち少なくとも一つがユーザに提供される。また、読取は多数のユーザによって行われてもよく、この実施例にの方法によって眼底映像の読取を支援する少なくとも一つのユーザは、全体M個のユーザグループのうち第nユーザグループに含まれたkn名のユーザのうちから選択されることで、一つの前記眼底映像に対して多数の読取が行われることができ、それを介して読取結果としてのラベリングデータに対する交差検証が行われる。
更に図9を参照すると、この実施例による眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220によって具現される判別モジュール320が、(i)前記眼底映像の正常可否を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとの うち少なくとも一つを行うステップS920を更に含む。
図10bに例示的に示したように、ここで前記正常可否情報は、異常眼底(abnormal fundus)及び正常眼底(normal fundus)のうち一つである。例えば、このうちから正常眼底が選択される場合、該当眼底映像に対するこの実施例の方法が完了されてから次の眼底映像がローディング(loading)される。
ところが、ステップS920の前に、前記眼底映像の品質が先に評価されるべきである場合、前記眼底映像読取支援方法は、前記判別モジュール320が、(i)前記眼底映像の品質を評価する映像品質情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記映像品質情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうちから少なくとも一つを行うステップS915(図示せず)を更に含む。
図10aに例示的に示したように、ここで前記映像品質情報は、良好、媒体混濁(media opacity)、小さい瞳孔/焦点ぼけ(small pupil/defocusing)、及び判定不可(ungradable)のうち少なくとも一つを含む。例えば、このうちから判定不可が選択される場合、該当眼底映像に対するこの実施例の方法が完了されてから次の眼底映像がローディングされる。
ステップS920を行った後、この実施例による前記眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220が、前記判別モジュール320を介して、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、前記所見入力モジュール352を介して、(i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記通信部210を介して前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップS930を更に含む。
図10cに例示的に示したように、ここで眼底映像の個別区画に対応する所見情報は、出血、硬性滲出物、棉花状白斑、ドルーゼン及びドルーゼノイド沈着物(drusen&drusenoid deposits)、網膜色素変化(retinal pigmentary change)を含むが、これに限らず、macular hole、vascular abnormality、membrane、fluid accumulation、chroioretinal atrophy/scar、choroidal lesion、myelinated nerve fiber、RNFL defect、galucomatous disc change、non−galucomatous disc change、other fidings or artifactなどを含む。
次に、この実施例による前記眼底映像読取支援方法は、前記コンピューティング装置200のプロセッサ220が、前記診断結果入力モジュール354を介して、(i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップS940を更に含む。
図10dに例示的に示したように、ここで診断情報は、Dry AMD、Wet AMD、Early DR、Advanced DR、CRVO、BRVO/Hemi−CRVO、Epiretinal membrane、Macular Hole、Other Retinal/Choroidal Diseases/Findings、Glaucoma Suspect、Other Disc Diseases/Findings、Floaters/Artifacts Suspectを含む。
このような診断情報は一つだけでなく多数個が選択されてもよい。但し、この診断情報の間には排他的関係があるゆえ、Dry AMDとWet AMDの選択は互いに排他的で、Early DRとAdvanced DRの選択も互いに排他的で、CRVOとBRVO/Hemi−CRVOの選択も互いに排他的である。これは論理的、病理学的に不必要であるか非合理的な読取を防止するためである。
上述したように、所見情報に基づいて診断情報を生成する機械学習モデルにCNNなどディープラーニング技法が利用されてもよいが、ベイジアンネットワークのように従来よく知られているその他の統計方法が活用されてもよい。
図11は、図9に例示した実施例において、所見情報から診断情報を生成する方式の一つとしてベイジアンネットワークを示す図である。
ベイジアンネットワークは入力値である所見情報から最終的な診断情報を確率的に推論するのに利用されるゆえ、図11に例示的に示した各ノード間の連結はその確率値に対応する。
次に、本発明のこの実施例による眼底映像読取支援方法は、前記プロセッサ220が、貯蔵及び伝送モジュール340を介して前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記他の装置をして貯蔵または提供するように支援するステップS950を更に含む。
図10eに例示的に示したユーザインタフェースのように、ステップS950において、前記少なくとも一つのユーザの選択によって前記眼底映像に対する所見情報及び前記診断情報を眼科医に提供することで、前記眼科医をして前記所見情報及び前記診断情報を修正するように支援することもできる。
第1実施例と同じく、第2実施例による眼底映像読取支援方法も、所見情報及び診断情報に関して評価情報または機械学習モデルによって判定された所見情報及び診断情報を任意に修正した修正情報を所見入力モジュール352または診断結果入力モジュール354を介して獲得し、前記評価情報または前記修正情報に基づいて更新モジュール360を介して前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップS960(図示せず)を更に含む。この際、以前の学習の際にあったエラーを直すことができて、前記機械学習モデルの正確度が上がるゆえ、データが蓄積されるほど前記機械学習モデルの性能が持続的に向上される長所がある。
このように本発明は上述した全ての実施例にわたって、従来の医療専門家がその経験や知識に依存して一々眼底映像を読み取ることに比べ効率的で正確な読取を可能にすることで、医療チームの時間を節約し、診療の質を上げ、医療現場におけるワークフローを革新することができる効果がある。
前記実施例の説明に基づいて該当技術分野の通常の技術者は、本発明がソフトウェア及びハードウェアの結合を介して達成されるか、ハードウェアのみで達成されることを明確に理解できるはずである。本発明の技術的解法及び対象物、または先行技術に寄与する部分は、多様なコンピュータ構成要素を介して行われるプログラム命令語の形態で具現されて機械で読取可能な記録媒体に記録される。前記機械で読取可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独にまたは組み合わせて含む。前記機械で読取可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の通常の技術者に公知されて使用可能なものであってもよい。機械で読取可能な記録媒体としては、ハードディスク、フロッピーディスク、及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気−光媒体(magneto−optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を貯蔵し行うように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例としては、コンパイラによって作られるもののような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードも含まれる。
前記ハードウェア装置は、本発明による処理を行うために一つ以上のソフトウェアモジュールとして作動するように構成されるが、その逆も同じである。前記ハードウェア装置は、プログラム命令語を貯蔵するためのROM/RAMなどのようなメモリと結合され、前記メモリに貯蔵された命令語を実行するように構成されるCPUやGPUのようなプロセッサを含み、外部装置と信号を交換する通信部を含む。なお、前記ハードウェア装置は開発者によって作成された命令語を伝達されるためのキーボード、マウス、その他の外部入力装置を含む。
これまで本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施例に限らないものであって、本発明の属する技術分野の通常的な知識を有する者であれば、このような記載から多様な修正及び変形を図ることができるはずである。
よって、本発明の思想は上述した実施例に限って決められてはならず、後述する特許請求の範囲だけでなく、この特許請求の範囲と均等にまたは等価的に変形された全てのものは本発明の思想の範疇に属するといえる。
そのように均等にまたは等価的に変形されたものには、例えば、本発明による他の方法を実施したことと同じ結果を出す、論理的に同値(logically equivalent)の方法が含まれる。

Claims (19)

  1. 被検体に対する眼底映像の読取を支援する方法において、
    (a)コンピューティング装置が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置に連動される他の装置をして獲得するように支援するステップと、
    (b)前記コンピューティング装置が、前記眼底映像の属性情報を抽出するための機械学習モデル(machine learning model)に基づいて前記眼底映像から前記属性情報を抽出するか、前記他の装置をして抽出するように支援するステップと、
    (c)前記コンピューティング装置が、抽出された前記属性情報を外部エンティティ(entity)に提供するか、前記他の装置をして提供するように支援するステップと、
    を含む眼底映像読取支援方法。
  2. (d)前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報が獲得されたら、前記コンピューティング装置が、前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新するか、前記他の装置をして更新するように支援するステップ
    を更に含む請求項1に記載の眼底映像読取支援方法。
  3. 前記眼底映像の属性情報は、
    前記眼底映像が左眼の映像であるのか右眼の映像であるのかを示す両眼区分情報、
    前記眼底映像に含まれた黄斑及び視神経乳頭のうち少なくとも一つの位置を示す位置情報、
    前記眼底映像の区画を示す区画区分情報、
    前記眼底映像に含まれた視神経血管の映像のみを分離して示す血管情報、及び
    前記眼底映像によるC/D比(cup−to−disk ratio)の情報
    のうち少なくとも一つを含むことを特徴とする請求項1に記載の眼底映像読取支援方法。
  4. 前記属性情報が前記血管情報である場合、
    前記機械学習モデルは畳み込みニューラルネットワーク(CNN;convolutional neural networks)及びGAN(generative adversarial networks)を含み、
    前記視神経血管の映像は前記機械学習モデルに基づいて抽出されることを特徴とする請求項3に記載の眼底映像読取支援方法。
  5. 前記属性情報が前記両眼区分情報である場合、
    前記機械学習モデルは分画ネットワーク(segmentation networks)を含み、
    前記機械学習モデルに基づいて前記眼底映像の視神経乳頭(optic disk)の形状及び前記視神経乳頭から出る血管の走行のうち少なくとも一つを判別することで、前記視神経乳頭の形状及び前記血管の走行によって前記眼底映像の両眼区分情報が抽出されることを特徴とする請求項3に記載の眼底映像読取支援方法。
  6. 前記属性情報が前記位置情報である場合、
    前記機械学習モデルは分画ネットワークを含み、
    前記黄斑及び前記視神経乳頭のうち少なくとも一つの位置は前記機械学習モデルに基づいて抽出されることを特徴とする請求項3に記載の眼底映像読取支援方法。
  7. 前記属性情報が前記区画区分情報である場合、
    前記機械学習モデルは分画ネットワークを含み、
    前記黄斑及び前記視神経乳頭の位置は前記機械学習モデルに基づいて抽出されることで、前記黄斑の中心位置及び前記視神経乳頭の中心位置に基づいて前記眼底映像を3つ以上の個別区画に区分する情報である前記区画区分情報が抽出されることを特徴とする請求項3に記載の眼底映像読取支援方法。
  8. 前記個別区画は、黄斑領域、視神経乳頭上側領域、視神経乳頭下側領域、外側(temporal)領域、上外側(superotemporal)領域、下外側(inferotemporal)領域、上鼻側(superonasal)領域、及び下鼻側(inferonasal)領域を含み、
    前記黄斑領域は、
    前記黄斑の中心位置と前記視神経乳頭の中心位置との間の距離d、及び0<k1≦1を満足する所定のk1に対し、k1×dを半径にし、前記黄斑の中心位置を中心点とする黄斑中心円の内部領域であり、
    前記視神経乳頭上側領域は、
    前記距離d及び0<k2≦1を満足する所定のk2に対し、k2×dを半径にし、前記視神経乳頭の中心位置を中心点とする視神経乳頭中心円の内部領域である視神経乳頭領域が、前記黄斑の中心位置と前記視神経乳頭の中心位置を通る直線l1によって分割される領域のうち上側の領域であり、
    前記視神経乳頭下側領域は、
    前記視神経乳頭領域が前記直線l1によって分割される領域のうち下側の領域であり、
    前記上鼻側領域は、
    前記直線l1に垂直に前記視神経乳頭の中心位置を通る直線l2及び前記直線l1によって分割される領域のうち、前記黄斑から遠い上側の領域から前記視神経乳頭上側領域を除外した領域であり、
    前記下鼻側領域は、
    前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑から遠い下側の領域から前記視神経乳頭下側領域を除外した領域であり、
    前記外側領域は、
    前記直線l1に平行し前記黄斑中心円に接するが前記視神経乳頭から遠くなる方向に延長される2つの半直線l3及びl4と前記黄斑中心円によって分割される領域のうち、前記直線l1を含む領域から前記黄斑領域を除外した領域であり、
    前記上外側領域は、
    前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑に近い上側の領域のから前記視神経乳頭上側領域、前記黄斑領域、及び前記外側領域を除外した領域であり、
    前記下外側領域は、前記直線l2及び前記直線l1によって分割される領域のうち、前記黄斑に近い下側の領域から前記視神経乳頭下側領域、前記黄斑領域、及び前記外側領域を除外した領域であることを特徴とする請求項7に記載の眼底映像読取支援方法。
  9. 前記属性情報が前記C/D比情報である場合、
    前記機械学習モデルは分画ネットワークを含み、
    前記機械学習モデルに基づいて視神経乳頭及び眼杯(optic cup)を識別することで前記C/D比が抽出されることを特徴とする請求項3に記載の眼底映像読取支援方法。
  10. 被検体に対する眼底映像の読取を支援する方法において、
    (a)コンピューティング装置が、前記被検体の眼底映像を獲得するか、前記コンピューティング装置に連動される他の装置をして獲得するように支援するステップと、
    (b)前記コンピューティング装置が、(i)前記眼底映像の正常可否情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、
    (c)前記コンピューティング装置が、前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、(i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセルと、(ii)前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、
    (d)前記コンピューティング装置が、(i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行うステップと、
    (e)前記コンピューティング装置が、前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記他の装置をして貯蔵または提供するように支援するステップと、
    を含む眼底映像読取支援方法。
  11. 前記ステップ(b)の前に、
    (b0)前記コンピューティング装置が、(i)前記眼底映像の品質を評価する映像品質情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(ii)前記少なくとも一つのユーザから前記映像品質情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうちから少なくとも一つを行うステップ
    を更に含むことを特徴とする請求項10に記載の眼底映像読取支援方法。
  12. 前記ステップ(a)は、
    前記被検体の識別番号、年齢、性別、及び前記眼底映像の両眼区分情報のうち少なくとも一つが前記少なくとも一つのユーザに提供されることを特徴とする請求項10に記載の眼底映像読取支援方法。
  13. 前記少なくとも一つのユーザは、全体M個のユーザグループのうち第nユーザグループに含まれたkn名のユーザのうちから選択されることで、一つの前記眼底映像に対して多数の読取が行われることを特徴とする請求項10に記載の眼底映像読取支援方法。
  14. 前記ステップ(c)は、
    生成された前記区画区分情報が前記少なくとも一つのユーザに提供されることで、前記区画区分情報の前記少なくとも一つのユーザによる修正を可能にすることを特徴とする請求項10に記載の眼底映像読取支援方法。
  15. コンピューティング装置をして、請求項1に乃至請求項14のうちいずれか一項に記載の方法を行うように具現された命令語(instructions)を含む、機械読取可能な非一時的記録媒体に貯蔵された、コンピュータプログラム。
  16. 被検体に対する眼底映像の読取を支援するコンピューティング装置において、
    前記被検体の眼底映像を獲得する通信部と、
    前記通信部を介して獲得された前記眼底映像の属性情報を抽出するための機械学習モデルに基づいて前記眼底映像から前記属性情報を抽出するか、前記通信部を介して連動される他の装置をして抽出するように支援するプロセッサと、
    を含むが、
    前記プロセッサは、
    抽出された前記属性情報を外部エンティティに提供するか、前記他の装置をして提供するように支援することを特徴とする眼底映像読取支援装置。
  17. 前記抽出された属性情報に関して評価した評価情報または前記抽出された属性情報を任意に修正した修正情報が前記通信部を介して獲得されたら、
    前記プロセッサは、
    前記評価情報または前記修正情報に基づいて前記機械学習モデルを更新するか、前記他の装置をして更新するように支援することを特徴とする請求項16に記載の眼底映像読取支援装置。
  18. 前記眼底映像の属性情報は、
    前記眼底映像が左眼の映像であるのか右眼の映像であるのかを示す両眼区分情報、
    前記眼底映像に含まれた黄斑及び視神経乳頭のうち少なくとも一つの位置を示す位置情報、
    前記眼底映像の区画を示す区画区分情報、
    前記眼底映像に含まれた視神経血管の映像のみを分離して示す血管情報、及び
    前記眼底映像によるC/D比の情報
    のうち少なくとも一つを含むことを特徴とする請求項16に記載の眼底映像読取支援装置。
  19. 被検体に対する眼底映像の読取を支援するコンピューティング装置において、
    前記被検体の眼底映像を獲得する入力モジュールを具現する通信部と、
    (1−i)前記眼底映像の正常可否情報を生成するか、前記通信部を介して連動される他の装置をして生成するように支援するプロセスと、(1−ii)前記通信部を介して少なくとも一つのユーザから前記正常可否情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う判別モジュールを具現するプロセッサと、
    を含むが、
    前記判別モジュールは、
    前記眼底映像の個別区画を示す区画区分情報を生成するか、前記他の装置をして生成するように支援し、
    前記プロセッサは、
    (2−i)前記個別区画に対応する所見情報を生成するか、前記他の装置をして生成するように支援するプロセルと、(2−ii)前記通信部を介して前記少なくとも一つのユーザから前記所見情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う所見入力モジュールと、
    (3−i)前記所見情報に基づいて前記眼底映像に対する診断情報を生成するか、前記他の装置をして生成するように支援するプロセスと、(3−ii)前記通信部を介して前記少なくとも一つのユーザから前記眼底映像及び前記所見情報に対応する前記診断情報を入力されるか、前記他の装置をして入力されるように支援するプロセスとのうち少なくとも一つを行う診断結果入力モジュールと、
    前記眼底映像に対する前記所見情報及び前記診断情報を貯蔵または外部エンティティに提供するか、前記通信部を介して前記他の装置をして貯蔵または提供するように支援する貯蔵及び伝送モジュールと、を更に具現することを特徴とする眼底映像読取支援装置。

JP2020523359A 2017-10-27 2018-07-18 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置 Active JP7178672B6 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020170141130A KR101848322B1 (ko) 2017-10-27 2017-10-27 피검체에 대한 안저 영상의 소견 및 진단 정보의 생성을 위하여 판독을 지원하는 방법 및 이를 이용한 장치
KR10-2017-0141129 2017-10-27
KR1020170141129A KR101848321B1 (ko) 2017-10-27 2017-10-27 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR10-2017-0141130 2017-10-27
PCT/KR2018/008099 WO2019083129A1 (ko) 2017-10-27 2018-07-18 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Publications (4)

Publication Number Publication Date
JP2021500180A true JP2021500180A (ja) 2021-01-07
JP2021500180A5 JP2021500180A5 (ja) 2021-07-26
JP7178672B2 JP7178672B2 (ja) 2022-11-28
JP7178672B6 JP7178672B6 (ja) 2022-12-20

Family

ID=66246836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020523359A Active JP7178672B6 (ja) 2017-10-27 2018-07-18 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置

Country Status (3)

Country Link
US (1) US11771318B2 (ja)
JP (1) JP7178672B6 (ja)
WO (1) WO2019083129A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11117354B2 (en) 2015-09-07 2021-09-14 Kureha Corporation Multilayer film for deep draw forming and method for manufacturing same

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10818386B2 (en) * 2018-11-21 2020-10-27 Enlitic, Inc. Multi-label heat map generating system
CN110689080B (zh) * 2019-09-30 2023-04-18 天津工业大学 一种血管结构影像的平面图谱构建方法
KR102306279B1 (ko) * 2020-01-29 2021-09-29 자이메드 주식회사 안저 영상판독 지원방법, 안저 영상판독 지원장치 및 이를 포함하는 안저 영상판독 지원 시스템
KR102414994B1 (ko) * 2020-06-05 2022-06-30 자이메드 주식회사 안저영상을 이용한 혈관질환 예측 지원방법 및 지원장치, 이를 포함하는 시스템
KR20210156007A (ko) * 2020-06-17 2021-12-24 주식회사 픽셀 디스플레이 시력 검사 장치, 방법 및 컴퓨터 판독 가능 저장 매체에 저장된 프로그램
CN112001920B (zh) 2020-10-28 2021-02-05 北京至真互联网技术有限公司 眼底图像识别方法及装置和设备
TWI746287B (zh) * 2020-11-26 2021-11-11 宏碁股份有限公司 影像處理系統及影像處理方法
TWI784688B (zh) * 2021-08-26 2022-11-21 宏碁股份有限公司 眼睛狀態評估方法及電子裝置
CN116934750B (zh) * 2023-09-15 2023-12-01 山东庆葆堂生物科技有限公司 一种醋蛋液生产质量评估方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136121A (ja) * 1993-09-21 1995-05-30 Topcon Corp 眼底疾患に関する解析装置
JPH09313447A (ja) * 1996-06-02 1997-12-09 Topcon Corp 眼底疾患に関する解析装置
US5868134A (en) * 1993-09-21 1999-02-09 Kabushiki Kaisha Topcon Retinal disease analyzer
JP2002330951A (ja) * 2001-05-11 2002-11-19 Canon Inc 画像符号化装置及び復号装置及び方法及びコンピュータプログラム及び記憶媒体
JP2011520503A (ja) * 2008-05-14 2011-07-21 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 自動陥凹乳頭比測定システム
JP2013501553A (ja) * 2009-08-10 2013-01-17 カール ツァイス メディテック アクチエンゲゼルシャフト 緑内障の組み合わせ解析
JP2013069076A (ja) * 2011-09-21 2013-04-18 Kawasaki Gakuen 病変の様子を文章化するためのコンピュータプログラムおよび文章作成装置
JP2014104275A (ja) * 2012-11-29 2014-06-09 Osaka Univ 眼科装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3479788B2 (ja) * 1993-09-21 2003-12-15 株式会社トプコン 眼底疾患の解析装置
JP3630857B2 (ja) * 1996-06-17 2005-03-23 キヤノン株式会社 眼科撮影装置
JP5203858B2 (ja) * 2008-09-01 2013-06-05 富士フイルム株式会社 医用画像表示装置、医用画像表示方法、並びに医用画像表示プログラム
TWI578977B (zh) * 2011-04-07 2017-04-21 香港中文大學 視網膜圖像分析裝置
KR20130000576A (ko) * 2011-06-23 2013-01-03 주식회사 인피니트헬스케어 안구검진 단말 및 방법
KR101805624B1 (ko) * 2011-08-29 2017-12-08 삼성전자주식회사 장기 모델 영상 생성 방법 및 장치
KR20140108417A (ko) 2013-02-27 2014-09-11 김민준 영상정보를 이용한 건강 진단 시스템
GB201308131D0 (en) * 2013-05-07 2013-06-12 London School Hygiene & Tropical Medicine Ophthalmoscope
US8879813B1 (en) * 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
KR20150094080A (ko) * 2014-02-10 2015-08-19 동명대학교산학협력단 의료용 영상 진단 장치
JP2016002380A (ja) * 2014-06-18 2016-01-12 キヤノン株式会社 画像処理装置、その作動方法及びプログラム
DE102014018516A1 (de) * 2014-12-12 2016-06-16 Carl Zeiss Meditec Ag System zur Augenuntersuchung mittels spannungsabhängiger Parameter
US9757023B2 (en) * 2015-05-27 2017-09-12 The Regents Of The University Of Michigan Optic disc detection in retinal autofluorescence images
WO2017031099A1 (en) * 2015-08-20 2017-02-23 Ohio University Devices and methods for classifying diabetic and macular degeneration
US10405739B2 (en) * 2015-10-23 2019-09-10 International Business Machines Corporation Automatically detecting eye type in retinal fundus images
CN106408562B (zh) * 2016-09-22 2019-04-09 华南理工大学 基于深度学习的眼底图像视网膜血管分割方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136121A (ja) * 1993-09-21 1995-05-30 Topcon Corp 眼底疾患に関する解析装置
US5868134A (en) * 1993-09-21 1999-02-09 Kabushiki Kaisha Topcon Retinal disease analyzer
JPH09313447A (ja) * 1996-06-02 1997-12-09 Topcon Corp 眼底疾患に関する解析装置
JP2002330951A (ja) * 2001-05-11 2002-11-19 Canon Inc 画像符号化装置及び復号装置及び方法及びコンピュータプログラム及び記憶媒体
JP2011520503A (ja) * 2008-05-14 2011-07-21 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 自動陥凹乳頭比測定システム
JP2013501553A (ja) * 2009-08-10 2013-01-17 カール ツァイス メディテック アクチエンゲゼルシャフト 緑内障の組み合わせ解析
JP2013069076A (ja) * 2011-09-21 2013-04-18 Kawasaki Gakuen 病変の様子を文章化するためのコンピュータプログラムおよび文章作成装置
JP2014104275A (ja) * 2012-11-29 2014-06-09 Osaka Univ 眼科装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11117354B2 (en) 2015-09-07 2021-09-14 Kureha Corporation Multilayer film for deep draw forming and method for manufacturing same

Also Published As

Publication number Publication date
US11771318B2 (en) 2023-10-03
US20200288972A1 (en) 2020-09-17
JP7178672B2 (ja) 2022-11-28
JP7178672B6 (ja) 2022-12-20
WO2019083129A1 (ko) 2019-05-02

Similar Documents

Publication Publication Date Title
KR101848321B1 (ko) 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
JP2021500180A (ja) 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置
You et al. Application of generative adversarial networks (GAN) for ophthalmology image domains: a survey
US11164313B2 (en) Method and device for assisting heart disease diagnosis
Tong et al. Application of machine learning in ophthalmic imaging modalities
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
KR101848322B1 (ko) 피검체에 대한 안저 영상의 소견 및 진단 정보의 생성을 위하여 판독을 지원하는 방법 및 이를 이용한 장치
JP6867117B2 (ja) 医用画像処理方法及び医用画像処理装置
US20210304363A1 (en) Image processing apparatus, image processing method and computer-readable medium
KR20200005411A (ko) 심혈관 질병 진단 보조 방법 및 장치
US10052016B2 (en) Automated clinical evaluation of the eye
US20240144478A1 (en) Method and device for assisting heart disease diagnosis
Sandhu et al. Automated diagnosis and grading of diabetic retinopathy using optical coherence tomography
Kauppi Eye fundus image analysis for automatic detection of diabetic retinopathy
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP2018014059A (ja) 医療情報処理システム及び医療情報処理方法
KR102596534B1 (ko) 진단 보조 방법 및 장치
KR102071774B1 (ko) 안구영상을 이용한 심뇌혈관 질환 예측방법
WO2016138256A1 (en) Clinic evaluation via outer retinal layer assessment
Dubey et al. Recent developments on computer aided systems for diagnosis of diabetic retinopathy: a review
Kapoor et al. The role of artificial intelligence in the diagnosis and management of glaucoma
KR20200011530A (ko) 안구영상을 이용한 심뇌혈관 질환 예측방법
Chaudhary et al. Glaucoma detection using cross validation algorithm: A comparitive evaluation on rapidminer
Roy et al. Medical Applications of Artificial Intelligence
Aljazaeri et al. Deep segmentation architecture with self attention for glaucoma detection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R150 Certificate of patent or registration of utility model

Ref document number: 7178672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150