JP5740403B2 - System and method for detecting retinal abnormalities - Google Patents

System and method for detecting retinal abnormalities Download PDF

Info

Publication number
JP5740403B2
JP5740403B2 JP2012534420A JP2012534420A JP5740403B2 JP 5740403 B2 JP5740403 B2 JP 5740403B2 JP 2012534420 A JP2012534420 A JP 2012534420A JP 2012534420 A JP2012534420 A JP 2012534420A JP 5740403 B2 JP5740403 B2 JP 5740403B2
Authority
JP
Japan
Prior art keywords
image
computer
retinal
smoothing
blood vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012534420A
Other languages
Japanese (ja)
Other versions
JP2013508035A (en
Inventor
ラミ マンゴービ,
ラミ マンゴービ,
ムクンド デサイ,
ムクンド デサイ,
ジョセフ ダンコ,
ジョセフ ダンコ,
ロイド ポール アイエロ,
ロイド ポール アイエロ,
Original Assignee
ザ・チャールズ・スターク・ドレイパ・ラボラトリー・インコーポレイテッド
ジョスリン ダイアビーティーズ センター, インコーポレイテッド
ジョスリン ダイアビーティーズ センター, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ・チャールズ・スターク・ドレイパ・ラボラトリー・インコーポレイテッド, ジョスリン ダイアビーティーズ センター, インコーポレイテッド, ジョスリン ダイアビーティーズ センター, インコーポレイテッド filed Critical ザ・チャールズ・スターク・ドレイパ・ラボラトリー・インコーポレイテッド
Publication of JP2013508035A publication Critical patent/JP2013508035A/en
Application granted granted Critical
Publication of JP5740403B2 publication Critical patent/JP5740403B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

(関連出願の引用)
本願は、米国仮出願第61/279,156号(2009年10月15日出願、名称「Systems and Methods for Retinal Image Analysis」)の利益を主張する。本願は、米国特許出願第12/355,567号(2009年1月16日出願、名称「Systems and Methods for Analyzing Image Data Using Adaptive Neighborhooding」)の一部継続出願であり、該出願は、米国仮出願第61/021,513号(2008年1月16日出願、名称「An Energy Functional Framework for Simultaneously Learning,Smoothing,Segmentation,and Grouping in a Low SNR,Sparse Data Environment」)、米国仮出願第61/011,456号(2008年1月16日出願、名称「Image−based Methods for Measuring Global Nuclear Patterns as Epigenetic Markers of Cell Differentiation」)、および米国仮出願第61/143,399号(2009年1月8日出願、名称「Image−based Methods for Assessing Cells」)の利益を主張する。これらの出願の各々は、その全体が参照により本明細書に引用される。
(Citation of related application)
This application claims the benefit of US Provisional Application No. 61 / 279,156 (filed Oct. 15, 2009, entitled “Systems and Methods for Retinal Image Analysis”). This application is a continuation-in-part of US patent application Ser. No. 12 / 355,567 (filed Jan. 16, 2009, entitled “Systems and Methods for Analyzing Image Data Using Adaptive Neighborhooding”), Application No. 61 / 021,513 (filed on Jan. 16, 2008, entitled “An Energy Functional Framework for Simulative Learning, Smoothing, Segmentation, and Grouping in United States”). 011,456 (filed on January 16, 2008, name "Image-based Me""Hods for Measuring Global Nuclear Patterns as Epigenetic Markers of Cell Differentiation") To do. Each of these applications is hereby incorporated by reference in its entirety.

(連邦政府資金援助研究開発の表明)
本明細書に記載される研究開発は、全体またが一部において、国立衛生研究所(NIH/NIBIB)からの交付NO.RO1−EB006161−01A2、国立神経疾患・脳卒中研究所からのNINDS/NIH交付NO.5−R01−NS34189−10により資金援助された。本発明において、米国政府は一定の権利を有する。
(Announcement of federal funding research and development)
The research and development described herein, in whole or in part, is a grant number from the National Institutes of Health (NIH / NIBIB). RO1-EB006161-01A2, NINDS / NIH grant from National Neurological and Stroke Research Institute. Funded by 5-R01-NS34189-10. In the present invention, the US government has certain rights.

糖尿病性網膜症(DR)は、網膜を攻撃し、病変を引き起こすことによって損傷する、いくつかの全身性疾患のうちの1つである。該疾患はしばしば、初期兆候がなく、比較的進行期で、病変が失明を引き起こし得る。糖尿病は、現在世界中で1億9400万人以上の個人に影響を及ぼし、上昇傾向にあり、2025年までに3億3300万人の患者を獲得すると予測されている。DRは、10年以上糖尿病がある患者の最大80%に影響を及ぼす。DRは、現在先進国で失明の主な原因であり、上昇傾向にあり、世界中で2億7500万人の個人に影響を及ぼすと予測されている。   Diabetic retinopathy (DR) is one of several systemic diseases that damage by attacking the retina and causing lesions. The disease often has no early signs, is relatively advanced, and the lesions can cause blindness. Diabetes currently affects over 194 million individuals worldwide, is on the rise, and is expected to acquire 333 million patients by 2025. DR affects up to 80% of patients with diabetes for more than 10 years. DR is currently the leading cause of blindness in developed countries, is on the rise, and is expected to affect 275 million individuals worldwide.

糖尿病からの失明の重症度は、患者が時宜を得て厳密に評価されれば軽減することができる。視力の維持は、生涯のケア、DR重症度の周期的で正確な診断を必要とする。各患者は、DR重症度を少なくとも1年に1回評価してもらうべきであり、毎秒24眼の世界的最小処理能力を必要とする。   The severity of blindness from diabetes can be reduced if patients are timely and rigorously evaluated. The maintenance of vision requires lifelong care, a periodic and accurate diagnosis of DR severity. Each patient should have DR severity assessed at least once a year and requires a global minimum throughput of 24 eyes per second.

この必要性を満たすことの妨げになる多くの課題がある。第1に、米国の糖尿病患者人口の25%を含む多くの糖尿病患者は、健康状態の意識が欠けている。第2に、特に発展途上国内の患者の大部分は、臨床施設の近くに居住していない。第3に、DR診断は、特別な訓練を必要とし、多くの診療所には、そのような訓練を受けた臨床医がいない。最後に、たとえケアが利用可能であり、自覚のある患者の手の届く距離にあったとしても、能力が限定され、診断手技が不便であり、人的不一致および過誤の影響を受けやすい。   There are a number of challenges that hinder meeting this need. First, many diabetics, including 25% of the US diabetic population, lack health awareness. Secondly, the majority of patients, especially within developing countries, do not reside near clinical facilities. Third, DR diagnosis requires special training, and many clinics do not have such trained clinicians. Finally, even if care is available and within reach of a conscious patient, ability is limited, diagnostic procedures are inconvenient, and subject to personal discrepancies and errors.

本明細書で説明される方法およびシステムは、網膜撮像のこれらおよび他の課題から発想を得た。   The methods and systems described herein were inspired by these and other issues of retinal imaging.

本明細書では、網膜の異常を検出するためのシステム、方法、および非一過性コンピュータ可読媒体が説明される。これらの方法は、好ましくは、コンピュータまたは他の適切に構成された処理デバイスによって実装される。   Described herein are systems, methods, and non-transitory computer readable media for detecting retinal abnormalities. These methods are preferably implemented by a computer or other suitably configured processing device.

第1の側面では、コンピュータが網膜の画像を受信し、画像を平滑化および区分化する。滑化および区分化は、相互依存的であり得る。コンピュータは、平滑化および区分化された画像において少なくとも1つの網膜特徴を識別し、網膜の異常を識別するように、平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析する。いくつかの実施形態では、識別された少なくとも1つの網膜特徴を分析することは、画像のテクスチャを分析することを含む。いくつかの実施形態では、識別された少なくとも1つの血管を分析することは、画像における少なくとも1つの血管に関連付けられる少なくとも1つの経路を決定することと、経路に沿った場所における経路の配向の角度、および経路に沿った場所における少なくとも1つの血管の直径のうちの少なくとも1つにおける変動を決定することとを含む。変動が閾値を超える場合に、コンピュータは、該場所における網膜の異常を識別する。異常は、例えば、静脈内径の異常、新しい血管分布、綿状白斑等の非血管異常、または任意の他の異常であり得る。   In a first aspect, a computer receives an image of the retina and smoothes and segments the image. Lubrication and segmentation can be interdependent. The computer identifies at least one retinal feature in the smoothed and segmented image and analyzes at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities . In some embodiments, analyzing the identified at least one retinal feature includes analyzing the texture of the image. In some embodiments, analyzing the identified at least one blood vessel determines at least one route associated with the at least one blood vessel in the image and the angle of the orientation of the route at a location along the route. And determining a variation in at least one of the diameters of at least one blood vessel at a location along the path. If the variation exceeds the threshold, the computer identifies a retinal abnormality at the location. The abnormality can be, for example, an abnormality in the venous inner diameter, a new blood vessel distribution, a non-vascular abnormality such as fluffy vitiligo, or any other abnormality.

いくつかの実施形態では、区分化および平滑化することは、画像における複数の場所におけるエッジフィールド強度を決定することを含み、少なくとも1つの経路は、少なくともエッジフィールド強度に基づいて決定される。少なくとも1つの経路を決定することは、画像における少なくとも1つの血管に関連付けられる少なくとも1つの中心線を決定することを含み得る。配向の角度の変動を決定することは、連続する複数の場所の間の前記配向の角度の変化を決定することを含み得る。   In some embodiments, segmenting and smoothing includes determining edge field strengths at multiple locations in the image, and at least one path is determined based at least on the edge field strengths. Determining at least one path may include determining at least one centerline associated with at least one blood vessel in the image. Determining the orientation angle variation may include determining a change in the orientation angle between successive locations.

いくつかの実施形態では、コンピュータは、複数の変動をフィルタにかける。フィルタは、移動窓平均であり得る。いくつかの実施形態では、変動は、フィルタにかけられた複数の変動のうちの少なくとも1つが閾値を超える場合に、閾値を超える。いくつかの実施形態では、ある場所における変動が閾値を超える場合に、コンピュータは、血管分岐部が該場所に存在するかどうかを決定し、血管分岐部が該場所に存在する場合に、コンピュータは、コンピュータによって変動をフィルタによって除去する。   In some embodiments, the computer filters multiple variations. The filter may be a moving window average. In some embodiments, the variation exceeds the threshold when at least one of the filtered variations exceeds the threshold. In some embodiments, if the variation at a location exceeds a threshold, the computer determines whether a vascular bifurcation is present at the location, and if the vascular bifurcation is present at the location, the computer The variation is filtered out by the computer.

いくつかの実施形態では、平滑化および区分化することは、(例えば、誤差測定基準に関連付けられるエネルギー関数の値を低減させるように)画像における複数の場所に関連付けられる近傍を規定する形状および配向のうちの少なくとも1つを適合的に調整することを含む。いくつかの実施形態では、平滑化および区分化することは、第1および第2のエネルギー関数の値を低減させることを含み、第1のエネルギー関数は、第1の誤差測定基準を使用し、第2のエネルギー関数は、第1の誤差測定基準とは異なる第2の誤差測定基準を使用する。そのような実施形態では、コンピュータは、第1および第2のエネルギー関数の値をそれぞれ低減させることによって得られる、第1および第2の組の平滑化および区分化パラメータに関する情報を組み合わせ得る。
本明細書は、例えば、以下の項目も提供する。
(項目1)
網膜の異常を検出するコンピュータ化された方法であって、
コンピュータによって、網膜の画像を受信することと、
前記コンピュータによって、前記画像を平滑化および区分化することであって、前記平滑化および区分化することは、相互依存的である、ことと、
前記コンピュータによって、平滑化および区分化された画像において少なくとも1つの網膜特徴を識別することと、
前記コンピュータによって、網膜の異常を識別するために、前記平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析することと
を含む、方法。
(項目2)
前記少なくとも1つの網膜特徴は、血管を備える、項目1に記載の方法。
(項目3)
前記識別された少なくとも1つの血管を分析することは、
前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの経路を決定することと、
前記経路に沿った場所における前記経路の配向の角度、および前記経路に沿った場所における前記少なくとも1つの血管の直径のうちの少なくとも1つにおける変動を決定することと、
前記変動が閾値を超える場合に、前記場所における網膜の異常を識別することと
を含む、項目2に記載の方法。
(項目4)
前記区分化および平滑化することは、前記画像における複数の場所におけるエッジフィールド強度を決定することを含み、前記少なくとも1つの経路は、少なくとも一部、前記エッジフィールド強度に基づいて決定される、項目3に記載の方法。
(項目5)
前記少なくとも1つの経路を決定することは、前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの中心線を決定することを含む、項目3に記載の方法。
(項目6)
前記配向の角度の変動を決定することは、連続する複数の場所の間の配向の角度の変化を決定することを含む、項目3に記載の方法。
(項目7)
前記コンピュータによって、複数の変動をフィルタにかけることをさらに含む、項目3に記載の方法。
(項目8)
前記複数の変動をフィルタにかけることは、移動窓平均を適用することを含む、項目7に記載の方法。
(項目9)
前記変動は、フィルタにかけられた複数の変動のうちの少なくとも1つが閾値を超える場合に、前記閾値を超える、項目7に記載の方法。
(項目10)
前記異常は、静脈内径の異常である、項目1に記載の方法。
(項目11)
前記異常は、新しい血管分布である、項目1に記載の方法。
(項目12)
ある場所における前記変動が閾値を超える場合に、前記コンピュータによって、血管分岐部が前記場所に存在するかどうかを決定することと、
血管分岐部が前記場所に存在する場合に、前記コンピュータによって、前記変動をフィルタによって除去することと
をさらに含む、項目3に記載の方法。
(項目13)
前記平滑化および区分化することは、前記コンピュータによって、前記画像における複数の場所に関連付けられる近傍を規定する形状および配向のうちの少なくとも1つを、適合的に調整することを含む、項目1に記載の方法。
(項目14)
前記近傍の形状および配向のうちの少なくとも1つを適合的に調整することは、誤差測定基準に関連付けられるエネルギー関数の値を低減させることを含む、項目13に記載の方法。
(項目15)
前記平滑化および区分化することは、
第1および第2のエネルギー関数の値を低減させることであって、前記第1のエネルギー関数は、第1の誤差測定基準を使用し、前記第2のエネルギー関数は、前記第1の誤差測定基準とは異なる第2の誤差測定基準を使用する、ことと、
前記第1および第2のエネルギー関数の値をそれぞれ低減させることによって得られる第1および第2の組の平滑化および区分化パラメータに関する情報を組み合わせることと
を含む、項目1に記載の方法。
(項目16)
前記識別された少なくとも1つの網膜特徴を分析することは、前記画像のテクスチャを分析することを含む、項目1に記載の方法。
(項目17)
網膜の異常を検出するためのシステムであって、
プロセッサを備え、前記プロセッサは、
網膜の画像を受信することと、
前記画像を平滑化および区分化することであって、前記平滑化および区分化は、相互依存的である、ことと、
平滑化および区分化された画像において少なくとも1つの網膜特徴を識別することと、
網膜の異常を識別するために、前記平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析することと
を行うように構成されている、システム。
(項目18)
前記少なくとも1つの網膜特徴は、血管を備える、項目17に記載のシステム。
(項目19)
前記識別された少なくとも1つの血管を分析することは、
前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの経路を決定することと、
前記経路に沿った場所における前記経路の配向の角度、および前記経路に沿った場所における前記少なくとも1つの血管の直径のうちの少なくとも1つにおける変動を決定することと、
前記変動が閾値を超える場合に、前記場所における網膜の異常を識別することと
を含む、項目18に記載のシステム。
(項目20)
前記区分化および平滑化することは、前記画像における複数の場所におけるエッジフィールド強度を決定することを含み、前記少なくとも1つの経路は、少なくとも前記エッジフィールド強度に基づいて決定される、項目18に記載のシステム。
(項目21)
前記少なくとも1つの経路を決定することは、前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの中心線を決定することを含む、項目19に記載のシステム。
(項目22)
前記配向の角度の変動を決定することは、連続する複数の場所の間の配向の角度の変化を決定することを含む、項目19に記載のシステム。
(項目23)
前記プロセッサは、複数の変動をフィルタにかけるようにさらに構成されている、項目19に記載のシステム。
(項目24)
前記複数の変動をフィルタにかけることは、移動窓平均を適用することを含む、項目23に記載のシステム。
(項目25)
前記変動は、フィルタにかけられた複数の変動のうちの少なくとも1つが閾値を超える場合に、前記閾値を超える、項目23に記載のシステム。
(項目26)
前記異常は、静脈内径の異常である、項目17に記載のシステム。
(項目27)
前記異常は、新しい血管分布である、項目17に記載のシステム。
(項目28)
前記プロセッサは、
ある場所における前記変動が閾値を超える場合に、血管分岐部が前記場所に存在するかどうかを決定することと、
血管分岐部が前記場所に存在する場合に、コンピュータによって、前記変動をフィルタによって除去することとを行うようにさらに構成されている、項目19に記載のシステム。
(項目29)
前記平滑化および区分化することは、コンピュータによって、前記画像における複数の場所に関連付けられる近傍を規定する形状および配向のうちの少なくとも1つを適合的に調整することを含む、項目17に記載のシステム。
(項目30)
前記近傍の形状および配向のうちの少なくとも1つを適合的に調整することは、誤差測定基準に関連付けられるエネルギー関数の値を低減させることを含む、項目29に記載のシステム。
(項目31)
前記平滑化および区分化することは、
第1および第2のエネルギー関数の値を低減させることであって、前記第1のエネルギー関数は、第1の誤差測定基準を使用し、前記第2のエネルギー関数は、前記第1の誤差測定基準とは異なる第2の誤差測定基準を使用する、ことと、
前記第1および第2のエネルギー関数の値をそれぞれ低減させることによって得られる第1および第2の組の平滑化および区分化パラメータに関する情報を組み合わせることと
を含む、項目17に記載のシステム。
(項目32)
前記識別された少なくとも1つの網膜特徴を分析することは、前記画像のテクスチャを分析することを含む、項目17に記載のシステム。
(項目33)
コンピュータによって実行可能な命令を記憶した非一過性コンピュータ可読媒体であって、前記命令は、実行されると、
網膜の画像を受信することと、
前記画像を平滑化および区分化することであって、前記平滑化および区分化することは、相互依存的である、ことと、
平滑化および区分化された画像において少なくとも1つの網膜特徴を識別することと、
網膜の異常を識別するために、前記平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析することと
を含む方法を前記コンピュータに実行させる、
非一過性コンピュータ可読媒体。
(項目34)
前記少なくとも1つの網膜特徴は、血管を備える、項目33に記載の非一過性コンピュータ可読媒体。
In some embodiments, smoothing and segmenting may define shapes and orientations that define neighborhoods associated with multiple locations in the image (eg, to reduce the value of the energy function associated with the error metric). Adaptively adjusting at least one of them. In some embodiments, smoothing and segmenting includes reducing the values of the first and second energy functions, the first energy function using a first error metric, The second energy function uses a second error metric that is different from the first error metric. In such embodiments, the computer may combine information about the first and second sets of smoothing and partitioning parameters obtained by reducing the values of the first and second energy functions, respectively.
This specification also provides the following items, for example.
(Item 1)
A computerized method for detecting retinal abnormalities,
Receiving a retina image by a computer;
Smoothing and segmenting the image by the computer, wherein the smoothing and segmentation is interdependent;
Identifying at least one retinal feature in the smoothed and segmented image by the computer;
Analyzing, by the computer, at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities;
Including a method.
(Item 2)
The method of claim 1, wherein the at least one retinal feature comprises a blood vessel.
(Item 3)
Analyzing the identified at least one blood vessel comprises:
Determining at least one path associated with the at least one blood vessel in the image;
Determining an angle of orientation of the path at a location along the path and a variation in at least one of the diameters of the at least one blood vessel at the location along the path;
Identifying a retinal abnormality at the location when the variation exceeds a threshold;
The method according to item 2, comprising:
(Item 4)
The segmenting and smoothing includes determining edge field strengths at a plurality of locations in the image, wherein the at least one path is determined based at least in part on the edge field strengths. 3. The method according to 3.
(Item 5)
4. The method of item 3, wherein determining the at least one path includes determining at least one centerline associated with the at least one blood vessel in the image.
(Item 6)
4. The method of item 3, wherein determining the orientation angle variation comprises determining a change in orientation angle between a plurality of consecutive locations.
(Item 7)
4. The method of item 3, further comprising filtering a plurality of variations by the computer.
(Item 8)
The method of claim 7, wherein filtering the plurality of variations comprises applying a moving window average.
(Item 9)
8. The method of item 7, wherein the variation exceeds the threshold when at least one of a plurality of variations that are filtered exceeds the threshold.
(Item 10)
The method according to item 1, wherein the abnormality is an abnormality of a venous inner diameter.
(Item 11)
The method according to item 1, wherein the abnormality is a new blood vessel distribution.
(Item 12)
Determining if a blood vessel bifurcation is present at the location by the computer if the variation at a location exceeds a threshold;
Removing a variation by a filter by the computer when a blood vessel bifurcation is present at the location;
The method according to item 3, further comprising:
(Item 13)
In item 1, the smoothing and segmentation includes adaptively adjusting, by the computer, at least one of a shape and orientation that defines a neighborhood associated with a plurality of locations in the image. The method described.
(Item 14)
14. The method of item 13, wherein adaptively adjusting at least one of the neighboring shape and orientation includes reducing an energy function value associated with an error metric.
(Item 15)
The smoothing and segmentation is:
Reducing the values of the first and second energy functions, wherein the first energy function uses a first error metric and the second energy function is the first error measurement. Using a second error metric different from the reference;
Combining information on the first and second sets of smoothing and partitioning parameters obtained by reducing the values of the first and second energy functions, respectively.
The method according to item 1, comprising:
(Item 16)
The method of item 1, wherein analyzing the identified at least one retinal feature comprises analyzing a texture of the image.
(Item 17)
A system for detecting retinal abnormalities,
A processor, the processor comprising:
Receiving an image of the retina;
Smoothing and segmenting the image, the smoothing and segmentation being interdependent;
Identifying at least one retinal feature in the smoothed and segmented image;
Analyzing at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities;
Configured to do the system.
(Item 18)
The system of claim 17, wherein the at least one retinal feature comprises a blood vessel.
(Item 19)
Analyzing the identified at least one blood vessel comprises:
Determining at least one path associated with the at least one blood vessel in the image;
Determining an angle of orientation of the path at a location along the path and a variation in at least one of the diameters of the at least one blood vessel at the location along the path;
Identifying a retinal abnormality at the location when the variation exceeds a threshold;
19. The system according to item 18, comprising:
(Item 20)
Item 18. The segmenting and smoothing includes determining edge field strength at a plurality of locations in the image, and the at least one path is determined based on at least the edge field strength. System.
(Item 21)
The system of claim 19, wherein determining the at least one path comprises determining at least one centerline associated with the at least one blood vessel in the image.
(Item 22)
20. The system of item 19, wherein determining the orientation angle variation comprises determining a change in orientation angle between a plurality of consecutive locations.
(Item 23)
The system of item 19, wherein the processor is further configured to filter a plurality of variations.
(Item 24)
24. The system of item 23, wherein filtering the plurality of variations includes applying a moving window average.
(Item 25)
24. The system of item 23, wherein the variation exceeds the threshold when at least one of a plurality of filtered variations exceeds the threshold.
(Item 26)
18. The system according to item 17, wherein the abnormality is an abnormality in a venous inner diameter.
(Item 27)
The system according to item 17, wherein the abnormality is a new blood vessel distribution.
(Item 28)
The processor is
Determining whether a vascular bifurcation is present at the location when the variation at a location exceeds a threshold;
Item 20. The system of item 19, further configured to filter the variation by a computer when a vascular bifurcation is present at the location.
(Item 29)
The item of claim 17, wherein the smoothing and segmenting includes adaptively adjusting, by a computer, at least one of a shape and orientation that defines a neighborhood associated with multiple locations in the image. system.
(Item 30)
30. The system of item 29, wherein adaptively adjusting at least one of the neighboring shape and orientation includes reducing an energy function value associated with an error metric.
(Item 31)
The smoothing and segmentation is:
Reducing the values of the first and second energy functions, wherein the first energy function uses a first error metric and the second energy function is the first error measurement. Using a second error metric different from the reference;
Combining information on the first and second sets of smoothing and partitioning parameters obtained by reducing the values of the first and second energy functions, respectively.
The system according to item 17, comprising:
(Item 32)
18. The system of item 17, wherein analyzing the identified at least one retinal feature comprises analyzing the texture of the image.
(Item 33)
A non-transitory computer readable medium storing instructions executable by a computer, wherein the instructions are executed,
Receiving an image of the retina;
Smoothing and segmenting the image, wherein the smoothing and segmentation is interdependent;
Identifying at least one retinal feature in the smoothed and segmented image;
Analyzing at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities;
Causing the computer to execute a method comprising:
A non-transitory computer readable medium.
(Item 34)
34. The non-transitory computer readable medium of item 33, wherein the at least one retinal feature comprises a blood vessel.

本願はまた、その全体が参照することにより本明細書に組み込まれる、2009年1月16日出願の米国特許出願第12/321,360号「Image−based Methods for Measuring Global Nuclear Patterns as Epigenetic Markers of Cell Differentiation」にも関する。   This application is also incorporated by reference herein in its entirety, U.S. Patent Application No. 12 / 321,360, “Image-based Methods for Measuring Global Patterns as Epigenetic Markers of January 16, 2009, which is incorporated herein by reference in its entirety. It also relates to “Cell Differentiation”.

本特許または出願ファイルは、色付きで実行された少なくとも1つの図面を含む。色付き図面を伴う本特許または特許出願公報の複製は、要求および必要手数料の支払いに応じて特許庁に提供される。本発明の上記および他の特徴、その性質および種々の利点は、添付図面と併せて解釈される、以下の詳細な説明を考慮すると明白となるであろう。
図1は、本発明の例証的実施形態による、画像分析用のシステムの概略図である。 図2は、本発明の実施形態による、平滑化されたデータ、区分、および属性推定値を生成するための例証的過程の図である。 図3は、本発明の実施形態による、画像データ例に適用されるような情報抽出方法を図示する。 図4A−4Cは、本発明の例証的実施形態による、近傍適合への3つの異なるアプローチを描写する。 図4A−4Cは、本発明の例証的実施形態による、近傍適合への3つの異なるアプローチを描写する。 図4A−4Cは、本発明の例証的実施形態による、近傍適合への3つの異なるアプローチを描写する。 図5は、ノイズの存在下での画像要素の検出において本発明によって達成可能な改善を明示する。 図6は、本発明の例証的実施形態による、エネルギー関数を最小限化することよって平滑化されたデータ、区分、および属性推定値を生成するための方法を図示する。 図7は、実施形態による、網膜の異常を検出するための技法のフロー図である。 図8は、実施形態による、異常検出技法800のフロー図である。 図9A−9Cは、実施形態による、異なるエネルギー関数定式化を使用したエッジ検出を図示する。 図10A−10Cは、実施形態による、網膜画像の処理を図示する。 図11A−11Cは、実施形態による、血管識別技法を図示する。 図12A−12Dは、実施形態による、血管経路検出技法を図示する。 図13A−13Cは、実施形態による、血管識別技法の動作および中間結果を図示する。 図14A−14Cは、血管の経路の傾斜の変動を決定する実施形態を図示する。 図15A−15Cは、血管の配向の角度の変動を決定する実施形態を図示する。 図16A−16Cは、血管の半径の変動を決定する実施形態を図示する。 図17A−17Fは、実施形態による、血管分岐部、および網膜の異常についてのその2つの分岐のそれぞれの分析を図示する。
This patent or application file contains at least one drawing executed in color. Copies of this patent or patent application publication with colored drawings will be provided to the Patent Office upon request and payment of the necessary fee. The above and other features of the invention, its nature and various advantages will be apparent upon consideration of the following detailed description, taken in conjunction with the accompanying drawings.
FIG. 1 is a schematic diagram of a system for image analysis, according to an illustrative embodiment of the invention. FIG. 2 is a diagram of an illustrative process for generating smoothed data, partitioning, and attribute estimates according to an embodiment of the present invention. FIG. 3 illustrates an information extraction method as applied to an example image data according to an embodiment of the present invention. 4A-4C depict three different approaches to neighborhood fitting, according to an illustrative embodiment of the invention. 4A-4C depict three different approaches to neighborhood fitting, according to an illustrative embodiment of the invention. 4A-4C depict three different approaches to neighborhood fitting, according to an illustrative embodiment of the invention. FIG. 5 demonstrates the improvement achievable by the present invention in the detection of image elements in the presence of noise. FIG. 6 illustrates a method for generating smoothed data, partitioning, and attribute estimates by minimizing the energy function, according to an illustrative embodiment of the invention. FIG. 7 is a flow diagram of a technique for detecting retinal abnormalities, according to an embodiment. FIG. 8 is a flow diagram of an anomaly detection technique 800, according to an embodiment. 9A-9C illustrate edge detection using different energy function formulations, according to embodiments. 10A-10C illustrate retinal image processing according to an embodiment. 11A-11C illustrate a vessel identification technique according to an embodiment. 12A-12D illustrate a vascular path detection technique according to an embodiment. 13A-13C illustrate the operation and intermediate results of the blood vessel identification technique, according to an embodiment. FIGS. 14A-14C illustrate an embodiment for determining variations in vessel path slope. 15A-15C illustrate an embodiment for determining the variation in the angle of blood vessel orientation. 16A-16C illustrate an embodiment for determining the variation in vessel radius. FIGS. 17A-17F illustrate an analysis of a vascular bifurcation and each of its two branches for retinal abnormalities, according to an embodiment.

本発明の全体的理解を提供するために、画像データからの情報抽出のためのシステムおよび方法を含む、ある例証的実施形態を説明する。しかしながら、本明細書で説明されるシステムおよび方法は、他の好適な用途のために適合および修正することができ、そのような他の追加および修正は、本明細書の範囲から逸脱しないことが当業者によって理解されるであろう。   In order to provide a general understanding of the present invention, certain illustrative embodiments are described, including systems and methods for extracting information from image data. However, the systems and methods described herein may be adapted and modified for other suitable applications, and such other additions and modifications may not depart from the scope of the specification. It will be understood by those skilled in the art.

(A.画像分析システム)
図1は、本発明の例証的実施形態による、画像分析システムの概略図である。システム100は、画像捕捉デバイス110と、画像データベース120と、情報抽出プロセッサ130と、ディスプレイ140と、結果データベース150と、分類プロセッサ160とを含む。
(A. Image analysis system)
FIG. 1 is a schematic diagram of an image analysis system, according to an illustrative embodiment of the invention. The system 100 includes an image capture device 110, an image database 120, an information extraction processor 130, a display 140, a results database 150, and a classification processor 160.

システム100は、場面の画像を捕捉するための少なくとも1つの画像捕捉デバイス110を含む。例示的な画像捕捉デバイス110は、可視光カメラおよびビデオレコーダ、PET、SPECT、MRI、X線、CTスキャナ、および他の医用撮像装置、明視野、位相差、原子間力、および走査型電子顕微鏡、衛星レーダ、サーモグラフィックカメラ、地震計、ならびにソナーおよび電磁波検出器を含む。画像捕捉デバイス110のそれぞれは、アナログまたはデジタル画像を生成し得る。単一の画像捕捉デバイス110によって捕捉される画像は、スカラー、ベクトル、またはマトリクス値であってもよく、時間の関数として変化し得る。撮像された場面は、少なくとも1つの性質の測定を画像捕捉デバイスによって得ることができる、任意の関心の物理的対象、物理的対象の集合、または物理的現象を含むことができる。例えば、胎児の胎児期環境は、超音波画像捕捉デバイスで測定することができる場面である。別の実施例では、大気中水分の位置および移動は、衛星レーダ画像捕捉デバイスで測定することができる場面である。   The system 100 includes at least one image capture device 110 for capturing an image of a scene. Exemplary image capture devices 110 include visible light cameras and video recorders, PET, SPECT, MRI, X-ray, CT scanners, and other medical imaging devices, bright field, phase contrast, atomic force, and scanning electron microscopes. Including satellite radar, thermographic cameras, seismometers, and sonar and electromagnetic wave detectors. Each of the image capture devices 110 may generate an analog or digital image. An image captured by a single image capture device 110 may be a scalar, vector, or matrix value and may vary as a function of time. The imaged scene can include any physical object of interest, collection of physical objects, or physical phenomenon for which at least one property measurement can be obtained by the image capture device. For example, the fetal environment of a fetus is a scene that can be measured with an ultrasound image capture device. In another example, atmospheric moisture location and movement is a scene that can be measured with a satellite radar image capture device.

画像データベース120は、一式の画像データとして画像捕捉デバイス110によって捕捉される画像を記憶するために使用される。画像データベース120は、磁気、光学、および/または半導体メモリの適切な組み合わせを備えてもよく、例えば、RAM、ROM、フラッシュドライブ、コンパクトディスク等の光ディスク、および/またはハードディスクあるいはドライブを含み得る。当業者であれば、プロセッサ130、ローカル記憶ユニット、または可撤性コンピュータ可読媒体と通信するように設計されているデータベースサーバを含む例示的実施形態とともに、システム100内の画像データベース120のためのいくつかの好適な実装を認識するであろう。   The image database 120 is used to store images captured by the image capture device 110 as a set of image data. The image database 120 may comprise any suitable combination of magnetic, optical, and / or semiconductor memory, and may include, for example, RAM, ROM, optical disks such as flash drives, compact disks, and / or hard disks or drives. Those skilled in the art will be familiar with several examples for the image database 120 in the system 100, along with exemplary embodiments including a database server designed to communicate with the processor 130, a local storage unit, or a removable computer readable medium. Those preferred implementations will be recognized.

情報抽出プロセッサ130およびデータベース120は、同じ物理ユニット内に組み込まれるか、または、USBポート、シリアルポートケーブル、同軸ケーブル、Ethernet(登録商標)型ケーブル、電話線、無線周波数送受信機、または他の同様の無線あるいは有線媒体、もしくは前述の組み合わせ等の通信媒体によって相互に接続される、別個のデバイスとして収納され得る。情報抽出プロセッサ130は、一式の画像データの空でない一部を取得するためにデータベース120に問い合わせる。情報抽出プロセッサ130はまた、以下で説明される情報抽出過程も行う。情報抽出プロセッサ130の例示的実施形態は、汎用コンピュータで見られるソフトウェアプログラム可能プロセッサ、ならびにより大型の装置内に組み込むことができる特殊プロセッサを含む。情報抽出プロセッサ130は、コンピュータ可読媒体上に記憶された命令を実行することによって、本明細書で説明される方法を行い、当業者であれば、そのような媒体は、無制限に、固体、磁気、ホログラフィック、磁気光学、および光学メモリユニットを含むことを認識するであろう。情報抽出プロセッサ130および図1の残りの要素の付加的な実施形態は、以下で論議される。   The information extraction processor 130 and the database 120 may be integrated into the same physical unit, or a USB port, serial port cable, coaxial cable, Ethernet type cable, telephone line, radio frequency transceiver, or other similar Can be housed as separate devices that are connected to each other by a wireless or wired medium, or a communication medium such as a combination of the foregoing. The information extraction processor 130 queries the database 120 to obtain a non-empty portion of the set of image data. The information extraction processor 130 also performs the information extraction process described below. Exemplary embodiments of information extraction processor 130 include software programmable processors found in general purpose computers, as well as specialized processors that can be incorporated into larger devices. The information extraction processor 130 performs the methods described herein by executing instructions stored on a computer readable medium, and those of ordinary skill in the art will recognize, without limitation, such media as solid, magnetic, It will be appreciated that includes holographic, magneto-optic, and optical memory units. Additional embodiments of the information extraction processor 130 and the remaining elements of FIG. 1 are discussed below.

情報抽出方法の完了時に、または方法と同時に、情報抽出プロセッサ130は、処理データの集合を出力する。ディスプレイ140が、処理データをユーザに視覚的に提示する。例示的実施形態は、コンピュータモニタまたは他の電子画面、情報抽出プロセッサ130と通信している電子プリンタによって生成される物理的プリントアウト、または3次元投影あるいはモデルを含む。結果データベース150は、処理データがさらなる分析のために記憶される、データ記憶デバイスである。例示的実施形態は、画像データベース120について説明される構造およびデバイス、ならびに当業者に公知である他のものを含む。分類プロセッサ160は、処理データを分類する、すなわち、撮像した場面内の要素の意味および内容を識別するために、データベース150から処理データを随意で抽出し、情報抽出プロセッサ130について説明されるアーキテクチャおよびデバイスによって具現化され得る、データ処理デバイスである。   Upon completion of the information extraction method or simultaneously with the method, the information extraction processor 130 outputs a set of processing data. A display 140 visually presents the processing data to the user. Exemplary embodiments include a computer monitor or other electronic screen, a physical printout generated by an electronic printer in communication with the information extraction processor 130, or a three-dimensional projection or model. The results database 150 is a data storage device where processed data is stored for further analysis. Exemplary embodiments include the structures and devices described for the image database 120, as well as others known to those skilled in the art. The classification processor 160 optionally extracts the processing data from the database 150 to classify the processing data, i.e. identify the meaning and content of the elements in the captured scene, and the architecture and information described for the information extraction processor 130. A data processing device that may be embodied by a device.

システム構成要素110−160は、別個のユニットとして図1に描写されているが、当業者であれば、これらのユニットのうちの2つ以上を、同じ全体的機能を果たす統合装置に実用的に合体させることができると即座に認識するであろう。例えば、単一の物理的カメラが、可視および赤外線撮像能力の両方を有し、したがって、2つの画像捕捉デバイスを表し得る。単一の画像処理デバイスはまた、プロセッサ130に直接伝送することができる画像データ用のデータベース120を含み得る。同様に、データベース120およびプロセッサ130は、プロセッサ130および160を構成することができるように、単一の汎用コンピュータ内に構成することができる。ハードウェア内のシステム構成要素の多くの組み合わせが可能であり、依然として請求されたシステムの範囲内にとどまる。システム構成要素110−160は、物理的接続上で通信プロトコルを使用して連結することができるか、または無線通信プロトコルを使用して連結することができる。1つの例示的実施形態では、画像データは、無線で、または電子ネットワークを介して、画像捕捉デバイスからデータ処理施設に伝送され、そこで記憶および処理される。別の例示的実施形態では、図1のシステムは、自動車または自動車隊の挙動に関する決定を行うために処理データを使用することが可能である、自動車または自動車隊内に配備される。   Although system components 110-160 are depicted in FIG. 1 as separate units, one of ordinary skill in the art would practically combine two or more of these units into an integrated device that performs the same overall function. You will immediately recognize that they can be combined. For example, a single physical camera has both visible and infrared imaging capabilities and can therefore represent two image capture devices. A single image processing device may also include a database 120 for image data that can be transmitted directly to the processor 130. Similarly, database 120 and processor 130 can be configured in a single general purpose computer so that processors 130 and 160 can be configured. Many combinations of system components in hardware are possible and still remain within the claimed system. System components 110-160 can be coupled using a communication protocol over a physical connection or can be coupled using a wireless communication protocol. In one exemplary embodiment, image data is transmitted from an image capture device to a data processing facility where it is stored and processed wirelessly or via an electronic network. In another exemplary embodiment, the system of FIG. 1 is deployed in an automobile or fleet that can use processing data to make decisions regarding the behavior of the automobile or fleet.

図1に戻って、当業者であれば、全体としてシステムに対する多くの異なる設定のように、システム構成要素110−160の多くの異なる実施形態が可能であることを認識するであろう。一実施形態では、図1のシステムは、研究室または医学研究環境に存在し、例えば、かん流撮像、fMRI、マルチスペクトルまたはハイパースペクトル撮像、明視野顕微鏡検査、または位相差顕微鏡検査からの画像データを使用して、患者診断を向上させるために使用される。別の実施形態では、図1のシステムは、監視局内に存在し、少なくとも1つの撮像デバイスからのデータを組み合わせることによって、特定の地理的領域で状態を評価するために使用される。これらのデバイスは、衛星レーダ、航空写真術またはサーモグラフィ、地震計、ソナーまたは電磁波検出器を含み得る。別の実施形態では、図1のシステムは、任意の汎用コンピュータがハードウェア要件を満たし、ユーザの特定の用途から生じる画像データから情報を抽出するために構成することができる。   Returning to FIG. 1, those skilled in the art will recognize that many different embodiments of the system components 110-160 are possible, as are many different settings for the system as a whole. In one embodiment, the system of FIG. 1 is present in a laboratory or medical research environment, for example, image data from perfusion imaging, fMRI, multispectral or hyperspectral imaging, bright field microscopy, or phase contrast microscopy. Used to improve patient diagnosis. In another embodiment, the system of FIG. 1 resides within a monitoring station and is used to assess conditions in a particular geographic region by combining data from at least one imaging device. These devices may include satellite radar, aerial photography or thermography, seismometers, sonar or electromagnetic wave detectors. In another embodiment, the system of FIG. 1 can be configured for any general purpose computer to meet the hardware requirements and extract information from the image data resulting from the user's particular application.

(B.情報抽出)
情報抽出プロセッサ130は、適合的に調整した近傍を使用して、場面の表現を向上させるように画像データを平滑化し、場面内の要素間のエッジを決定することにより、これらの要素を区別するように画像データを区分化し、場面内の要素の属性を推定することによって、撮像した場面内の要素に関する情報を抽出するように構成される。図2は、情報抽出プロセッサ130によって果たされる情報抽出方法の1つの例証的実施形態を描写する。情報抽出プロセッサ130への入力は、画像1、2、…、Nを備える画像データ210、画像データの特性の予備知識220、および撮像した場面内の属性の予備知識230を含む。画像データの特性の予備知識220は、ノイズ強度および分布情報、撮像した場面のモデル、環境要因、ならびに撮像機器の性質を含む。撮像した場面内の属性の予備知識230は、既知の属性を有する場面内の場所、撮像した場面内の要素の存在または不在の知識、撮像した場面の現実世界の体験、または撮像した場面の内容に関する確率的評価を含む。平滑化240、区分化250、および属性推定260の過程は、プロセッサが、他の過程を行う際に、これらの過程のそれぞれの結果を考慮するという意味で、相互依存的である。近傍の適合的調整265は、以下でより詳細に論議される。加えて、過程は、同時に、または実質的に同時に実行される。これらの過程の終わりに、情報抽出プロセッサ130は、一式の平滑化したデータ270、撮像した場面を一貫した要素に分割する一式の区分280、および場面内に存在する一式の推定属性290を含む処理データの集合を出力する。過程240、250、および260のそれぞれは、以下でより詳細に論議される。
(B. Information extraction)
The information extraction processor 130 uses adaptively adjusted neighborhoods to smooth out the image data to improve the representation of the scene and distinguish these elements by determining edges between elements in the scene. As described above, the image data is segmented and the attribute of the element in the scene is estimated to extract information on the element in the captured scene. FIG. 2 depicts one illustrative embodiment of an information extraction method performed by the information extraction processor 130. The input to the information extraction processor 130 includes image data 210 comprising images 1, 2,..., N, prior knowledge 220 of image data characteristics, and prior knowledge 230 of attributes within the captured scene. Image data characteristics prior knowledge 220 includes noise intensity and distribution information, captured scene model, environmental factors, and imaging device properties. The prior knowledge 230 of the attributes in the captured scene includes the location in the scene with known attributes, the knowledge of the presence or absence of elements in the captured scene, the real-world experience of the captured scene, or the content of the captured scene Including a probabilistic evaluation of The smoothing 240, segmentation 250, and attribute estimation 260 processes are interdependent in the sense that the processor considers the results of each of these processes when performing other processes. Neighbor adaptive adjustments 265 are discussed in more detail below. In addition, the processes are performed simultaneously or substantially simultaneously. At the end of these processes, the information extraction processor 130 includes a set of smoothed data 270, a set of partitions 280 that divide the captured scene into consistent elements, and a set of estimated attributes 290 that exist within the scene. Output a set of data. Each of processes 240, 250, and 260 are discussed in more detail below.

平滑化過程240は、画像データから一式の平滑化したデータ270を生成する。平滑化したデータ270は、撮像した場面の真の特性の最も正確な推定値を表す。画像はしばしば、ノイズによって、および撮像機器からのひずみによって破損され、その結果として、画像データは、決して真の場面の完璧な表現ではない。平滑化240を行う場合に、プロセッサ130は、いくつかある要因の中でも特に、画像データと、撮像した場面の物理モデルと、撮像した場面とデータベース120との間の全ての点において生じるノイズの特性と、区分化過程250および属性推定過程260の結果とを考慮に入れる。   The smoothing process 240 generates a set of smoothed data 270 from the image data. Smoothed data 270 represents the most accurate estimate of the true characteristics of the imaged scene. Images are often corrupted by noise and by distortion from imaging equipment, so that image data is by no means a perfect representation of a true scene. When performing the smoothing 240, the processor 130 may, among other factors, characterize noise that occurs at all points between the image data, the physical model of the captured scene, and the captured scene and the database 120. And the results of the segmentation process 250 and the attribute estimation process 260 are taken into account.

区分化過程250は、1つの要素を別の要素と区別するエッジを描くことによって、撮像した場面内の明確に異なる要素の境界を定める。例えば、区分化過程は、対象とその背景、撮像した場面内で重複するいくつかの対象、または異なる属性を示す撮像した場面内の領域を区別し得る。区分化過程は、区分280を規定する一式のエッジをもたらす。これらのエッジは、スカラー、ベクトル、またはマトリクス値であってもよく、または他のデータ型を表し得る。区分化250を行う場合に、情報抽出プロセッサ130は、いくつかある要因の中でも特に、画像データ210と、撮像した場面の物理モデルと、撮像した場面と画像データベース120との間の全ての点において生じるノイズの特性と、平滑化過程240および属性推定過程260の結果とを考慮に入れる。   The segmentation process 250 demarcates distinct elements in the captured scene by drawing edges that distinguish one element from another. For example, the segmentation process may distinguish between an object and its background, several objects that overlap within the captured scene, or an area within the captured scene that exhibits different attributes. The segmentation process results in a set of edges that define the segment 280. These edges may be scalar, vector, or matrix values, or may represent other data types. When performing segmentation 250, the information extraction processor 130, among other factors, includes the image data 210, the physical model of the captured scene, and all points between the captured scene and the image database 120. The characteristics of the resulting noise and the results of the smoothing process 240 and the attribute estimation process 260 are taken into account.

属性推定過程260は、撮像した場面内の要素の性質を識別する。属性は、画像データがなんらかの情報を含む対象の任意の性質である。一式の利用可能な属性は、画像データ内で表される撮像モダリティに依存する。例えば、サーモグラフィックカメラが、赤外線放射から画像を生成し、これらの画像は、撮像した場面内の対象の温度に関する情報を含む。属性の付加的な例は、とりわけ、テクスチャ、放射能、水分含量、色、および物質組成を含む。例えば、パイナップルの表面が、粗い(属性の値)というテクスチャ(属性)を有するものとしてプロセッサによって識別され得る。一実施形態では、関心の属性は、画像データを表すパラメータ化モデル群の基礎となるパラメータである。別の実施形態では、関心の属性は、パラメトリックモデル自体である。属性測定を行う場合に、情報抽出プロセッサ130は、いくつかある要因の中でも特に、画像データ210と、撮像した場面の物理モデルと、撮像した場面と画像データベース120との間の全ての点において生じるノイズの特性と、平滑化過程240および区分化過程250の結果とを考慮に入れる。   The attribute estimation process 260 identifies the nature of the elements in the captured scene. An attribute is any property of an object whose image data contains some information. The set of available attributes depends on the imaging modality represented in the image data. For example, a thermographic camera generates images from infrared radiation, and these images contain information about the temperature of the object in the captured scene. Additional examples of attributes include texture, radioactivity, moisture content, color, and material composition, among others. For example, the surface of a pineapple may be identified by the processor as having a texture (attribute) that is rough (attribute value). In one embodiment, the attribute of interest is the parameter on which the parameterized model group representing the image data is based. In another embodiment, the attribute of interest is the parametric model itself. When performing attribute measurements, the information extraction processor 130 occurs at all points between the image data 210, the physical model of the captured scene, and the captured scene and the image database 120, among other factors. The noise characteristics and the results of the smoothing process 240 and the segmentation process 250 are taken into account.

1つより多くの画像が画像データ内で表される場合に、情報抽出プロセッサ130はまた、特定の属性について、各画像内に含まれる状態の相対量を決定し得る。この属性を推定する場合に、情報抽出プロセッサ130は、次いで、属性に関するその情報内容に従って、各画像を利用し得る。例えば、マルチスペクトル撮像は、そのそれぞれが特定の波長帯域で動作するカメラによって生成された複数の画像を返す。異なる属性が、1つの周波数で別の周波数よりも良く表され得る。例えば、衛星は、深海を撮像するために450−520nmの波長範囲を使用するが、地上植物を撮像するために1550−1750nmの波長範囲を使用する。加えて、情報抽出プロセッサ130は、関心の属性に特に関連する画像を識別するために、画像データの統計を使用し得る。例えば、画像データの1つ以上の異なる加重組み合わせが、任意の特定の属性の他の組み合わせと比較して、より多くの情報内容を有するものとして識別され得る。本発明は、属性推定過程が、平滑化および区分化過程と相互依存的に、異なる画像からのデータを選択的に利用することを可能にする。   If more than one image is represented in the image data, the information extraction processor 130 may also determine the relative amount of state included in each image for a particular attribute. In estimating this attribute, the information extraction processor 130 may then utilize each image according to its information content regarding the attribute. For example, multispectral imaging returns multiple images, each generated by a camera operating in a specific wavelength band. Different attributes may be better represented at one frequency than at another frequency. For example, satellites use a wavelength range of 450-520 nm to image the deep sea, but use a wavelength range of 1550-1750 nm to image terrestrial plants. In addition, the information extraction processor 130 may use image data statistics to identify images that are particularly relevant to the attribute of interest. For example, one or more different weighted combinations of image data can be identified as having more information content compared to other combinations of any particular attribute. The present invention allows the attribute estimation process to selectively use data from different images, interdependently with the smoothing and segmentation processes.

加えて、情報抽出プロセッサ130は、平滑化、区分化、および属性推定過程のうちの任意のものに対して、撮像した場面内の異なる場所において異なる方法でデータを選択的に利用し得る。例えば、データセット内の各画像が、異なる角度で撮影された個人の写真に対応する場合、これらの画像の一部のみが、個人の顔の特徴に関する情報を含む。したがって、これらの画像は、撮像した場面内の顔の領域に関する情報を抽出するために、情報抽出プロセッサ130によって選択的に使用される。本明細書で提示される情報抽出方法は、平滑化、区分化、および属性推定過程と相互依存的に、異なる場所における撮像した場面内の要素を分解するために画像データを選択的に利用することが可能である。   In addition, the information extraction processor 130 may selectively utilize data in different ways at different locations within the captured scene for any of the smoothing, segmentation, and attribute estimation processes. For example, if each image in the data set corresponds to a personal picture taken at a different angle, only a portion of these images contain information about the personal facial features. Thus, these images are selectively used by the information extraction processor 130 to extract information about the facial region in the captured scene. The information extraction method presented herein selectively uses image data to decompose elements in captured scenes at different locations, interdependently with the smoothing, segmentation, and attribute estimation processes. It is possible.

関心の属性の数および利用可能な画像の数は、独立であり得ることに留意することが重要である。例えば、いくつかの属性を単一の画像内で推定することができ、または複数の画像が単一の属性を推定するように組み合わせられ得る。   It is important to note that the number of attributes of interest and the number of available images can be independent. For example, several attributes can be estimated within a single image, or multiple images can be combined to estimate a single attribute.

(C.用途:航空撮像)
情報抽出方法をより明確に説明するためには、実施例が役立つ。図3は、図2の方法論に従って図1の画像分析システムによって処理するための3つの画像310、320、330を描写する。これら3つの画像は、同じ場面を表し、画像310は、航空写真であり、画像320は、雲量の衛星レーダ画像であり、画像330は、空中サーモグラム(場面内の要素によって発せられる熱放射を測定する)である。これら3つの画像は、3つの異なる撮像モダリティ、すなわち、場面に関する情報を捕捉する方法を表し、したがって、単一のモダリティよりも多くの種類の現象を検出することが可能である。実施例では、画像320は、雲の存在を表す。画像330は、場面内の住居の特性を示し得る、高熱放射の領域を明らかにする。住居は、木葉および雲量で隠されているため、画像310の中では検出しにくい。本情報抽出方法の強みのうちの1つは、場面内の下にある要素を最も良く明らかにするように複数のモダリティを組み合わせる能力である。異なるモダリティの組み合わせは、以下でより詳細に論議される。
(C. Application: Aerial imaging)
Examples are useful for more clearly explaining the information extraction method. FIG. 3 depicts three images 310, 320, 330 for processing by the image analysis system of FIG. 1 according to the methodology of FIG. These three images represent the same scene, image 310 is an aerial photograph, image 320 is a cloud cover satellite radar image, and image 330 is an aerial thermogram (the thermal radiation emitted by elements in the scene). Measure). These three images represent three different imaging modalities, i.e. how to capture information about the scene, and therefore it is possible to detect more kinds of phenomena than a single modality. In the example, image 320 represents the presence of a cloud. The image 330 reveals areas of high thermal radiation that can show the characteristics of the dwellings in the scene. Since the dwelling is hidden by the foliage and the amount of clouds, it is difficult to detect in the image 310. One of the strengths of this information extraction method is the ability to combine multiple modalities to best reveal the underlying elements in the scene. Different modality combinations are discussed in more detail below.

情報抽出プロセッサ130は、データベース120からこれら3つの画像を取得し、次いで、一式の平滑化したデータ270、場面内の一式の区分280、および場面内の属性の推定値290を出力する。目的が、地上の構造の最も正確な表現を取得することである場合、一式の平滑化したデータ270は、図解340で描写されるとおりであり得る。平滑化したデータ270を生成するために、情報抽出プロセッサ130は、覆い隠す木葉を除去し、地上の構造のより明確な図解を生成するために、画像320からの雲量に関する情報および画像330からの住居の潜在的存在を使用している。画像データを区分化することにより、住居および道路の輪郭が識別される、図解350で描写される一式の区分化したデータ280をもたらし得る。ユーザの関心に応じて、情報抽出プロセッサ130はまた、画像310内の木葉または画像320内の雲等の場面内の付加的な要素を平滑化し、区分化し得る。情報抽出プロセッサ130はまた、図解360で描写されるように、属性推定過程260を介して、住居および道路のそれぞれを構築するために使用される材料を識別し得る。以下でより詳細に論議されるように、属性推定過程260は、撮像した場面内の「アスファルト」および「アルミニウム」表面を識別するために、適合的近傍調整過程265を介して、異なる近傍を使用し得る。いったん処理データが利用可能になると、撮像した場面内の要素を分類するために分類プロセッサ160が使用されてもよく、例えば、図解370は、平滑化、区分化、および属性推定過程240−260の全ての結果を使用して、撮像した場面内の「道路」および「住居」を識別する。平滑化、区分化、および属性推定過程240−260の付加的な実施形態は、以下で説明される。   The information extraction processor 130 obtains these three images from the database 120 and then outputs a set of smoothed data 270, a set of segments 280 in the scene, and an estimate 290 of attributes in the scene. If the goal is to obtain the most accurate representation of the structure on the ground, the set of smoothed data 270 can be as depicted in the illustration 340. To generate the smoothed data 270, the information extraction processor 130 removes the obscuring leaves and generates information about the cloud cover from the image 320 and from the image 330 to generate a clearer illustration of the structure on the ground. Using the potential existence of a residence. By segmenting the image data, the set of segmented data 280 depicted in the illustration 350 can be provided in which residence and road contours are identified. Depending on the user's interest, the information extraction processor 130 may also smooth and segment additional elements in the scene, such as leaves in the image 310 or clouds in the image 320. Information extraction processor 130 may also identify materials used to build each of the residences and roads via attribute estimation process 260, as depicted in illustration 360. As discussed in more detail below, the attribute estimation process 260 uses different neighborhoods via the adaptive neighborhood adjustment process 265 to identify “asphalt” and “aluminum” surfaces in the captured scene. Can do. Once processing data is available, a classification processor 160 may be used to classify elements within the captured scene, for example, the illustration 370 may be used for smoothing, segmentation, and attribute estimation processes 240-260. All results are used to identify “roads” and “residences” in the captured scene. Additional embodiments of the smoothing, segmentation, and attribute estimation processes 240-260 are described below.

(D.適合的近傍化)
ノイズの多い画像から一式の平滑化したデータ270を生成する時、またはそれらの属性値に従って区分を分類する場合に、撮像した場面内のどの場所がエッジに対応し、どれが対応しないかを区別できることが望ましい。エッジが識別されると、次いで、情報抽出プロセッサ130は、そのエッジの両側およびエッジ自体の上の場所を別個に処置し、平滑化および分類性能を向上させる。次いで、平滑化、区分化、および属性推定過程中に、選択的に局所情報を使用することが望ましい。したがって、一実施形態では、適合的近傍調整過程265において、周囲の場所の近傍に基づいて各場所で決定が行われる。本発明の一実施形態は、近傍を撮像した場面内の各特定場所と関連付ける。各近傍は、特定の場所の付近のいくつかの他の場所を含む。次いで、情報抽出プロセッサ130は、平滑化、区分化、および属性推定過程240−260に集中して、場所に関する情報をより適切に抽出するために、各場所の近傍を使用することができる。その最も単純な形態で、各場所に関連付けられる近傍は、固定されたサイズ、形状、および配向、例えば、固定半径を伴う円を有することができる。しかしながら、柔軟性のない近傍サイズおよび形状を使用することには、いくつかの欠点がある。例えば、場所がエッジの上に位置する場合には、固定された近傍に依存する平滑化および属性推定過程は、エッジの両側の場面要素からの情報を使用し、誤った結果につながる。1つの改良は、局所情報に基づいて各場所の近傍のサイズを調整することである。さらなる改良は、適合的近傍調整過程265において、局所特性により良く合致するように、場所の近傍のサイズ、形状、および配向を調整することを含む。これらの実施例は、以下でより詳細に説明される。
(D. Adaptive neighborhood)
When generating a set of smoothed data 270 from a noisy image, or when classifying segments according to their attribute values, distinguish which locations in the captured scene correspond to edges and which do not It is desirable to be able to do it. Once an edge has been identified, the information extraction processor 130 then treats both sides of the edge and locations on the edge itself separately to improve smoothing and classification performance. It is then desirable to use local information selectively during the smoothing, segmentation, and attribute estimation processes. Thus, in one embodiment, the adaptive neighborhood adjustment process 265 makes a determination at each location based on the neighborhood of the surrounding locations. One embodiment of the present invention associates a neighborhood with each specific location in the scene that was imaged. Each neighborhood includes a number of other locations near a particular location. The information extraction processor 130 can then use the neighborhood of each location to focus more on the smoothing, segmentation, and attribute estimation processes 240-260 to better extract information about the location. In its simplest form, the neighborhood associated with each location can have a fixed size, shape, and orientation, eg, a circle with a fixed radius. However, there are several drawbacks to using inflexible neighborhood sizes and shapes. For example, if the location is located above an edge, a smoothing and attribute estimation process that relies on a fixed neighborhood uses information from the scene elements on both sides of the edge, leading to incorrect results. One improvement is to adjust the neighborhood size of each location based on local information. Further improvements include adjusting the size, shape, and orientation of the neighborhood in the adaptive neighborhood adjustment process 265 to better match the local characteristics. These embodiments are described in more detail below.

一実施形態では、情報抽出プロセッサ130は、撮像した場面内の周囲の場所の近傍のサイズ、形状、および配向特性を調整しながら情報抽出方法を行う。具体的には、プロセッサ130は、平滑化、区分化、および属性推定過程240−260と相互依存的に、各場所に関連付けられる近傍の特性を適合させる。別の実施形態では、情報抽出プロセッサ130は、情報抽出プロセッサ130によって分析される各属性に、別個の独立して適合された近傍を利用する。   In one embodiment, the information extraction processor 130 performs the information extraction method while adjusting the size, shape, and orientation characteristics in the vicinity of the surrounding location in the captured scene. Specifically, processor 130 adapts the neighborhood characteristics associated with each location in an interdependent manner with the smoothing, segmentation, and attribute estimation processes 240-260. In another embodiment, information extraction processor 130 utilizes a separate, independently adapted neighborhood for each attribute analyzed by information extraction processor 130.

適合的近傍サイズ、形状、および配向を利用することの便益性は、図4A−4Cおよび図5で見ることができる。図4A−4Cは、3つの異なる近傍ベースのアプローチを図示する。各実施例の図4A−4Cは、エッジ、および対応する場所におけるいくつかの例証的近傍410−430を描写する。第1の実施例は、撮像した場面内の各場所に関連付けられる近傍410が同一であるアプローチを図示する。図4Aでは、全ての近傍410は、固定された半径を伴って該場所を中心とする円である。図4Bでは、全ての近傍420は円形であるが、近傍420がエッジに重複することを回避するために変化することが許される半径を伴う。図4Cでは、本発明の例示的実施形態では、近傍430は、局所領域の特性により良く適合するように、それらのサイズ、形状、および配向を変化させることが許される楕円である。   The benefits of utilizing adaptive neighborhood sizes, shapes, and orientations can be seen in FIGS. 4A-4C and FIG. 4A-4C illustrate three different neighborhood-based approaches. FIGS. 4A-4C for each example depict edges and some illustrative neighborhoods 410-430 at corresponding locations. The first example illustrates an approach where the neighborhood 410 associated with each location in the captured scene is the same. In FIG. 4A, all neighbors 410 are circles centered on the location with a fixed radius. In FIG. 4B, all neighbors 420 are circular, but with a radius that is allowed to change to avoid the neighbors 420 overlapping the edges. In FIG. 4C, in an exemplary embodiment of the invention, neighborhoods 430 are ellipses that are allowed to change their size, shape, and orientation to better match the characteristics of the local region.

そのような適合を提供することができる改良を実証するために、未加工画像データ内に存在するノイズを低減させるように平滑化過程240内に平均化ステップを含む、情報抽出方法の例示的実施形態を考慮する。平均化ステップは、その場所における画像データ値を関連近傍内に入る場所のそれぞれにおける画像データ値の平均と置換することによって、各場所(関連近傍を伴う)における平滑化したデータ値を生成する。   An exemplary implementation of an information extraction method that includes an averaging step within the smoothing process 240 to reduce noise present in the raw image data to demonstrate improvements that can provide such a fit. Consider the form. The averaging step generates a smoothed data value at each location (with associated neighborhood) by replacing the image data value at that location with the average of the image data values at each location that falls within the relevant neighborhood.

図4A−4Cを参照すると、この平均化は、示された近傍410−430上で行われる。図4Aでは、平均化は、エッジ値にわたって、および区分を横断して生じ、区分間の区別を不鮮明にする。近傍410に従った数学的定式化は、以下によって与えられ、   Referring to FIGS. 4A-4C, this averaging is performed on the neighborhoods 410-430 shown. In FIG. 4A, averaging occurs across edge values and across partitions, blurring the distinction between partitions. The mathematical formulation according to neighborhood 410 is given by:

式中、gは、画像データであり、uは、平滑化したデータであり、α、βは、調整可能なパラメータであり、積分が領域R中の全ての場所Xにわたって得られる。 In the equation, g is image data, u is smoothed data, α and β are adjustable parameters, and integration is obtained over all locations X in the region R.

図4Bでは、エッジ付近の場所は、エッジに重複することを回避するように必然的に小さく、したがって、よりノイズの影響を受けやすい、関連近傍420を有する。近傍420に従った数学的定式化は、以下によって与えられ、   In FIG. 4B, the location near the edge has an associated neighborhood 420 that is necessarily small so as to avoid overlapping the edge, and thus more susceptible to noise. The mathematical formulation according to the neighborhood 420 is given by:

式中、gは、画像データであり、uは、平滑化したデータであり、vは、エッジ値であり、α、β、ρは、調整可能なパラメータである。図4Bに図示されたものに関係する方法は、その全体が参照することにより本明細書に組み込まれる、”Model−based variational smoothing and segmentation for diffusion tensor imaging in the brain,” Neuroinformatics, v. 4 2006で、Desaiらによって、人間の脳の拡散テンソル撮像データを分析するために使用された。 In the equation, g is image data, u is smoothed data, v is an edge value, and α, β, and ρ are adjustable parameters. A method related to that illustrated in FIG. 4B is incorporated herein by reference in its entirety, “Model-based variational smoothing and segmentation for tenor imaging in the brain,” Neuroinformatics. 4 Used in 2006 by Desai et al. To analyze diffusion tensor imaging data of the human brain.

サイズ、形状、および配向が変化することが許される、図4Cでは、各場所が平均化する近傍430を選択的に識別することを可能にし、ノイズ低減性能を向上させながら、エッジを横断する平均化が防止される。近傍430に従った数学的定式化は、以下によって与えられ、   In FIG. 4C, where the size, shape, and orientation are allowed to change, it is possible to selectively identify the neighborhood 430 that each location averages, and the average across the edges while improving noise reduction performance. Is prevented. The mathematical formulation according to the neighborhood 430 is given by:

gは、画像データであり、uは、平滑化したデータであり、Vは、近傍を表す対称的な正定値の2×2行列であり、wは、データ忠実度項を重み付けし、FおよびGは、関数であり、α、β、ρ、ρは、調整可能なパラメータである。情報抽出プロセッサ130はまた、近傍のサイズ、形状、および配向を調整するために、平滑化および属性推定過程150−160から生じる情報を使用することもできる。 g is image data, u is smoothed data, V is a symmetric positive definite 2 × 2 matrix representing the neighborhood, w weights the data fidelity term, F and G is a function, and α, β, ρ, and ρ w are adjustable parameters. Information extraction processor 130 may also use information resulting from smoothing and attribute estimation processes 150-160 to adjust the size, shape, and orientation of the neighborhood.

(E.実施例:ノイズの多い画像)
図5は、図4Cに図示されるような第3の近傍430のような適合的近傍で達成可能な性能向上を明示する。黒い背景上の白い四角という元の場面510は、撮像過程でノイズによって破損され、ノイズの多い画像520をもたらす。ノイズの多い画像520では、人間の眼で四角と背景とを区別することが困難である。第1の実施例410の平滑化方法は、第1の平滑化した画像530を生成するように適用される。この方法は、一式のエッジを生成せず、結果として生じる平滑化したデータは、白い長方形の境界線を不鮮明する。第2の実施例420の平滑化方法は、第2の平滑化した画像540および一式のスカラーエッジ550を生成するように適用される。人間の眼には、第2の平滑化した画像540は、第1の平滑化した画像530と同じくらい不明瞭であり、スカラーエッジ550は拡散している。
(E. Example: Noisy image)
FIG. 5 demonstrates the performance enhancement achievable in a compatible neighborhood, such as the third neighborhood 430 as illustrated in FIG. 4C. The original scene 510 of white squares on a black background is corrupted by noise during the imaging process, resulting in a noisy image 520. In the noisy image 520, it is difficult for human eyes to distinguish the square from the background. The smoothing method of the first embodiment 410 is applied to generate a first smoothed image 530. This method does not produce a set of edges and the resulting smoothed data blurs the white rectangular border. The smoothing method of the second embodiment 420 is applied to generate a second smoothed image 540 and a set of scalar edges 550. To the human eye, the second smoothed image 540 is as unclear as the first smoothed image 530 and the scalar edge 550 is diffuse.

本発明の例示的実施形態である、第3の実施例430の平滑化方法は、第3の平滑化した画像560、および各ピクセルに関連付けられるマトリクス値エッジをもたらす。エッジがマトリクス値であるため、それらをスカラーエッジ550と同様に表すことは可能ではない。エッジマトリクスに関連付けられる1つの有意義なスカラー値は、そのトレースであり、したがって、第3の実施例410は、マトリクス値エッジの一式のトレース570と関連付けることができる。本発明の付加的な実施形態は、境界情報についてマトリクス値エッジの固有値および固有ベクトルの関数を調べることを含む。第3の平滑化した画像560は、第1または第2の平滑化した画像530および540よりもはるかに鮮明であり、境界は、一式のスカラーエッジ550よりもマトリクス値エッジの一式のトレース570によってはるかに明確に線引きされる。平滑化過程と相互依存的に、近傍のサイズ、形状、および配向を適合させる第3の実施例の能力は、図5で明示される,向上した情報抽出性能を可能にする。   The smoothing method of the third example 430, which is an exemplary embodiment of the present invention, results in a third smoothed image 560 and matrix value edges associated with each pixel. Since the edges are matrix values, it is not possible to represent them in the same way as the scalar edge 550. One meaningful scalar value associated with the edge matrix is its trace, and thus the third example 410 can be associated with a set of traces 570 of matrix value edges. Additional embodiments of the invention include examining eigenvalues and eigenvector functions of matrix value edges for boundary information. The third smoothed image 560 is much sharper than the first or second smoothed images 530 and 540 and the boundary is defined by a set of traces 570 of matrix value edges rather than a set of scalar edges 550. Much more clearly drawn. The ability of the third embodiment to adapt neighborhood size, shape, and orientation, interdependently with the smoothing process, allows for improved information extraction performance as demonstrated in FIG.

(F.エネルギー関数アプローチ)
情報抽出方法の1つの特定の実施形態が、図6に図示されている。上記で論議されるように、近傍適合過程は、関心の属性のそれぞれに行うことができる。各場所で、異なる近傍を各属性について決定することができ、これは、各属性に対する属性値および属性エッジ値の識別を可能にする。図6は、入力として、画像データ、属性の予備知識、画像データ内の区分(および関連エッジ)610、平滑化した画像データ620、属性推定値内の区分(および関連エッジ)630、および属性推定値640を取り込む、反復過程を描写する。図6の反復過程を適用し始めるためには、入力610、620、630、および640に対する初期値を、ユーザによって特定するか、またはプロセッサ130によって自動的に選択することができる。適合過程は、望ましくない実施に対するペナルティを含む、エネルギー関数を最小限化しようと努める。エネルギー関数に含むことができる、いくつかのペナルティ例が、エネルギー関数要素ブロック650に描写されている。これらは、画像データと平滑化したデータとの間の不一致に対するペナルティ、データ内の過剰なエッジの指定に対するペナルティ、属性内の過剰なエッジの指定に対するペナルティ、データ内のエッジの不連続または非平滑性に対するペナルティ、属性内のエッジの不連続または非平滑性に対するペナルティ、平滑化したデータ内の不連続または急激な変化、および属性推定値の不連続または急激な変化を含む。エネルギー関数への入力を使用して、エネルギー値を計算することができ、次いで、入力610、620、630、および640は、より低いエネルギー値を達成するように適合的に調整される。
(F. Energy function approach)
One particular embodiment of the information extraction method is illustrated in FIG. As discussed above, a neighborhood matching process can be performed for each attribute of interest. At each location, a different neighborhood can be determined for each attribute, which allows identification of attribute values and attribute edge values for each attribute. FIG. 6 shows as input image data, attribute background knowledge, segment (and associated edges) 610 in image data, smoothed image data 620, segment (and associated edges) 630 in attribute estimates, and attribute estimates. Describes an iterative process that captures the value 640. To begin applying the iterative process of FIG. 6, initial values for inputs 610, 620, 630, and 640 can be specified by the user or automatically selected by processor 130. The adaptation process seeks to minimize the energy function, including penalties for undesirable implementations. Some example penalties that can be included in the energy function are depicted in the energy function element block 650. These include penalties for discrepancies between image data and smoothed data, penalties for specifying excessive edges in the data, penalties for specifying excessive edges in attributes, discontinuities or non-smooth edges in the data Includes penalties for gender, penalties for edge discontinuities or non-smoothness in attributes, discontinuities or abrupt changes in smoothed data, and discontinuities or abrupt changes in attribute estimates. The input to the energy function can be used to calculate the energy value, and then the inputs 610, 620, 630, and 640 are adaptively adjusted to achieve a lower energy value.

この実施形態の1つの実装では、エネルギー値の決定は、以下の式にしたがって計算され、   In one implementation of this embodiment, the energy value determination is calculated according to the following equation:

式中、e、e、e、e、eは、以下で説明されるような誤差項である。平滑化したデータu、区分のエッジυ、属性θ、および属性区分のエッジυθに対する値は、角括弧内に含まれる式を最小限化するために、各(x、y)座標について選択され、平面全体にわたって積分される。この式は、画像データg、属性θを伴うデータ関数T(θ)、パラメータλ、α、ρ、λθ、αθ、ρθに依存し、式中、 In the equation, e 1 , e 2 , e 3 , e 4 , e 5 are error terms as described below. The values for smoothed data u, segment edge υ u , attribute θ, and attribute segment edge υ θ are selected for each (x, y) coordinate to minimize the expression contained within the square brackets. And integrated over the entire plane. This equation depends on the image data g, the data function T (θ) with the attribute θ, the parameters λ u , α u , ρ u , λ θ , α θ , ρ θ ,

である。
項eは、画像データと平滑化したデータとの間の不一致に対するペナルティであり、項eは、平滑化したデータ内の不連続に対するペナルティであり、項eは、エッジの存在およびエッジの不連続に対するペナルティを含み、項eは、属性推定値における不連続に対するペナルティを含み、項eは、属性エッジの存在および属性エッジの不連続に対するペナルティを含む。当業者であれば、エネルギー関数に含むことができる多くの付加的なペナルティがあり、適切なペナルティの選択は、手元の用途に依存することを認識するであろう。同等に、この問題は、異なる報酬項が、情報抽出方法に対する異なる望ましい性能要件に対応する、報酬関数の最大限化として表すことができる。例えば、勾配降下法といった、当業者によってこの特定の数学的定式化に容易に適用することができる、多くの標準数値技法がある。これらの技法は、本明細書で説明される実施形態の任意のもので実装することができる。
It is.
The term e 1 is a penalty for discrepancies between the image data and the smoothed data, the term e 2 is a penalty for discontinuities in the smoothed data, and the term e 3 is the presence of edges and the edges Term e 4 contains the penalty for the discontinuity in the attribute estimate, and term e 5 contains the penalty for the presence of the attribute edge and the discontinuity of the attribute edge. One skilled in the art will recognize that there are many additional penalties that can be included in the energy function, and the selection of the appropriate penalty will depend on the application at hand. Equivalently, this problem can be expressed as a reward function maximization, where different reward terms correspond to different desirable performance requirements for the information extraction method. There are many standard numerical techniques that can be readily applied to this particular mathematical formulation by those skilled in the art, such as, for example, gradient descent. These techniques can be implemented in any of the embodiments described herein.

別の実施形態では、最小エネルギー値の計算は、以下の式に従って行われ、   In another embodiment, the calculation of the minimum energy value is performed according to the following equation:

式中、e、e、e、e、eは、以下で説明されるような誤差項である。平滑化したデータu、区分のエッジw、測定モデルパラメータのエッジフィールドυ、過程モデルパラメータのエッジフィールドυ、測定モデルパラメータのエッジフィールドυ、過程パラメータ相関のエッジフィールドυ、過程モデルパラメータθ、および測定モデルパラメータθに対する値は、角括弧内に含まれる式を最小限化するために、各(x、x、・・・、x、t)座標について選択され、1次元時間変数で増強されたN次元画像データ空間全体にわたって積分される。誤差項は、以下によって与えられ、
=βM(u,g,w,θ)、
=α(θ,υ)、
=α(u,υ,θ)、
=α(υ,θ)、および
=π(u,w,υ,υ,υ,θ,θ
式中、Mは、データ忠実度を測定する関数であり、Lは、測定モデルパラメータを推定し、Cは、過程モデル空間相関を測定し、Lは、過程モデルパラメータを推定し、πは、未知の変数の事前分布を表し、β、α、α、αは、過程が項e、e、e、eに異なる重点を置くことを可能にするパラメータである。
In the equation, e 1 , e 2 , e 3 , e 4 , e 5 are error terms as described below. Smoothed data u, segment edge w, measurement model parameter edge field υ m , process model parameter edge field υ u , measurement model parameter edge field υ m , process parameter correlation edge field υ c , process model parameter Values for θ u , and measurement model parameter θ m are selected for each (x 1 , x 2 ,..., x N , t) coordinates to minimize the expression contained within the square brackets, It is integrated over the entire N-dimensional image data space augmented with a one-dimensional time variable. The error term is given by
e 1 = βM (u, g, w, θ m ),
e 2 = α m L mm , υ m ),
e 3 = α u C u (u, υ u , θ u ),
e 4 = α C L C ( υ C, θ u), and e 5 = π (u, w , υ m, υ n, υ C, θ u, θ m)
Where M is a function that measures data fidelity, L m estimates measurement model parameters, C u measures process model spatial correlation, L c estimates process model parameters, π represents a prior distribution of unknown variables, and β, α m , α u , α c are parameters that allow the process to place different emphasis on the terms e 1 , e 2 , e 3 , e 4. is there.

(G.網膜撮像)
上記で説明されるように、網膜の異常の正確、迅速、および便利な診断の必要性が深刻である。この必要性に対処するために、本明細書では、網膜画像を分析し、中程度の技能を持つ臨床医が世界中の多数の患者の網膜疾患を効率的に評価するのに役立つことができるように、網膜症の重症度の臨床的に確証された決定を提供することができる、自動分類および意思決定支援方法およびシステムが説明される。これらのシステムおよび方法は、以下を含む、網膜の異常の検出のいくつかの特定の課題に対処するために開発されてきた。
1.血管における異常が、血管に沿った他の場所でのその特定の血管の幾何学形状に関連する。
2.異常な特徴が、血管の幾何学形状の非線形関数である。
3.異常は、微妙であり、ノイズおよび撮像アーチファクトによって容易にカモフラージュされる場合がある。
4.網膜画像は、典型的には、血管および網膜背景上で空間的に変化する低い信号対雑音(SNR)特性を有する。
(G. Retina imaging)
As explained above, the need for accurate, rapid and convenient diagnosis of retinal abnormalities is serious. To address this need, the present specification can analyze retinal images to help clinicians with moderate skills effectively evaluate retinal disease in a large number of patients worldwide. Thus, automatic classification and decision support methods and systems that can provide a clinically validated determination of the severity of retinopathy are described. These systems and methods have been developed to address several specific challenges of detecting retinal abnormalities, including:
1. An abnormality in a blood vessel is associated with the geometry of that particular blood vessel elsewhere along the blood vessel.
2. An unusual feature is a non-linear function of the vessel geometry.
3. Anomalies are subtle and can be easily camouflaged by noise and imaging artifacts.
4). Retinal images typically have low signal-to-noise (SNR) characteristics that vary spatially on blood vessels and the retinal background.

本明細書で開示される技法によって検出される網膜の異常は、静脈内径異常(VCAB)、視神経円板内の新しい血管分布(NVD)、他の場所の新しい血管分布(NVE)、網膜内細小血管異常(IRMA)、微細動脈瘤、ならびに前網膜および硝子体出血を含む。これらの異常のそれぞれは、施術医によって使用される、糖尿病性網膜症の早期治療研究の診断ガイドラインで分類されている。例えば、VCABは、微妙および急激の両方である、網膜内の血管の変形である。一部の患者では、VCABは、血管のサイズおよび配向が急激に、またはゆっくりと変化する、血管病変として症状を示す。VCABおよび他の異常を正確に検出し、分類するために、臨床医または自動意思決定システムは、血管の境界、サイズ、および配向の信頼できる決定によって支援される。本明細書で説明される網膜の異常の検出のためのシステムおよび技法は、上記で説明される平滑化および区分化アプローチを基礎とすることによって、この用途の特定の課題に対処する。   Retinal abnormalities detected by the techniques disclosed herein include venous caliber abnormalities (VCAB), new vascular distribution within the optic disc (NVD), new vascular distribution elsewhere (NVE), intraretinal subtleties Includes vascular abnormalities (IRMA), microaneurysms, and anterior retina and vitreous hemorrhage. Each of these abnormalities is categorized in the diagnostic guidelines for early treatment studies of diabetic retinopathy used by practitioners. For example, VCAB is a deformation of blood vessels in the retina that is both subtle and abrupt. In some patients, VCAB exhibits symptoms as a vascular lesion in which the size and orientation of the blood vessels change rapidly or slowly. To accurately detect and classify VCAB and other abnormalities, the clinician or automated decision making system is assisted by reliable determination of vessel boundaries, size, and orientation. The systems and techniques for detection of retinal abnormalities described herein address the particular challenges of this application by building on the smoothing and segmentation approach described above.

ここで、網膜の異常の検出のためのシステムおよび技法について論議する。網膜撮像用途では、図1の画像分析システム100の構成要素は、網膜撮像に好適となるように選択され得る。例えば、システム100の画像捕捉デバイス110は、眼の内面(例えば、網膜、視神経円板、斑、および後極)を撮像することが可能である、アナログまたはデジタル眼底カメラであり得る。画像捕捉デバイス110は、1つ以上の波長の光とともに使用されてもよく、異なる関心の波長を通過させる、または遮断する(例えば、血管造影法中に蛍光色を通過させる)ための光学フィルタを含み得る。眼底カメラは、撮像前に患者の眼が点眼薬で拡張される散瞳診断で、または非散瞳診断で使用され得る。図1を参照して上記で説明されるように、画像捕捉デバイス110によって捕捉される画像は、スカラー、ベクトル、またはマトリクス値であってもよく、時間の関数として変化し得る。網膜画像は、情報抽出プロセッサ130、ディスプレイ140、および結果データベース150(図1)によるリアルタイムまたは以降の処理、分析、および再検討のために、画像データベース120に記憶することができる。これらの構成要素は、本明細書で説明される実施形態のうちのいずれかの形態を成すことができる。情報抽出プロセッサ130は、本明細書で説明される網膜の異常の検出技法のうちのいずれか1つ以上を行うように構成される。   We now discuss systems and techniques for detection of retinal abnormalities. For retinal imaging applications, the components of the image analysis system 100 of FIG. 1 can be selected to be suitable for retinal imaging. For example, the image capture device 110 of the system 100 can be an analog or digital fundus camera that can image the interior surface of the eye (eg, retina, optic disc, plaque, and posterior pole). The image capture device 110 may be used with one or more wavelengths of light and includes an optical filter for passing or blocking different wavelengths of interest (eg, passing fluorescent colors during angiography). May be included. The fundus camera can be used in mydriatic diagnostics where the patient's eyes are dilated with eye drops prior to imaging, or in non-mydriatic diagnostics. As described above with reference to FIG. 1, the image captured by the image capture device 110 may be a scalar, vector, or matrix value and may vary as a function of time. Retinal images can be stored in the image database 120 for real-time or subsequent processing, analysis, and review by the information extraction processor 130, the display 140, and the results database 150 (FIG. 1). These components can take the form of any of the embodiments described herein. Information extraction processor 130 is configured to perform any one or more of the retinal abnormality detection techniques described herein.

図7は、実施形態による、網膜の異常を検出するための技法700における例証的なステップのフロー図である。技法700は、図1の情報抽出プロセッサ130等の画像分析システム100に含まれる(またはそれと遠隔通信している)任意の好適な処理デバイス(例えば、非一過性コンピュータ可読媒体を実行する)によって実装され得る。以下の説明で例証を容易にするために、技法700は、撮像分析システム100によって実行されるものとして説明される。ステップ702で、システム100は、網膜の画像を受信する。網膜画像は、上記で説明される画像捕捉デバイス110等の任意の好適なソースに由来し得る。ステップ702で受信される網膜画像は、好ましくは、デジタルであるが、以降にデジタル化されるアナログ画像であり得る。   FIG. 7 is a flow diagram of illustrative steps in a technique 700 for detecting retinal abnormalities, according to an embodiment. Technique 700 may be by any suitable processing device (eg, executing a non-transitory computer readable medium) included in (or in remote communication with) image analysis system 100, such as information extraction processor 130 of FIG. Can be implemented. For ease of illustration in the following description, technique 700 is described as being performed by imaging analysis system 100. In step 702, the system 100 receives an image of the retina. The retinal image can come from any suitable source, such as the image capture device 110 described above. The retinal image received at step 702 is preferably digital, but can be an analog image that is subsequently digitized.

ステップ704では、システム100は、本明細書で説明される平滑化、区分化、および属性推定技法のうちのいずれかの形態を成し得る、平滑化および区分化技法を行う。上記で説明されるように、これらの技法での平滑化および区分化動作は、相互依存的であり、実質的に同時に(例えば、頻繁な交互反復で)行われ得る。いくつかの実施形態では、ステップ704で行われる区分化および平滑化技法は、平滑化した画像および/または画像内の複数の場所におけるエッジフィールド強度を決定することを伴う。エッジフィールドは、(例えば、方程式1で例証されるような)スカラー値エッジフィールド、(例えば、方程式2で例証されるような)ベクトル値エッジフィールド、(例えば、方程式3で例証されるような)マトリクス値エッジフィールド、またはそれらの組み合わせであり得る。いくつかの実施形態では、ステップ704で行われる平滑化および区分化技法は、画像内の複数の場所に関連付けられる近傍を規定する形状および配向のうちの少なくとも1つを適合的に調整することを含む。これらの実施形態の任意のもので、システム100は、上記で論議されるように、誤差測定基準に関連付けられるエネルギー関数の値を低減させるように、平滑化および区分化技法を行い得る。ステップ704のいくつかの特定の実施形態の詳細な説明が続く。   At step 704, the system 100 performs a smoothing and partitioning technique that may take the form of any of the smoothing, partitioning, and attribute estimation techniques described herein. As explained above, the smoothing and partitioning operations with these techniques are interdependent and can be performed substantially simultaneously (eg, with frequent alternating iterations). In some embodiments, the segmentation and smoothing technique performed in step 704 involves determining the edge field strength at the smoothed image and / or multiple locations within the image. The edge field can be a scalar value edge field (eg, as illustrated in equation 1), a vector value edge field (eg, as illustrated in equation 2), (eg, as illustrated in equation 3) It can be a matrix value edge field, or a combination thereof. In some embodiments, the smoothing and segmentation technique performed in step 704 comprises adaptively adjusting at least one of the shapes and orientations that define neighborhoods associated with multiple locations in the image. Including. In any of these embodiments, the system 100 may perform smoothing and segmentation techniques to reduce the value of the energy function associated with the error metric, as discussed above. A detailed description of some specific embodiments of step 704 follows.

いくつかの実施形態では、画像内の各場所は、画像が平滑化され、エッジフィールドが推定される楕円近傍に関連付けられ、近傍のサイズ、形状、および配向は、場所によって異なる。エッジ(例えば、血管縁)として識別される場所の近傍は、(例えば、図4Cに図示されるように)エッジを横断する平滑化によってエッジの「不鮮明化」を制限するようにサイズが適合的に縮小される。この定式化は、以下のように表すことができ、   In some embodiments, each location in the image is associated with an elliptical neighborhood where the image is smoothed and the edge field is estimated, and the size, shape, and orientation of the neighborhood vary from location to location. The neighborhood of the location identified as an edge (eg, a blood vessel edge) is sized to limit edge “blurring” by smoothing across the edge (eg, as illustrated in FIG. 4C). Reduced to This formulation can be expressed as:

式中、gは、画像捕捉デバイス110によって出力される網膜画像データであり、uは、平滑化したデータであり、Vは、2x2対称エッジマトリクスフィールドであり、Xは、平滑化および区分化が行われる画像であり、α、β、ρは、調整可能なパラメータである。上記で説明されるように、平滑化が主に近傍に位置するピクセルに基づいて発生するように、第1項を、I−Vによってuの勾配を罰する平滑忠実度項として解釈することができる。第2項は、入力画像データからの平滑化した画像データの偏差を罰するデータ忠実度項である。スカラー項G(V)がエッジ強度を罰する一方で、F(V)は、VCABの特徴であり得る「よじれ」を認識しつつ平滑なエッジに対する選択の均衡を保つ。任意の特定の画像およびパラメータ値に対する方程式6を解くために、任意の数値技法が使用され得るが、1つのアプローチは、解の基礎を形成するオイラー・ラグランジェ方程式の使用を含む。方程式6について、オイラー・ラグランジェ方程式は、以下の通りである。 Where g is retinal image data output by the image capture device 110, u is smoothed data, V is a 2 × 2 symmetric edge matrix field, and X is smoothed and segmented. An image to be performed, and α, β, and ρ are adjustable parameters. As explained above, the first term can be interpreted as a smooth fidelity term that penalizes the slope of u by IV, so that smoothing occurs mainly based on neighboring pixels. . The second term is a data fidelity term that penalizes the deviation of the smoothed image data from the input image data. While the scalar term G (V) penalizes edge strength, F (V X ) balances selection for smooth edges while recognizing “kinks” that may be a feature of VCAB. Although any numerical technique can be used to solve Equation 6 for any particular image and parameter value, one approach involves the use of Euler-Lagrange equations that form the basis of the solution. For Equation 6, the Euler-Lagrange equation is:

いくつかの実施形態では、ステップ704においてシステム100によって行われる平滑化および区分化は、2つ以上の異なるエネルギー関数定式化の結果を組み合わせることを含む。例えば、第1のエネルギー関数定式化は、上記の方程式2の形態を成し、システム100は、パラメータuおよびVの値を決定するように、本明細書で説明される計算技法のうちのいずれかを行い得る。次に、システム100は、以下のような第1のエネルギー関数定式化とは異なる誤差測定基準を使用する第2のエネルギー関数定式化を適用し、   In some embodiments, the smoothing and segmentation performed by system 100 at step 704 includes combining the results of two or more different energy function formulations. For example, the first energy function formulation takes the form of Equation 2 above, and the system 100 uses any of the computational techniques described herein to determine the values of the parameters u and V. Can do that. Next, the system 100 applies a second energy function formulation that uses an error metric different from the first energy function formulation as follows:

これは、方程式2で使用される2ノルムの代わりに、平滑化およびデータ忠実度項上に1ノルムを含む。他の実施形態では、方程式1および3−6のうちの任意のエネルギー関数定式化は、異なる誤差測定基準とともに使用され得る。 This includes one norm on the smoothing and data fidelity terms instead of the two norm used in Equation 2. In other embodiments, any energy function formulation of Equations 1 and 3-6 may be used with different error metrics.

方程式2および9の異なるエネルギー関数定式化によって生成される、異なる平滑化および区分化の結果が、図9A−9Cに図示されている。図9Aは、カラー眼底画像の一部分である。図9Bは、方程式2のエネルギー関数定式化に従って決定される、図9Aのエッジを描写する。図9Cは、方程式9のエネルギー関数定式化に従って決定される、図9Aのエッジを描写する。図9Bが、より平滑およびより強い主要エッジを示す一方で、図9Cは、少ない平滑化を示し、よりかすかなエッジを保持する。いったんシステム100が、2つの異なるエネルギー関数を最小限化する平滑化および区分化パラメータを決定すると、システム100は、平滑化したデータおよびエッジデータの2組の異なって抽出された属性に関する情報を組み合わせ得る。この組み合わせは、2組の属性の空間および強度特性の補強と分化との両方に基づく病変の検出を可能にすることができる。いくつかの用途では、検出は、存在し得る異なる分類の病変の予備知識、ならびに同じ患者または患者集団の網膜画像の他の部分に対する属性の空間変動によって支援され得る。いくつかの実施形態では、ある網膜の異常から生じるもの等の、かすかな血管を検出するために、両方の定式化が使用され得る。具体的には、新血管形成(NVDおよびNVE)、IRMA、および候補微細動脈瘤の存在を決定するために、高次論理を使用して、強弱コントラストエッジを組み合わせることができる。加えて、いくつかの実施形態では、ステップ704(図7)の区分化および平滑化を行うようにシステム100によって実装されるエネルギー関数定式化は、単一のエネルギー関数定式化内の異なる項(例えば、平滑化およびデータ忠実度項)を評価するための2つ以上の異なる誤差測定基準を含む。   The different smoothing and segmentation results produced by the different energy function formulations of equations 2 and 9 are illustrated in FIGS. 9A-9C. FIG. 9A is a part of a color fundus image. FIG. 9B depicts the edges of FIG. 9A determined according to the energy function formulation of Equation 2. FIG. 9C depicts the edges of FIG. 9A, determined according to the energy function formulation of Equation 9. FIG. 9B shows smoother and stronger main edges, while FIG. 9C shows less smoothing and retains faint edges. Once the system 100 determines the smoothing and segmentation parameters that minimize two different energy functions, the system 100 combines information about the two different extracted attributes of the smoothed data and edge data. obtain. This combination can allow for the detection of lesions based on both enhancement and differentiation of the spatial and intensity characteristics of the two sets of attributes. In some applications, detection may be aided by prior knowledge of different categories of lesions that may exist, as well as spatial variation of attributes relative to other parts of the retinal image of the same patient or patient population. In some embodiments, both formulations can be used to detect faint blood vessels, such as those resulting from certain retinal abnormalities. Specifically, high-order logic can be used to combine strong and weak contrast edges to determine neovascularization (NVD and NVE), IRMA, and the presence of candidate microaneurysms. In addition, in some embodiments, the energy function formulation implemented by the system 100 to perform the segmentation and smoothing of step 704 (FIG. 7) is different terms within a single energy function formulation ( For example, it includes two or more different error metrics for evaluating smoothing and data fidelity terms).

システム100がステップ704で平滑化および区分化を行った後に、システム100は、平滑化および区分化された画像において少なくとも1つの網膜特徴(血管等)を識別する(ステップ706)。図10A−10Cは、未処理の網膜眼底画像(図10A)、ステップ704による平滑化および区分化を受けた処理画像(図10B)、血管候補を含む図10Bの画像の一部分の拡大図(図10C)を描写する。図10Bおよび10Cの平滑化および区分化された画像において網膜特徴を識別するために、いくつかの技法が使用され得る。好ましい網膜特徴識別技法が、図11A−11Cに図示されている。図11Aは、エッジ値が閾値を超える、図10Cの処理画像内の場所を描写する。好ましい実施形態では、使用される閾値は、各場所の局所近傍(平滑化および区分化に使用される同じ近傍であり得る)における平均エッジ値を決定することによって、該場所について適合的に決定される。図11Aは、網膜特徴の境界の第1の近似を提供するが、いくつかの無関係な境界(境界1102および1104等)を含む。システム100は、無関係な境界を除去または低減し、図11Bの画像をもたらす、図11Aの画像に「開放」形態技法を適用するように構成される。そのような技法の実施例は、2010年10月12日に最終アクセスされ、その全体で参照することにより本明細書に組み込まれる、http://cmm.ensmp.fr/〜serra/pdf/birth_of_mm.pdfで入手可能なMatheronらの「The Birth of Mathematical Morphology」で説明されている。次いで、システム100は、図11Cに示されるような網膜特徴に対応する画像の一部分を充填するために、図11Bの向上した境界を使用することができる。   After system 100 smoothes and segments in step 704, system 100 identifies at least one retinal feature (such as a blood vessel) in the smoothed and segmented image (step 706). 10A-10C are unprocessed retinal fundus images (FIG. 10A), processed images that have been smoothed and segmented by step 704 (FIG. 10B), and enlarged views of portions of the image of FIG. 10C). Several techniques may be used to identify retinal features in the smoothed and segmented images of FIGS. 10B and 10C. A preferred retinal feature identification technique is illustrated in FIGS. 11A-11C. FIG. 11A depicts a location in the processed image of FIG. 10C where the edge value exceeds the threshold. In a preferred embodiment, the threshold used is determined adaptively for the location by determining the average edge value in the local neighborhood of each location (which can be the same neighborhood used for smoothing and segmentation). The FIG. 11A provides a first approximation of the boundaries of the retinal features, but includes several unrelated boundaries (such as boundaries 1102 and 1104). The system 100 is configured to apply an “open” form technique to the image of FIG. 11A that removes or reduces extraneous boundaries, resulting in the image of FIG. 11B. An example of such a technique is http://cmm.com, which was last accessed on October 12, 2010 and is incorporated herein by reference in its entirety. ensmp. fr / ~ serra / pdf / birth_of_mm. It is described in “The Birth of Mathematical Morphology” by Matheron et al. available at pdf. The system 100 can then use the enhanced boundary of FIG. 11B to fill a portion of the image corresponding to the retinal features as shown in FIG. 11C.

システム100はまた、ステップ706で、識別された網膜特徴(例えば、血管)の少なくとも1つの経路を決定するように構成され得る。経路は、血管の近似中心線、または網膜特徴の幾何学形状の別の表現であり得る。図12A−12Dは、好適な経路検出技法を図示する。図12Aは、カラー眼底画像であり、図12Bは、図12Aが(ステップ704に従って)平滑化および区分化を受けた後のボックス1202に対応する図12Aの一部分の拡大図である。図12Cは、図12Bの画像が図11を参照して上記で説明される血管識別を受けた後のボックス1204に対応する図12Bの一部分の拡大図である。図12Dは、図12Cの画像に「骨格化」技法を適用することの結果を図示する。骨格化技法は、一般的に知られており、画像の構造枠組または「骨格」を識別するために画像処理で使用される。多くの好適な骨格化技法が文献で説明されている。例えば、その全体で参照することにより本明細書に組み込まれる、Reniersらによる”Skeleton−based hierarchical shape segmentation,” Proc. of the IEEE Int. Conf. on Shape Modeling and Applications, pp. 179−188 (2007)を参照されたい。   The system 100 may also be configured to determine at least one path of identified retinal features (eg, blood vessels) at step 706. The path can be an approximate centerline of the blood vessel or another representation of the geometric shape of the retinal feature. 12A-12D illustrate a preferred path detection technique. FIG. 12A is a color fundus image and FIG. 12B is an enlarged view of a portion of FIG. 12A corresponding to box 1202 after FIG. 12A has been smoothed and segmented (according to step 704). FIG. 12C is an enlarged view of a portion of FIG. 12B corresponding to box 1204 after the image of FIG. 12B has received the vessel identification described above with reference to FIG. FIG. 12D illustrates the result of applying the “skeletonization” technique to the image of FIG. 12C. Skeletalization techniques are generally known and are used in image processing to identify the structural framework or “skeleton” of an image. Many suitable skeletal techniques are described in the literature. See, for example, “Skeleton-based hierarchical shape segmentation,” Proc. By Reniers et al., Which is incorporated herein by reference in its entirety. of the IEEE Int. Conf. on Shape Modeling and Applications, pp. 179-188 (2007).

しかしながら、図12Dに図示されるように、血管および他の網膜特徴に適用される骨格化技法は、主要血管経路から生じる側枝(側枝1208および1210等)をもたらすことができる。いくつかの実施形態では、システム100は、付加的な処理ステップを行う前に、骨格化した画像からこれらの側枝を除去する。   However, as illustrated in FIG. 12D, skeletal techniques applied to blood vessels and other retinal features can result in side branches (such as side branches 1208 and 1210) arising from the main vascular pathway. In some embodiments, the system 100 removes these side branches from the skeletonized image before performing additional processing steps.

図13A−13Cは、システム100が平滑化および区分化された画像において血管を識別する時の動作およびステップ706で生成され得る中間結果の付加的な図解を提供する。図13Aは、平滑化および区分化された画像を描写し、図13Bは、エッジ値によって決定される血管境界を描写し、図13Cは、近似中心線を見つけるように図13Bの画像を骨格化することによって得られる、血管の経路を図示する。いくつかの実施形態では、血管境界は、エッジ値に加えて、またはエッジ値の代わりに、強度値によって決定され得る。   FIGS. 13A-13C provide additional illustrations of operations and intermediate results that may be generated at step 706 when the system 100 identifies blood vessels in the smoothed and segmented image. FIG. 13A depicts a smoothed and segmented image, FIG. 13B depicts a blood vessel boundary determined by edge values, and FIG. 13C skeletonizes the image of FIG. 13B to find an approximate centerline. The path of the blood vessel obtained by doing is illustrated. In some embodiments, the blood vessel boundary may be determined by intensity values in addition to or instead of edge values.

ステップ708では、システム100は、網膜の異常を識別するように、平滑化および区分化された画像において識別された網膜特徴に関連付けられるデータ、エッジ、および他の属性を分析する。システム100は、異なる異常を識別する異なる特徴の存在について、平滑化および区分化された画像を評価するように、ハードウェアまたはソフトウェアを伴って構成され得る。ここで、いくつかの特徴および異常識別技法について論議する。   In step 708, the system 100 analyzes data, edges, and other attributes associated with the identified retinal features in the smoothed and segmented image to identify retinal abnormalities. System 100 may be configured with hardware or software to evaluate smoothed and segmented images for the presence of different features that identify different anomalies. Here we discuss some features and anomaly identification techniques.

図8は、実施形態による、異常検出技法800のフロー図である。技法800は、いくつかある異常の中でも特に、例えば、静脈内径異常(VCAB)および数珠状静脈を識別することによく適している。ステップ802では、システム100は、識別された網膜特徴に関連付けられる経路を決定する。このステップは、図7のステップ706を参照して上記で説明されるように行われ得る。例えば、経路は、近似中心線を決定するように血管の平滑化および区分化された画像を骨格化することによって得られ得る。   FIG. 8 is a flow diagram of an anomaly detection technique 800, according to an embodiment. Technique 800 is well suited for identifying, for example, venous caliber abnormalities (VCAB) and beaded veins, among other abnormalities. In step 802, the system 100 determines a path associated with the identified retinal feature. This step may be performed as described above with reference to step 706 of FIG. For example, the path can be obtained by skeletonizing a smoothed and segmented image of a blood vessel to determine an approximate centerline.

ステップ804では、システム100は、ステップ802で決定される経路の変動を決定する。これを行うために、システム100は、
・経路に沿った異なる場所における経路の配向の角度、
・経路に沿った異なる場所における血管の直径
を含む、経路(およびそれが表す網膜特徴)の1つ以上の異なる性質を検出するように構成され得る。血管に沿ったこれらの性質の空間変動は、網膜の異常の指標として使用され得る。具体的には、ステップ806では、システム100は、経路に沿った任意の場所での変動が閾値を超えるかどうかを決定する。「はい」であれば、システム100は、ステップ808に進み、該場所において網膜の異常を識別する。ここで、技法800のいくつかの例証的実施形態について論議する。
In step 804, the system 100 determines the path variation determined in step 802. To do this, the system 100
The angle of orientation of the path at different locations along the path,
It can be configured to detect one or more different properties of the path (and the retinal features it represents), including the diameter of the blood vessels at different locations along the path. Spatial variations of these properties along the blood vessel can be used as an indicator of retinal abnormalities. Specifically, at step 806, the system 100 determines whether the variation at any location along the path exceeds a threshold. If yes, the system 100 proceeds to step 808 and identifies a retinal abnormality at the location. Several exemplary embodiments of technique 800 will now be discussed.

図14A−14Cは、システム100が、ステップ804における識別された網膜特徴の経路の傾斜の変動を決定する、実施形態を図示する。図14Aは、(図13を参照して上記で論議されるような)識別された血管およびその中心線1402を描写する。図14Bは、その長さに沿った(すなわち、連続する複数の場所における)中心線1402の傾斜の絶対値のグラフである。隣接ピクセル間の離散距離により、図14Bの経路に沿った任意の点での傾斜が離散化される(ここでは0または   14A-14C illustrate an embodiment in which the system 100 determines the variation in the slope of the identified retinal feature path in step 804. FIG. 14A depicts the identified vessel and its centerline 1402 (as discussed above with reference to FIG. 13). FIG. 14B is a graph of the absolute value of the slope of the centerline 1402 along its length (ie, at a plurality of consecutive locations). The discrete distance between adjacent pixels discretizes the slope at any point along the path of FIG. 14B (here 0 or

)ことに留意されたい。図14Cは、図14Bで描画された4つの傾斜の移動窓平均のグラフであり、各移動窓平均は、異なるピクセル窓幅(ここでは、5(青)、6(赤)、7(緑)、および8(黒))を有する。中心線1402の傾斜の移動窓平均を行うことは、傾斜結果をフィルタにかける1つの方法であり、任意の他のフィルタリング動作またはフィルタリング動作の組み合わせが適用され得る。 Note that) FIG. 14C is a graph of the four slope moving window averages drawn in FIG. 14B, where each moving window average is a different pixel window width (here 5 (blue), 6 (red), 7 (green)). , And 8 (black)). Performing a moving window average of the slope of the centerline 1402 is one way to filter the slope results, and any other filtering action or combination of filtering actions may be applied.

図14Cは、ボックス1406の領域中の図14Aの持続した傾斜変化に対応する、ボックス1404の領域中のピークを示す。システム100は、図14Cのフィルタにかけられた傾斜が比較される閾値を含んでもよく、フィルタにかけられた傾斜(例えば、経路の変動)が閾値を超える場合に、異常が識別される(ステップ808)。   FIG. 14C shows a peak in the region of box 1404 corresponding to the sustained slope change of FIG. 14A in the region of box 1406. The system 100 may include a threshold against which the filtered slope of FIG. 14C is compared, and an anomaly is identified if the filtered slope (eg, path variation) exceeds the threshold (step 808). .

図15A−15Cは、システム100が、ステップ804における識別された網膜特徴の配向の角度の変動を決定する、実施形態を図示する。図15Aは、識別された血管およびその中心線1502を描写し、図15Bは、その長さに沿った(すなわち、連続する複数の場所における)中心線1502の配向の角度のグラフである。隣接ピクセル間の離散角度により、図15Bの経路に沿った任意の点での角度が離散化される(ここでは−45、0、または45度)ことに留意されたい。図15Cは、図15Bで描画された4つの角度の移動窓平均のグラフであり、各移動窓平均は、異なるピクセル窓幅(ここでは、5(青)、6(赤)、7(緑)、および8(黒))を有する。図15Cは、ボックス1506の領域中の図15Aのよじれに対応する、ボックス1504の領域中のピークを示す。図14A−14Cに関して上記で論議されるように、フィルタにかけられた角度が閾値を超える場合に、システム100は、異常を識別し得る(ステップ808)。   FIGS. 15A-15C illustrate an embodiment in which the system 100 determines the variation in the angle of orientation of the identified retinal features in step 804. FIG. 15A depicts the identified vessel and its centerline 1502, and FIG. 15B is a graph of the angle of orientation of the centerline 1502 along its length (ie, at a plurality of consecutive locations). Note that the discrete angle between adjacent pixels discretizes the angle at any point along the path in FIG. 15B (here -45, 0, or 45 degrees). FIG. 15C is a graph of the four angle moving window averages drawn in FIG. 15B, where each moving window average has a different pixel window width (here 5 (blue), 6 (red), 7 (green)). , And 8 (black)). FIG. 15C shows a peak in the region of box 1504 that corresponds to the kinking of FIG. 15A in the region of box 1506. As discussed above with respect to FIGS. 14A-14C, if the filtered angle exceeds a threshold, system 100 may identify an anomaly (step 808).

図16A−16Cは、システム100がステップ804における網膜特徴の半径の変動を決定する、実施形態を図示する。図16Aは、識別された血管およびその中心線1602を描写し、図16Bは、中心線1602の長さに沿った(すなわち、連続する複数の場所における)血管の半径のグラフである。図16Cは、中心線1602に沿った対応する点における血管の半径を示すために、色の変化を使用し、ボックス1606の領域中の図16Aの狭窄に対応する、ボックス1604の領域中の赤い狭窄を示す。図14A−14Cに関して上記で論議されるように、半径が特定の半径以下に減少する(または公称あるいは平均半径の特定割合以下に減少する)と、システム100は、狭窄が閾値を超えたことを決定し、異常を識別し得る(ステップ808)。いくつかの実施形態では、システム100は、その長さに沿った血管の半径の有為な変動を検出することによって、例えば、その局所標準偏差によって半径を正規化し、正規化半径を分析することによって、ステップ808における数珠状静脈異常を識別し得る。   FIGS. 16A-16C illustrate an embodiment in which the system 100 determines the variation in the radius of the retinal feature at step 804. FIG. 16A depicts the identified vessel and its centerline 1602, and FIG. 16B is a graph of the radius of the vessel along the length of the centerline 1602 (ie, at a plurality of consecutive locations). FIG. 16C uses a color change to show the radius of the blood vessel at the corresponding point along the centerline 1602, and the red in the region of box 1604, corresponding to the stenosis of FIG. 16A in the region of box 1606. Indicates stenosis. As discussed above with respect to FIGS. 14A-14C, when the radius decreases below a certain radius (or decreases below a nominal or a specified percentage of the average radius), the system 100 determines that the stenosis has exceeded a threshold. An anomaly may be determined and identified (step 808). In some embodiments, the system 100 detects the significant variation in the radius of the blood vessel along its length, for example normalizing the radius by its local standard deviation and analyzing the normalized radius. Can identify the beaded vein anomaly in step 808.

いくつかの実施形態では、傾斜、角度、および半径以外の特性が、システム100によって検出および分析される。例えば、システム100は、PRHの検出および分類のために構成され、そのようなパラメータ(例えば、縦横比)、覆われた網膜の面積、病変のサイズ、ならびに内側および外側のテクスチャ等の特性を識別し得る。他の実施例では、システム100は、IRMASの検出および分類のために構成され、形状、候補IRMA血管の輪郭によって覆われる面積、および輪郭が閉鎖しているか否か等の特性を識別し得る。いくつかの実施形態では、血管の境界は、血管特性を識別するように別個に分析され得る。例えば、血管の境界におけるエッジ値の急速な変化は、異常を示し得る。   In some embodiments, characteristics other than tilt, angle, and radius are detected and analyzed by the system 100. For example, the system 100 may be configured for PRH detection and classification to identify such parameters such as aspect ratio, covered retinal area, lesion size, and inner and outer textures. Can do. In other examples, the system 100 may be configured for IRMAS detection and classification to identify characteristics such as shape, area covered by candidate IRMA vessel contours, and whether the contours are closed. In some embodiments, vessel boundaries may be analyzed separately to identify vessel characteristics. For example, a rapid change in the edge value at the blood vessel boundary may indicate an abnormality.

いくつかの実施形態では、システム100は、分岐部が、血管の一部として識別される場所に存在するかどうかを決定するように構成され得る。システム100は、(例えば、図8のステップ806に関して上記で論議されるように)血管の変化が閾値を超えたという決定に応答して、または網膜画像の分析における任意の他の段階で、この決定を行い得る。ある網膜撮像用途では、分岐部の場所は、網膜の病理の診断に関連する。他の網膜撮像用途では、分岐部は、異常検出中に(例えば、システム100によってVCABまたは数珠状静脈として誤って解釈される場合がある時に)望ましくはフィルタによって除去され、またはそうでなければ無視される。いくつかの分岐部検出技法のうちのいずれかが、平滑化および区分化された画像において血管分岐部を識別するために使用され得る。公知の技法の実施例は、その全体で参照することにより本明細書に組み込まれる、Zanaらによる、”A multimodal registration algorithm of eye fundus images using vessel detection and Hough transforms,” IEEE Trans. Med. Imaging, v. 18, n. 5, pp. 419−428 (1999)で挙げられている。   In some embodiments, the system 100 can be configured to determine whether a bifurcation is present at a location identified as part of a blood vessel. In response to the determination that the change in blood vessels has exceeded a threshold (eg, as discussed above with respect to step 806 of FIG. 8), or at any other stage in the analysis of the retinal image, the system 100 A decision can be made. In some retinal imaging applications, the bifurcation location is associated with the diagnosis of retinal pathology. In other retinal imaging applications, the bifurcation is desirably filtered out or otherwise ignored during anomaly detection (eg, when it may be misinterpreted by the system 100 as a VCAB or beaded vein). Is done. Any of several bifurcation detection techniques can be used to identify vessel bifurcations in smoothed and segmented images. Examples of known techniques are described by Zana et al., “A multi-modal registration algorithm of eye funding images using detection detection and Hough transform E., incorporated herein by reference in its entirety. Med. Imaging, v. 18, n. 5, pp. 419-428 (1999).

いくつかの実施形態では、分岐部の識別の後には、網膜の異常に対して2つの「分岐」のそれぞれの別個の分析が続く。図17A−17Fは、そのような実施形態を図示する。図17Aは、平滑化および区分化された眼底画像を描写し、図17Bは、ボックス1702によって示される図17Aの画像の一部分の拡大図である。図17Bは、血管分岐部を明確に図示する。分岐部の上部分岐は図17Cに図示され、上部分岐の配向の角度は図17Dで描画されている。持続した角度変化は、ボックス1704によって示され、ボックス1706によって示される網膜の異常に対応する。分岐部の下部分岐は、図17Eのボックス1708に図示され、下部分岐の配向の角度は図17Fで描画されている。図17Fのプロットは、持続した角度変化を示さず、したがって、網膜の異常は下部分岐で検出されない。   In some embodiments, bifurcation identification is followed by a separate analysis of each of the two “branches” for retinal abnormalities. Figures 17A-17F illustrate such an embodiment. FIG. 17A depicts a smoothed and segmented fundus image, and FIG. 17B is an enlarged view of a portion of the image of FIG. 17A indicated by box 1702. FIG. 17B clearly illustrates the vessel bifurcation. The upper branch of the bifurcation is illustrated in FIG. 17C, and the orientation angle of the upper branch is depicted in FIG. 17D. The sustained angular change is indicated by box 1704 and corresponds to a retinal abnormality indicated by box 1706. The lower branch of the bifurcation is illustrated in box 1708 of FIG. 17E, and the orientation angle of the lower branch is depicted in FIG. 17F. The plot of FIG. 17F does not show a sustained angular change, and therefore retinal abnormalities are not detected in the lower branch.

本明細書で説明されるシステムおよび方法は、硬性白斑および綿状白斑等の非血管網膜特徴および異常に有用に適用される。例えば、綿状白斑は、神経損傷によって引き起こされる網膜上の綿状白斑であり、開示される平滑化、区分化、およびテクスチャ分析技法によって識別することができる。   The systems and methods described herein are usefully applied to non-vascular retinal features and abnormalities such as hard and fluffy vitiligo. For example, fluffy vitiligo is fluffy on the retina caused by nerve injury and can be identified by the disclosed smoothing, segmentation, and texture analysis techniques.

随意で、システム100は、本明細書で説明される異常検出技法(それぞれ、図7および8の技法700および800等)の前に網膜の画像に適用することができる、1つ以上の前処理技法を伴って構成され得る。これらの前処理技法の実施例は、そのそれぞれが、その全体で参照することにより本明細書に組み込まれる、Walterらによる、”Segmentation of color fundus images of the human retina: detection of the optic disc and the vascular tree using morphological techniques,” in Crespo et al, eds., Lecture Notes in Computer Science, v. 2199, pp. 282−287 (2001); Walterらによる、”A contribution of image processing to the diagnosis of diabetic retinopathy: detection of exudates in color fundus images of the human retina,” IEEE Trans. Med. Imaging, v. 21, pp. 1236−1243 (2002);およびWalterらによる、”Automatic detection of microaneurysms in color fundus images,” Med. Image Analysis, v. 11, pp. 555−566 (2007)で説明されているコントラスト強化、位置合わせ、および他の形態学的技法を含む。   Optionally, system 100 can include one or more pre-processing that can be applied to the retinal image prior to the anomaly detection techniques described herein (such as techniques 700 and 800 of FIGS. 7 and 8, respectively). Can be configured with techniques. Examples of these pre-processing techniques are described by Walter et al., “Segmentation of color Funds images of the human retina: detection of the optical disc and each of which is incorporated herein by reference in its entirety. vascular molecular morphological techniques, "in Crespo et al, eds. Lecture Notes in Computer Science, v. 2199, pp. 282-287 (2001); Walter et al., "A contribution of image processing to the diagnosis of the undenosed ef- ferences in the world." Med. Imaging, v. 21, pp. 1326-1243 (2002); and Walter et al., "Automatic detection of microaneurysms in color fundus images," Med. Image Analysis, v. 11, pp. 555-566 (2007), including contrast enhancement, alignment, and other morphological techniques.

加えて、1つ以上の強固な逐次検出アルゴリズムを適用することによって、中間データセット(例えば、傾斜、配向の角度、半径等)内の点スパイクが選択的に除去され得る。1つのそのようなアルゴリズムは、その全体で参照することにより本明細書に組み込まれる、”Dual sensor failure identification using analytic redundancy,” J. Guidance and Control, v. 2, n. 3, pp. 2213−2220 (1979)で説明されている。   In addition, by applying one or more robust sequential detection algorithms, point spikes in intermediate data sets (eg, tilt, orientation angle, radius, etc.) can be selectively removed. One such algorithm is described in “Dual sensor failure identification using analytic redundancy,” J. Pat. Guidance and Control, v. 2, n. 3, pp. 2213-2220 (1979).

上記で論議されるように、本明細書で説明される画像分析技法は、テクスチャ等の画像属性を識別することができる。いくつかの網膜撮像用途では、テクスチャ分析は、異常、特に、微細または高空間周波数異常の検出を向上させる。エッジは、「より高い周波数」の特徴の一種の尺度を提供し、その他も使用され得る。テクスチャ分析のための従来のアルゴリズムは通常、分析される領域が、比較的均質なサブテクスチャの長方形の小領域を含むように十分大きいことを要求する。しかしながら、網膜撮像では、異常構造は小さく、不均質で、不規則な形状である。そのような形状の分析は、これらの異常に適した改良型アルゴリズムを必要とする。   As discussed above, the image analysis techniques described herein can identify image attributes such as texture. In some retinal imaging applications, texture analysis improves detection of abnormalities, particularly fine or high spatial frequency abnormalities. Edges provide a kind of measure of “higher frequency” features, and others can be used. Conventional algorithms for texture analysis typically require that the area to be analyzed be large enough to include a rectangular sub-region of relatively uniform sub-texture. However, in retinal imaging, the abnormal structure is small, inhomogeneous and irregular in shape. Such shape analysis requires an improved algorithm suitable for these anomalies.

マトリクスエッジオニオンピール(MEOP)方法が、それらのテクスチャに基づいて網膜の異常を識別するために使用され得る。テクスチャ領域が十分大きい、いくつかの実施形態では、テクスチャウェーブレット分析アルゴリズムが使用され得るが、小さいサイズのテクスチャ領域用のMEOPアルゴリズムと組み合わせられ得る。この方法論は、その全体で参照することにより本明細書に組み込まれる、Desaiらによる”Noise Adaptive Matrix Edge Field Analysis of Small Sized Heterogeneous Onion Layered Textures for Characterizing Human Embryonic Stem Cell Nuclei,” ISBI 2009, pp. 1386−1389で説明されている。エネルギー関数アプローチが、同時平滑化および区分化に使用され得る。方法論は、マトリクスエッジフィールド、および平滑化過程モデルに対する測定の適合的重み付けといった、2つの特徴を含む。マトリクスエッジ関数は、テクスチャの異なる領域にわたって平滑化近傍の形状、サイズ、および配向を適合的かつ陰に変調する。したがって、これは、より従来的なスカラーエッジフィールドベースのアプローチでは入手可能ではないテクスチャについての指向性情報を提供する。適合的測定重み付けは、各ピクセルにおける測定間の重み付けを変化させる。   Matrix edge onion peel (MEOP) methods can be used to identify retinal abnormalities based on their texture. In some embodiments where the texture region is large enough, a texture wavelet analysis algorithm may be used, but may be combined with a MEOP algorithm for small size texture regions. This methodology is incorporated by reference herein in its entirety by Desai et al., “Noise Adaptable Matrix Edge Ignition Immersion of the Heterogeneous Nation of Heterogeneous Energy and Sr. 1386-1389. An energy function approach can be used for simultaneous smoothing and segmentation. The methodology includes two features: a matrix edge field, and adaptive weighting of the measurement to the smoothing process model. The matrix edge function adaptively and implicitly modulates the shape, size, and orientation near the smoothing over different regions of the texture. Thus, this provides directional information about textures that are not available with the more traditional scalar edge field-based approach. Adaptive measurement weighting changes the weighting between measurements at each pixel.

いくつかの実施形態では、網膜の異常を識別するためのノンパラメトリック方法が使用され得る。これらの方法は、レベルセット方法、多重分解能ウェーブレット分析、および分解からのウェーブレット係数の密度関数のノンパラメトリック推定を組み合わせることに基づき得る。加えて、最大内接長方形の窓が、多重分解能分析のための十分な数のピクセルを含まない場合がある、小さいサイズのテクスチャに対処するためには、細長く不規則な形状の核の多重分解能分析を可能にする、調整可能な窓開設方法を提案する。いくつかの例示的実施形態では、ノンパラメトリック密度モデルと組み合わせた調整可能な窓開設アプローチは、ウェーブレット係数のパラメトリック密度モデリングが適用可能ではない場合がある事例に対して、より良好な分類をもたらす。   In some embodiments, non-parametric methods for identifying retinal abnormalities may be used. These methods may be based on combining level set methods, multi-resolution wavelet analysis, and non-parametric estimation of the density function of wavelet coefficients from decomposition. In addition, the multi-resolution of elongate and irregularly shaped nuclei to deal with small size textures, where the largest inscribed rectangular window may not contain a sufficient number of pixels for multi-resolution analysis We propose an adjustable window opening method that enables analysis. In some exemplary embodiments, an adjustable window opening approach combined with a non-parametric density model provides a better classification for cases where parametric density modeling of wavelet coefficients may not be applicable.

そのような方法はまた、複数の時空間分解能において、経時的な網膜画像のマルチスケール質的監視も可能にする。統計的多重分解能ウェーブレットテクスチャ分析は、詳細サブバンド内のウェーブレット係数を表すために使用される、一般化ガウス密度(GGD)といったパラメトリック統計モデルと組み合わせられると効果的であることが示されている。しかしながら、すでに実装されているようなパラメトリック統計的多重分解能ウェーブレット分析は、以下のような制限を有する。1)テクスチャ分析を可能にするために、十分なサイズの長方形でテクスチャが均質な領域を手動で選択するようにユーザに要求する。2)係数の分布が対称、単一モード、および不偏であることを仮定し、これはいくつかのテクスチャには当てはまらない場合がある。上記で説明されるように、いくつかの用途では、マトリクスエッジオニオンピールアルゴリズムが、「タマネギ層」テクスチャ変化(すなわち、構造の中心からの半径の関数として変化するテクスチャ特性)を示す、小さいサイズで不規則な形状の構造に使用され得る。   Such a method also allows multiscale qualitative monitoring of retinal images over time at multiple spatiotemporal resolutions. Statistical multi-resolution wavelet texture analysis has been shown to be effective when combined with a parametric statistical model, such as the generalized Gaussian density (GGD), used to represent wavelet coefficients within the detailed subbands. However, parametric statistical multi-resolution wavelet analysis as already implemented has the following limitations. 1) Requires the user to manually select a sufficiently sized rectangle and texture homogeneous region to allow texture analysis. 2) Assuming that the coefficient distribution is symmetric, single mode, and unbiased, this may not be the case for some textures. As described above, in some applications, the matrix edge onion peel algorithm is a small size that exhibits a “onion layer” texture change (ie, a texture characteristic that changes as a function of the radius from the center of the structure). Can be used for irregularly shaped structures.

いくつかの実施形態では、網膜特徴を自動的に区分化するために、アルゴリズムが使用され、小さい不規則な形状の(すなわち、長方形ではない)領域の多重分解能分解から入手可能な係数の数を最大限化するために、調整可能な窓開設方法が使用され得る。これらのステップは、複数の網膜特徴を用いた画像の自動分析を可能にし、テクスチャ分析を行うために人間が窓を手動で選択する必要性を排除する。最終的に、ノンパラメトリック統計分析が、パラメトリックGGDモデルが適用不可能である事例に適用され得る。この分析は、後者が適用可能ではない場合において、パラメトリックモデルよりもすぐれた性能をもたらし得る。   In some embodiments, an algorithm is used to automatically segment the retinal features to reduce the number of coefficients available from multi-resolution decomposition of small irregularly shaped (ie, non-rectangular) regions. To maximize, an adjustable window opening method can be used. These steps allow for automatic analysis of images using multiple retinal features, eliminating the need for a human to manually select a window to perform texture analysis. Finally, non-parametric statistical analysis can be applied to cases where parametric GGD models are not applicable. This analysis can provide better performance than the parametric model when the latter is not applicable.

ウェーブレットベースのテクスチャモデル、係数抽出、PDF、およびテクスチャ相違点推定のための適合的窓開設、一般化ガウスおよび対称アルファ安定等の密度モデル、ならびにAhmad−Linand、Loftsgaarden−Quesenberry等のKLD推定器を含む、いくつかの付加的な画像処理技法が、本明細書で開示される網膜撮像システムおよび方法で使用するために好適である。   Wavelet-based texture models, coefficient extraction, PDF, and adaptive window creation for texture dissimilarity estimation, density models such as generalized Gaussian and symmetric alpha stability, and KLD estimators such as Ahmad-Linand and Loftsgaarden-Quesenbergry Several additional image processing techniques are suitable for use with the retinal imaging systems and methods disclosed herein.

いくつかの実施形態では、本明細書で説明される技法のうちの1つより多くは、組み合わせて、例えば、並行して、連続して使用されてもよく、または、サポートベクトルマシンあるいは確率的方法等の非線形分類器を使用して融合され得る。それぞれの網膜の異常に複数の技法を使用することにより、速度を大幅に損なうことなく精度を向上させ得る。加えて、本明細書で説明される技法のうちのいずれかは、当技術分野で一般的に使用されている糖尿病性網膜症の早期治療研究の分類スケールに従って、糖尿病性網膜症または糖尿病性黄斑浮腫のレベルを決定するのに有用である。   In some embodiments, more than one of the techniques described herein may be used in combination, eg, in parallel, sequentially, or a support vector machine or stochastic It can be fused using non-linear classifiers such as methods. By using multiple techniques for each retinal abnormality, accuracy can be improved without significant loss of speed. In addition, any of the techniques described herein can be used to diabetic retinopathy or diabetic macular according to the classification scale of early treatment studies of diabetic retinopathy commonly used in the art. Useful for determining the level of edema.

本発明は、その精神または本質的な特性から逸脱することなく、他の具体的形態で具現化され得る。したがって、前述の実施形態は、本発明の制限よりもむしろ、全ての側面で例証的であると見なされる。   The present invention may be embodied in other specific forms without departing from its spirit or essential characteristics. The foregoing embodiments are therefore considered to be illustrative in all aspects rather than limiting of the invention.

Claims (32)

網膜の異常を検出するコンピュータ化された方法であって、
コンピュータによって、網膜の画像を受信することと、
前記コンピュータによって、前記画像を平滑化および区分化することであって、前記平滑化および区分化することは、相互依存的であり、さらに、
第1および第2のエネルギー関数の値を低減させることであって、前記第1のエネルギー関数は、第1の誤差測定基準を使用し、前記第2のエネルギー関数は、前記第1の誤差測定基準とは異なる第2の誤差測定基準を使用する、ことと、
前記第1および第2のエネルギー関数の値をそれぞれ低減させることによって得られる第1および第2の組の平滑化および区分化パラメータに関する情報を組み合わせることと
を含む、ことと、
前記コンピュータによって、前記平滑化および区分化された画像において少なくとも1つの網膜特徴を識別することと、
前記コンピュータによって、網膜の異常を識別するために、前記平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析することと
を含む、方法。
A computerized method for detecting retinal abnormalities,
Receiving a retina image by a computer;
By the computer, the method comprising: smoothing and partitioning the image, to the smoothing and partitioning, interdependent der is, furthermore,
Reducing the values of the first and second energy functions, wherein the first energy function uses a first error metric and the second energy function is the first error measurement. Using a second error metric different from the reference;
Combining information on the first and second sets of smoothing and partitioning parameters obtained by reducing the values of the first and second energy functions, respectively.
Including , and
By the computer, identifying at least one retinal features in the smoothed and segmented image,
Analyzing, by the computer, at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities.
前記少なくとも1つの網膜特徴は、血管を備える、請求項1に記載の方法。 The method of claim 1, wherein the at least one retinal feature comprises a blood vessel. 前記コンピュータによって、前記識別された少なくとも1つの血管を分析することは、
前記コンピュータによって、前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの経路を決定することと、
前記コンピュータによって、前記経路に沿った場所における前記経路の配向の角度、および前記経路に沿った場所における前記少なくとも1つの血管の直径のうちの少なくとも1つにおける変動を決定することと、
前記変動が閾値を超える場合に、前記コンピュータによって、前記場所における網膜の異常を識別することと
を含む、請求項2に記載の方法。
Analyzing the identified at least one blood vessel by the computer ;
Determining , by the computer, at least one path associated with the at least one blood vessel in the image;
Determining , by the computer, a variation in at least one of an angle of orientation of the path at a location along the path and a diameter of the at least one blood vessel at the location along the path;
3. The method of claim 2, comprising identifying , by the computer, retinal abnormalities at the location when the variation exceeds a threshold.
前記区分化および平滑化することは、さらに、前記コンピュータによって、前記画像における複数の場所におけるエッジフィールド強度を決定することを含み、前記少なくとも1つの経路は、少なくとも一部、前記エッジフィールド強度に基づいて決定される、請求項3に記載の方法。 The segmenting and smoothing further includes determining edge field strength at a plurality of locations in the image by the computer , wherein the at least one path is based at least in part on the edge field strength. 4. The method of claim 3, wherein the method is determined. 前記コンピュータによって、前記少なくとも1つの経路を決定することは、前記コンピュータによって、前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの中心線を決定することを含む、請求項3に記載の方法。 4. The method of claim 3 , wherein determining the at least one path by the computer includes determining at least one centerline associated with the at least one blood vessel in the image by the computer . 前記コンピュータによって、前記配向の角度の変動を決定することは、前記コンピュータによって、連続する複数の場所の間の配向の角度の変化を決定することを含む、請求項3に記載の方法。 4. The method of claim 3, wherein determining the orientation angle variation by the computer comprises determining a change in orientation angle between a plurality of consecutive locations by the computer . 前記コンピュータによって、複数の変動をフィルタにかけることをさらに含む、請求項3に記載の方法。 4. The method of claim 3, further comprising filtering a plurality of variations by the computer. 前記コンピュータによって、前記複数の変動をフィルタにかけることは、前記コンピュータによって、移動窓平均を適用することを含む、請求項7に記載の方法。 The method of claim 7, wherein filtering the plurality of variations by the computer comprises applying a moving window average by the computer . 前記変動は、前記フィルタにかけられた複数の変動のうちの少なくとも1つが閾値を超える場合に、前記閾値を超える、請求項7に記載の方法。 The variation, when more than at least one threshold value of a plurality of fluctuations exerted on the filter, exceeds the threshold value, The method of claim 7. 前記異常は、静脈内径の異常である、請求項1に記載の方法。 The method according to claim 1, wherein the abnormality is an abnormality of a vein inner diameter. 前記異常は、新しい血管分布である、請求項1に記載の方法。 The method of claim 1, wherein the abnormality is a new blood vessel distribution. ある場所における前記変動が閾値を超える場合に、前記コンピュータによって、血管分岐部が前記場所に存在するかどうかを決定することと、
血管分岐部が前記場所に存在する場合に、前記コンピュータによって、前記変動をフィルタによって除去することと
をさらに含む、請求項3に記載の方法。
Determining if a blood vessel bifurcation is present at the location by the computer if the variation at a location exceeds a threshold;
The method of claim 3, further comprising: filtering out the variation by the computer when a vascular bifurcation is present at the location.
前記平滑化および区分化することは、さらに、前記コンピュータによって、前記画像における複数の場所に関連付けられる近傍を規定する形状および配向のうちの少なくとも1つを、適合的に調整することを含む、請求項1に記載の方法。 The smoothing and segmenting further includes adaptively adjusting, by the computer, at least one of shapes and orientations that define neighborhoods associated with multiple locations in the image. Item 2. The method according to Item 1. 前記コンピュータによって、前記近傍の形状および配向のうちの少なくとも1つを適合的に調整することは、前記コンピュータによって、誤差測定基準に関連付けられるエネルギー関数の値を低減させることを含む、請求項13に記載の方法。 By the computer, adjusting at least one adaptively among shape and orientation of the vicinity, by the computer, including reducing the value of the energy function associated with the error metric, in claim 13 The method described. 前記識別された少なくとも1つの網膜特徴を分析することは、前記画像のテクスチャを分析することを含む、請求項1に記載の方法。 The method of claim 1, wherein analyzing the identified at least one retinal feature comprises analyzing a texture of the image. 網膜の異常を検出するためのシステムであって、
プロセッサを備え、前記プロセッサは、
網膜の画像を受信することと、
前記画像を平滑化および区分化することであって、前記平滑化および区分化することは、相互依存的であり、さらに、
第1および第2のエネルギー関数の値を低減させることであって、前記第1のエネルギー関数は、第1の誤差測定基準を使用し、前記第2のエネルギー関数は、前記第1の誤差測定基準とは異なる第2の誤差測定基準を使用する、ことと、
前記第1および第2のエネルギー関数の値をそれぞれ低減させることによって得られる第1および第2の組の平滑化および区分化パラメータに関する情報を組み合わせることと
を含む、ことと、
前記平滑化および区分化された画像において少なくとも1つの網膜特徴を識別することと、
網膜の異常を識別するために、前記平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析することと
を行うように構成されている、システム。
A system for detecting retinal abnormalities,
A processor, the processor comprising:
Receiving an image of the retina;
The method comprising: smoothing and partitioning the image, to the smoothing and partitioning, interdependent der is, furthermore,
Reducing the values of the first and second energy functions, wherein the first energy function uses a first error metric and the second energy function is the first error measurement. Using a second error metric different from the reference;
Combining information on the first and second sets of smoothing and partitioning parameters obtained by reducing the values of the first and second energy functions, respectively.
Including , and
Identifying at least one retinal features in the smoothed and segmented image,
Analyzing at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities.
前記少なくとも1つの網膜特徴は、血管を備える、請求項16に記載のシステム。 The system of claim 16 , wherein the at least one retinal feature comprises a blood vessel. 前記識別された少なくとも1つの血管を分析することは、
前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの経路を決定することと、
前記経路に沿った場所における前記経路の配向の角度、および前記経路に沿った場所における前記少なくとも1つの血管の直径のうちの少なくとも1つにおける変動を決定することと、
前記変動が閾値を超える場合に、前記場所における網膜の異常を識別することと
を含む、請求項17に記載のシステム。
Analyzing the identified at least one blood vessel comprises:
Determining at least one path associated with the at least one blood vessel in the image;
Determining an angle of orientation of the path at a location along the path and a variation in at least one of the diameters of the at least one blood vessel at the location along the path;
18. The system of claim 17 , comprising identifying a retinal abnormality at the location if the variation exceeds a threshold.
前記区分化および平滑化することは、さらに、前記画像における複数の場所におけるエッジフィールド強度を決定することを含み、前記少なくとも1つの経路は、少なくとも一部、前記エッジフィールド強度に基づいて決定される、請求項17に記載のシステム。 The segmenting and smoothing further includes determining edge field strengths at a plurality of locations in the image, wherein the at least one path is determined based at least in part on the edge field strengths. The system of claim 17 . 前記少なくとも1つの経路を決定することは、前記画像における前記少なくとも1つの血管に関連付けられる少なくとも1つの中心線を決定することを含む、請求項18に記載のシステム。 The system of claim 18 , wherein determining the at least one path includes determining at least one centerline associated with the at least one blood vessel in the image. 前記配向の角度の変動を決定することは、連続する複数の場所の間の配向の角度の変化を決定することを含む、請求項18に記載のシステム。 19. The system of claim 18 , wherein determining the orientation angle variation comprises determining a change in orientation angle between a plurality of consecutive locations. 前記プロセッサは、複数の変動をフィルタにかけるようにさらに構成されている、請求項18に記載のシステム。 The system of claim 18 , wherein the processor is further configured to filter a plurality of variations. 前記複数の変動をフィルタにかけることは、移動窓平均を適用することを含む、請求項22に記載のシステム。 23. The system of claim 22 , wherein filtering the plurality of variations includes applying a moving window average. 前記変動は、前記フィルタにかけられた複数の変動のうちの少なくとも1つが閾値を超える場合に、前記閾値を超える、請求項22に記載のシステム。 The variation, when more than at least one threshold value of a plurality of fluctuations exerted on the filter, exceeds the threshold value, the system according to claim 22. 前記異常は、静脈内径の異常である、請求項16に記載のシステム。 The system according to claim 16 , wherein the abnormality is an abnormality of a vein inner diameter. 前記異常は、新しい血管分布である、請求項16に記載のシステム。 The system of claim 16 , wherein the abnormality is a new blood vessel distribution. 前記プロセッサは、
ある場所における前記変動が閾値を超える場合に、血管分岐部が前記場所に存在するかどうかを決定することと、
血管分岐部が前記場所に存在する場合に、コンピュータによって、前記変動をフィルタによって除去すること
を行うようにさらに構成されている、請求項18に記載のシステム。
The processor is
Determining whether a vascular bifurcation is present at the location when the variation at a location exceeds a threshold;
If the vessel bifurcation is present in the location, by the computer, the is further configured to perform the be removed by filtering the variation system of claim 18.
前記平滑化および区分化することは、さらに、コンピュータによって、前記画像における複数の場所に関連付けられる近傍を規定する形状および配向のうちの少なくとも1つを適合的に調整することを含む、請求項16に記載のシステム。 To the smoothing and partitioning, further by a computer, comprising adaptively adjusting at least one of specified shape and orient the neighborhood associated with a plurality of locations in the image, according to claim 16 The system described in. 前記近傍の形状および配向のうちの少なくとも1つを適合的に調整することは、誤差測定基準に関連付けられるエネルギー関数の値を低減させることを含む、請求項28に記載のシステム。 29. The system of claim 28 , wherein adaptively adjusting at least one of the neighboring shapes and orientations includes reducing an energy function value associated with an error metric. 前記識別された少なくとも1つの血管を分析することは、前記画像のテクスチャを分析することを含む、請求項16に記載のシステム。 The system of claim 16 , wherein analyzing the identified at least one blood vessel comprises analyzing a texture of the image. コンピュータによって実行可能な命令を記憶した非一過性コンピュータ可読媒体であって、前記命令は、前記コンピュータにより実行されると、
網膜の画像を受信することと、
前記画像を平滑化および区分化することであって、前記平滑化および区分化することは、相互依存的であり、さらに、
第1および第2のエネルギー関数の値を低減させることであって、前記第1のエネルギー関数は、第1の誤差測定基準を使用し、前記第2のエネルギー関数は、前記第1の誤差測定基準とは異なる第2の誤差測定基準を使用する、ことと、
前記第1および第2のエネルギー関数の値をそれぞれ低減させることによって得られる第1および第2の組の平滑化および区分化パラメータに関する情報を組み合わせることと
を含む、ことと、
前記平滑化および区分化された画像において少なくとも1つの網膜特徴を識別することと、
網膜の異常を識別するために、前記平滑化および区分化された画像において識別された少なくとも1つの網膜特徴を分析することと
を含む方法を前記コンピュータに実行させる非一過性コンピュータ可読媒体。
A non-transitory computer readable medium storing instructions executable by a computer , wherein the instructions are executed by the computer ,
Receiving an image of the retina;
The method comprising: smoothing and partitioning the image, to the smoothing and partitioning, interdependent der is, furthermore,
Reducing the values of the first and second energy functions, wherein the first energy function uses a first error metric and the second energy function is the first error measurement. Using a second error metric different from the reference;
Combining information on the first and second sets of smoothing and partitioning parameters obtained by reducing the values of the first and second energy functions, respectively.
Including , and
Identifying at least one retinal features in the smoothed and segmented image,
A non-transitory computer-readable medium that causes the computer to perform a method comprising: analyzing at least one retinal feature identified in the smoothed and segmented image to identify retinal abnormalities.
前記少なくとも1つの網膜特徴は、血管を備える、請求項31に記載の非一過性コンピュータ可読媒体。
32. The non-transitory computer readable medium of claim 31 , wherein the at least one retinal feature comprises a blood vessel.
JP2012534420A 2009-10-15 2010-10-15 System and method for detecting retinal abnormalities Expired - Fee Related JP5740403B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US27915609P 2009-10-15 2009-10-15
US61/279,156 2009-10-15
PCT/US2010/052950 WO2011047342A1 (en) 2009-10-15 2010-10-15 Systems and methods for detecting retinal abnormalities

Publications (2)

Publication Number Publication Date
JP2013508035A JP2013508035A (en) 2013-03-07
JP5740403B2 true JP5740403B2 (en) 2015-06-24

Family

ID=43558113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012534420A Expired - Fee Related JP5740403B2 (en) 2009-10-15 2010-10-15 System and method for detecting retinal abnormalities

Country Status (2)

Country Link
JP (1) JP5740403B2 (en)
WO (1) WO2011047342A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607202B2 (en) 2009-12-17 2017-03-28 University of Pittsburgh—of the Commonwealth System of Higher Education Methods of generating trophectoderm and neurectoderm from human embryonic stem cells
WO2012037414A1 (en) * 2010-09-15 2012-03-22 The Charles Stark Draper Laboratory, Inc. Systems and methods for multilayer imaging and retinal injury analysis
JP7446277B2 (en) 2018-03-13 2024-03-08 ザ ユーエービー リサーチ ファンデーション Colocalization detection of retinal perfusion and optic disc deformation
JP2022079931A (en) * 2020-11-17 2022-05-27 凸版印刷株式会社 Image processing method and image processing program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3479788B2 (en) * 1993-09-21 2003-12-15 株式会社トプコン Fundus disease analyzer
JPH10234674A (en) * 1997-02-28 1998-09-08 Nippon Telegr & Teleph Corp <Ntt> Method for judging presence or absence of change of fundus oculi image with time
US6362821B1 (en) * 1999-01-06 2002-03-26 Mitsubishi Electric Research Laboratories, Inc. Surface model generation for visualizing three-dimensional objects using multiple elastic surface nets
JP3548473B2 (en) * 1999-11-19 2004-07-28 日本電信電話株式会社 Method and apparatus for identifying arteriovenous of fundus image, recording medium and apparatus
WO2003034176A2 (en) * 2001-10-16 2003-04-24 The University Of Chicago Computer-aided detection of three-dimensional lesions
JP4958254B2 (en) * 2005-09-30 2012-06-20 興和株式会社 Image analysis system and image analysis program
JP4822527B2 (en) * 2006-09-26 2011-11-24 国立大学法人岐阜大学 Image analysis apparatus and image analysis program
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
JP5281826B2 (en) * 2008-06-05 2013-09-04 オリンパス株式会社 Image processing apparatus, image processing program, and image processing method

Also Published As

Publication number Publication date
JP2013508035A (en) 2013-03-07
WO2011047342A1 (en) 2011-04-21
WO2011047342A8 (en) 2012-05-18

Similar Documents

Publication Publication Date Title
US8737703B2 (en) Systems and methods for detecting retinal abnormalities
Imran et al. Comparative analysis of vessel segmentation techniques in retinal images
US20230255478A1 (en) Automated determination of arteriovenous ratio in images of blood vessels
Wang et al. Retinal vessel segmentation using multiwavelet kernels and multiscale hierarchical decomposition
US8718363B2 (en) Systems and methods for analyzing image data using adaptive neighborhooding
Dias et al. Retinal image quality assessment using generic image quality indicators
Li et al. Vessel segmentation and width estimation in retinal images using multiscale production of matched filter responses
Niemeijer et al. Comparative study of retinal vessel segmentation methods on a new publicly available database
WO2021082691A1 (en) Segmentation method and apparatus for lesion area of eye oct image, and terminal device
US20120065518A1 (en) Systems and methods for multilayer imaging and retinal injury analysis
US9898818B2 (en) Automated measurement of changes in retinal, retinal pigment epithelial, or choroidal disease
Soomro et al. Contrast normalization steps for increased sensitivity of a retinal image segmentation method
Jan et al. Retinal image analysis aimed at blood vessel tree segmentation and early detection of neural-layer deterioration
EP2401719B1 (en) Methods for segmenting images and detecting specific structures
CN116630762B (en) Multi-mode medical image fusion method based on deep learning
Ben Abdallah et al. Noise-estimation-based anisotropic diffusion approach for retinal blood vessel segmentation
JP5740403B2 (en) System and method for detecting retinal abnormalities
Tavakoli et al. Radon transform technique for linear structures detection: application to vessel detection in fluorescein angiography fundus images
WO2020140380A1 (en) Method and device for quickly dividing optical coherence tomography image
Isavand Rahmani et al. Retinal blood vessel segmentation using gabor filter and morphological reconstruction
Kabir A rule based segmentation approaches to extract retinal blood vessels in fundus image
Kanagala et al. Detection of Glaucoma Using Optic Disk Segmentation Based on CNN and VAE Models.
Carnimeo et al. A combined preprocessing method for retinal vessel detection towards proliferative diabetic retinopathy screening
Gill et al. Segmentation of retinal area by adaptive SLIC superpixel
Zhang et al. Extraction and Visualization of Ocular Blood Vessels in 3D Medical Images Based on Geometric Transformation Algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150427

R150 Certificate of patent or registration of utility model

Ref document number: 5740403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees