JP5241937B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5241937B2 JP5241937B2 JP2012102702A JP2012102702A JP5241937B2 JP 5241937 B2 JP5241937 B2 JP 5241937B2 JP 2012102702 A JP2012102702 A JP 2012102702A JP 2012102702 A JP2012102702 A JP 2012102702A JP 5241937 B2 JP5241937 B2 JP 5241937B2
- Authority
- JP
- Japan
- Prior art keywords
- layer
- image processing
- curve
- image
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 143
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 59
- 238000001514 detection method Methods 0.000 claims description 45
- 210000003583 retinal pigment epithelium Anatomy 0.000 claims description 45
- 238000011002 quantification Methods 0.000 claims description 35
- 238000012887 quadratic function Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims 5
- 210000004220 fundus oculi Anatomy 0.000 claims 2
- 230000006870 function Effects 0.000 description 62
- 238000010586 diagram Methods 0.000 description 23
- 201000010099 disease Diseases 0.000 description 16
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 12
- 230000002159 abnormal effect Effects 0.000 description 11
- 206010064930 age-related macular degeneration Diseases 0.000 description 10
- 208000002780 macular degeneration Diseases 0.000 description 10
- 210000001525 retina Anatomy 0.000 description 9
- 238000013500 data storage Methods 0.000 description 7
- 230000003902 lesion Effects 0.000 description 7
- 238000012014 optical coherence tomography Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000002207 retinal effect Effects 0.000 description 5
- 238000011084 recovery Methods 0.000 description 4
- 206010061818 Disease progression Diseases 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000005750 disease progression Effects 0.000 description 3
- 210000005081 epithelial layer Anatomy 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 210000004379 membrane Anatomy 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000000790 retinal pigment Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004126 nerve fiber Anatomy 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 210000004127 vitreous body Anatomy 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 201000004569 Blindness Diseases 0.000 description 1
- 208000010412 Glaucoma Diseases 0.000 description 1
- 208000001344 Macular Edema Diseases 0.000 description 1
- 206010025415 Macular oedema Diseases 0.000 description 1
- 206010029113 Neovascularisation Diseases 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 206010047642 Vitiligo Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000010230 macular retinal edema Diseases 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Description
本発明は、被写体の断層画像の処理を行う画像処理装置及び画像処理方法、当該画像処理方法をコンピュータに実行させるためのプログラムに関するものである。 The present invention relates to an image processing apparatus and an image processing method for processing a tomographic image of a subject, and a program for causing a computer to execute the image processing method.
生活習慣病や失明原因の上位を占める各種疾病の早期診断を目的として、従来、被写体として眼部の撮影による検査が広く行われている。例えば光干渉断層計(Optical Coherence Tomography:以下「OCT」と称する)などを用いた眼部の断層画像取得装置は、眼部の網膜層内部の状態を3次元的に観察することが可能である。このため、この断層画像取得装置は、疾病の診断をより的確に行うために有用であると期待されている。 For the purpose of early diagnosis of various diseases occupying the top causes of lifestyle-related diseases and blindness, examinations by photographing the eye as a subject have been widely performed. For example, an tomographic image acquisition device for an eye using an optical coherence tomography (hereinafter referred to as “OCT”) or the like can three-dimensionally observe the state inside the retinal layer of the eye. . For this reason, this tomographic image acquisition apparatus is expected to be useful for more accurately diagnosing diseases.
OCTを用いて得られた眼部の断層像(断層画像)において、眼部における神経線維層などの網膜の各層の厚みや網膜層全体の厚みを計測できれば、緑内障、加齢黄斑変性、黄斑浮腫などの疾病の進行度や治療後の回復具合を定量的に診断することが可能となる。従来、これらの層の厚みを計測するためには、3次元的に撮像される断層画像から注目断面を切り出した2次元断層画像(B−scan画像)上において、医師や技師が手動で網膜の各層の境界を指定する必要があった。また、層の厚みの3次元的な分布を得るためには、3次元断層画像を幾つかの2次元断層画像の集合と捉えて、それぞれの2次元断層画像上において注目する層の境界を指定する必要があった。 If the thickness of each layer of the retina such as the nerve fiber layer in the eye or the thickness of the entire retinal layer can be measured in the tomogram (tomographic image) of the eye obtained using OCT, glaucoma, age-related macular degeneration, macular edema Thus, it is possible to quantitatively diagnose the degree of progression of such diseases and the degree of recovery after treatment. Conventionally, in order to measure the thickness of these layers, a doctor or an engineer manually operates a retina on a two-dimensional tomographic image (B-scan image) obtained by cutting a cross section of interest from a tomographic image that is three-dimensionally imaged. It was necessary to specify the boundary of each layer. In addition, in order to obtain a three-dimensional distribution of layer thickness, the three-dimensional tomographic image is regarded as a set of several two-dimensional tomographic images, and the boundary of the layer of interest is specified on each two-dimensional tomographic image. There was a need to do.
しかしながら、層の境界を手動で指定する作業は、医師や技師の作業者にとって負担の掛かるものであった。また、層の境界を手動で指定する作業は、その作業者や作業日時の相違に起因するばらつきが発生するため、期待する精度で定量化を行うことが難しかった。この作業者の負担や作業におけるばらつきの軽減を目的として、コンピュータが断層画像から網膜の各層の境界を検出して、各層の厚みを計測する技術が提案されている(例えば、下記の特許文献1及び特許文献2参照)。 However, the task of manually specifying the layer boundaries is a burden for doctors and engineers. In addition, it is difficult to manually quantify the layer boundaries because it causes variations due to differences in the workers and work dates and times. For the purpose of reducing the burden on workers and variations in work, a technique has been proposed in which a computer detects the boundary of each layer of the retina from a tomographic image and measures the thickness of each layer (for example, Patent Document 1 below). And Patent Document 2).
ここで、加齢黄斑変性のような疾病においては、病状に応じて網膜色素上皮層の形状が凹凸に変形する。そのため、その変形の度合いを定量化することが病状の把握に有効である。このとき、疾病になる前の正常時であれば網膜色素上皮層が存在したであろう境界の位置を、正常構造として推定することが求められる。従来、この作業も医師や技師の手作業によって行われることが多く、その負担やその結果のばらつきが課題となっている。そのため、断層画像からの網膜色素上皮層境界の検出と、その正常構造の推定を自動化することが求められている。
しかしながら、断層画像上の画像特徴としては観測できないので、特許文献1や特許文献2の技術では、その正常構造を推定することができない。
Here, in diseases such as age-related macular degeneration, the shape of the retinal pigment epithelium layer is deformed into irregularities according to the disease state. Therefore, quantifying the degree of deformation is effective for understanding the medical condition. At this time, it is required to estimate the position of the boundary where the retinal pigment epithelium layer would have existed at the normal time before illness as a normal structure. Conventionally, this operation is often performed manually by a doctor or engineer, and the burden and variations in the results have been problems. Therefore, it is required to automate the detection of the retinal pigment epithelium layer boundary from the tomographic image and the estimation of its normal structure.
However, since the image feature on the tomographic image cannot be observed, the normal structure cannot be estimated by the techniques of Patent Document 1 and Patent Document 2.
本発明は、このような問題点に鑑みてなされたものであり、被写体を構成する層の正常構造を精度良く推定する仕組みを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism for accurately estimating the normal structure of layers constituting a subject.
本発明の画像処理装置は、眼部の眼底の断層画像から層を検出する層検出手段と、前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する特徴箇所検出手段と、前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める演算手段と、前記検出された層と前記曲線との差異を定量化する定量化手段と、を有する。 The image processing apparatus according to the present invention includes a layer detection unit that detects a layer from a tomographic image of the fundus of the eye, and a deep portion that is located deeper than a threshold in the depth direction of the fundus in the detected layer. A feature point detecting means for detecting a plurality of feature points including the detected layer shape, and a curve convex in the depth direction of the fundus based on the plurality of feature points including the deep part. And a quantifying means for quantifying the difference between the detected layer and the curve.
本発明の画像処理方法は、眼部の眼底の断層画像から層を検出する工程と、前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する工程と、前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める工程と、前記検出された層と前記曲線との差異を定量化する工程と、を有する。 The image processing method of the present invention includes a step of detecting a layer from a tomographic image of the fundus of the eye, and the detected layer includes a deep portion located deeper than a threshold in the depth direction of the fundus. Detecting a plurality of feature points based on the shape of the detected layer ; obtaining a convex curve in the depth direction of the fundus based on the plurality of feature points including the deep portion; and Quantifying the difference between the detected layer and the curve.
本発明のプログラムは、前記画像処理方法の各工程をコンピュータに実行させるためのものである。 The program of the present invention is for causing a computer to execute each step of the image processing method.
本発明によれば、被写体を構成する層の正常構造を精度良く推定することができる。これにより、被写体における疾病の進行度や治療後の回復具合等を定量化することが可能となる。 According to the present invention, it is possible to accurately estimate the normal structure of the layers constituting the subject. This makes it possible to quantify the degree of disease progression in the subject, the degree of recovery after treatment, and the like.
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に示す実施形態は、一例に過ぎず、本発明は、図示された構成等に限定されるものではない。また、以下の本明細書においては、網膜色素上皮層と、その上部或いは下部の層との境界を、「網膜色素上皮層境界」、または、単に「層境界」と称する。また、疾病になる前の正常時であれば同層境界が存在したであろう境界の推定位置を、「網膜色素上皮層境界の正常構造」、または、単に「正常構造」と称する。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The embodiment described below is only an example, and the present invention is not limited to the illustrated configuration. In the following description, the boundary between the retinal pigment epithelium layer and the upper or lower layer is referred to as “retinal pigment epithelium layer boundary” or simply “layer boundary”. In addition, the estimated position of the boundary where the same layer boundary would exist if it was normal before illness is referred to as “normal structure of the retinal pigment epithelium layer boundary” or simply “normal structure”.
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理システム100の概略構成(ハードウェア構成)の一例を示す模式図である。
(First embodiment)
First, a first embodiment of the present invention will be described.
FIG. 1 is a schematic diagram illustrating an example of a schematic configuration (hardware configuration) of an
図1に示すように、本実施形態に係る画像処理システム100は、画像処理装置110と、断層画像撮像装置120と、ローカルエリアネットワーク(LAN)130を有して構成されている。ここで、以下の説明においては、図1に示す画像処理装置110を、「画像処理装置110−1」とする。即ち、図1に示す画像処理システム100は、画像処理装置110−1が、LAN130を介して、断層画像撮像装置120に接続される構成となっている。
As shown in FIG. 1, the
本実施形態に係る画像処理装置110−1は、例えば、断層画像撮像装置120で撮像された被写体(本例では眼部)の断層画像から、眼部を構成する網膜色素上皮層境界などの層境界を検出する。そして、画像処理装置110−1は、例えば、加齢黄斑変性等の疾病によって層の形状が凹凸に変形するという特徴に基づいて、当該網膜色素上皮層等の正常構造を推定し、疾病の定量化を行うものである。なお、本実施形態では、被写体の一例として、眼部を適用する例を示すが、本発明においては、これに限定されるものではなく、断層画像として撮像対象になるものであれば適用可能である。
The image processing apparatus 110-1 according to the present embodiment, for example, a layer such as a retinal pigment epithelium layer boundary that constitutes an eye part from a tomographic image of a subject (eye part in this example) imaged by the tomographic
この画像処理装置110−1は、図1に示すように、中央処理装置(CPU)111、主メモリ112、磁気ディスク113、表示メモリ114、モニタ115、マウス116、キーボード117、及び、共通バス118を有して構成されている。また、磁気ディスク113の内部には、制御プログラム1131が格納されている。
As shown in FIG. 1, the image processing apparatus 110-1 includes a central processing unit (CPU) 111, a
CPU111は、主として、画像処理装置110−1の各構成要素の動作を制御して、画像処理装置110−1の動作を統括的に制御する。
The
主メモリ112は、例えばCPU111が処理の実行に際して磁気ディスク113からロードした制御プログラム1131を格納したり、CPU111による制御プログラム1131の実行時の作業領域となったりする。
The
磁気ディスク113は、オペレーティングシステム(OS)や、周辺機器のデバイスドライバ、制御プログラム1131等を記憶(格納)する。また、磁気ディスク113には、必要に応じて、CPU111が制御プログラム1131を用いた処理を行う際に必要な各種の情報やデータ、更には、CPU111による制御プログラム1131を用いた処理によって得られた各種の情報やデータが記憶される。ここで、CPU111は、磁気ディスク113に格納されている制御プログラム1131を実行することにより、画像処理装置110−1で行う各種の動作を統括的に制御する。
The magnetic disk 113 stores (stores) an operating system (OS), device drivers for peripheral devices, a
表示メモリ114は、モニタ115に表示するための表示用データを一時記憶する。
The display memory 114 temporarily stores display data to be displayed on the
モニタ115は、例えばCRTモニタや液晶モニタ等で構成されており、CPU111の制御に従って、表示メモリ114の表示用データに基づく画像等を表示する。
The
マウス116及びキーボード117は、それぞれ、ユーザによるポインティング入力及び文字等の入力を行うためのものである。
A
共通バス118は、画像処理装置110−1の内部の各構成要素を相互に通信可能に接続するとともに、当該画像処理装置110−1の内部構成要素とLAN130及び断層画像撮像装置120とを通信可能に接続する。
The common bus 118 connects the internal components of the image processing apparatus 110-1 so that they can communicate with each other, and can communicate the internal components of the image processing apparatus 110-1 with the
断層画像撮像装置120は、例えば眼部等の断層画像を撮像する装置であり、例えば、タイムドメイン方式のOCTやフーリエドメイン方式のOCTを備えて構成されている。断層画像撮像装置120は、ユーザ(技師や医師)による操作に応じて、不図示の被検者(患者)の眼部等の断層画像を3次元的に撮像する。そして、断層画像撮像装置120は、得られた断層画像を画像処理装置110−1へ出力する。
The tomographic
LAN130は、必要に応じて、画像処理装置110−1と、断層画像撮像装置120とを通信可能に接続するものである。このLAN130は、例えば、イーサネット(登録商標)等で構成されている。なお、画像処理装置110−1と断層画像撮像装置120との接続は、LAN130によらずに、例えば、USBやIEEE1394等のインターフェイスを介して直接接続する形態であってもよい。
The
次に、図1に示す画像処理装置110−1の機能構成について説明を行う。
図2は、本発明の第1の実施形態に係る画像処理装置110−1の機能構成の一例を示す模式図である。
Next, the functional configuration of the image processing apparatus 110-1 shown in FIG. 1 will be described.
FIG. 2 is a schematic diagram illustrating an example of a functional configuration of the image processing apparatus 110-1 according to the first embodiment of the present invention.
図2に示すように、画像処理装置110−1は、画像取得部210、画像処理部220、記憶部230、及び、表示部240の各機能構成を有して構成されている。
As shown in FIG. 2, the image processing apparatus 110-1 is configured to have each functional configuration of an
ここで、本実施形態においては、例えば、図1に示すCPU111が磁気ディスク113に記憶されている制御プログラム1131を実行することにより、図2に示す画像取得部210及び画像処理部220が構成される。また、例えば、図1に示すCPU111及び制御プログラム1131、並びに、主メモリ112、磁気ディスク113、或いは、表示メモリ114から、図2に示す記憶部230が構成される。さらに、例えば、図1に示す図1に示すCPU111及び制御プログラム1131、並びに、モニタ115から、表示部240が構成される。
In this embodiment, for example, the
画像取得部210は、断層画像撮像装置120に対して被写体である眼部の断層画像の送信を要求し、断層画像撮像装置120から送信される眼部の断層画像を受信して取得する処理を行う。そして、画像取得部210は、取得した断層画像を画像処理部220及び記憶部230に送る。
The
画像処理部220は、画像取得部210から送られた断層画像の処理を行うものであり、図2に示すように、層検出部221、正常構造推定部222、及び、定量化部223を有して構成されている。ここで、図3を用いて、画像処理部220で行う画像処理について説明を行う。
The
図3は、図2に示す画像処理部220に入力される断層画像の一例を示す模式図である。具体的に、図3には、眼部における網膜の層構造の一例が示されている。なお、以下の説明では、眼底の深度方向をz座標の正方向と定義し、z座標と直交する方向にxy平面を定義する。
FIG. 3 is a schematic diagram illustrating an example of a tomographic image input to the
層検出部221は、入力された断層画像から、眼部を構成する、内境界膜の層境界(図3のB1)と、網膜色素上皮層境界(図3のB21)をそれぞれ検出する。この層検出部221が行う具体的な処理の内容については、後述する。
The
正常構造推定部222は、層検出部221で検出された網膜色素上皮層境界(図3のB21)と、当該網膜色素上皮層の病変によって変形する特徴とに基づいて、その正常構造(図3のB22)を推定する処理を行う。なお、図3では、層検出部221が検出した層の境界(B1及びB21)は実線で示し、正常構造推定部222が推定した層の境界(B21)は点線で示している。この正常構造推定部222が行う具体的な処理の内容については、後述する。
Based on the retinal pigment epithelium layer boundary (B21 in FIG. 3) detected by the
定量化部223は、層検出部221による検出結果から、層L1の層厚T1、その面積及び体積を算出する処理を行う。また、定量化部223は、層検出部221で検出された網膜色素上皮層境界(図3のB21)と、正常構造推定部222で推定されたその正常構造(図3のB22)に基づいて、当該網膜色素上皮層の状態(具体的には、当該網膜色素上皮層の乱れ)を定量化する。この定量化部223が行う具体的な処理の内容については、後述する。
The
次に、図2の記憶部230について説明する。
記憶部230は、図2に示すように、画像記憶部231と、データ記憶部232を有して構成されている。
Next, the
As illustrated in FIG. 2, the
画像記憶部231は、画像取得部210で取得した断層画像(更には必要に応じて画像処理部220で画像処理した断層画像)等を記憶する。
The
データ記憶部232は、画像処理部220で利用する関数やパラメータのデータを記憶している。具体的に、データ記憶部232は、正常構造推定部222が網膜色素上皮層の正常構造を推定する際に利用する関数や、層検出部221が断層画像から層の境界を求める際に利用する各種のパラメータのデータなどを記憶している。
The
さらに、データ記憶部232は、画像記憶部231に記憶されている各種の断層画像と、画像処理部220で処理した各種の処理結果の情報を関連付けて、これを患者データとして保存する。本例では、記憶部230は、例えば磁気ディスク113等を含み構成されるため、磁気ディスク113等に、各種の断層画像と、画像処理部220で処理した各種の処理結果の情報とが関連付けられて、記憶される。
Further, the
具体的に、記憶部230は、画像取得部210で取得した断層画像データ、層検出部221で検出した層の境界データ、正常構造推定部222で推定した正常構造データ、定量化部223で定量化した数値データを関連付けて保存する。また、記憶部230(データ記憶部232)に保存されている各種のデータは、LAN130により接続された不図示の外部サーバに保存してもよく、この場合、記憶部230に保存されている各種のデータは、当該外部サーバへと送信される。
Specifically, the
次に、表示部240について説明する。
表示部240は、画像取得部210により得られた断層画像、層検出部221や正常構造推定部222により得られた層の境界や、定量化部223により定量化された各種の定量結果を表示する。
Next, the
The
次に、図4を参照して、本実施形態の画像処理装置110−1により実行される、具体的な処理手順を説明する。
図4は、本発明の第1の実施形態に係る画像処理装置110−1の制御方法の処理手順の一例を示すフローチャートである。
Next, a specific processing procedure executed by the image processing apparatus 110-1 according to the present embodiment will be described with reference to FIG.
FIG. 4 is a flowchart illustrating an example of a processing procedure of the control method of the image processing apparatus 110-1 according to the first embodiment of the present invention.
<ステップS101>
まず、ステップS101において、画像取得部210は、断層画像撮像装置120に対して、被写体である眼部の断層画像の送信を要求し、断層画像撮像装置120から送信される眼部の断層画像を取得する。そして、画像取得部210は、断層画像撮像装置120から取得した断層画像を、画像処理部220及び記憶部230(画像記憶部231)に入力する。
<Step S101>
First, in step S <b> 101, the
<ステップS102>
続いて、ステップS102において、層検出部221は、ステップS101で取得された断層画像から、被写体である眼部を構成する所定の層の境界を検出する処理を行う。
<Step S102>
Subsequently, in step S102, the
以下、層検出部221による層の境界検出の具体的な処理方法を説明する。
本例では、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して以下に示す2次元画像処理を実行する。
Hereinafter, a specific processing method of layer boundary detection by the
In this example, the input 3D tomographic image is considered as a set of 2D tomographic images (B-scan images), and the following 2D image processing is executed on each 2D tomographic image.
まず、層検出部221は、注目する2次元断層画像に対して平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、層検出部221は、エッジ検出フィルタ処理を行い、断層画像からエッジ成分を検出し、層の境界に相当するエッジを各層において抽出する。例えば、層検出部221は、硝子体側から眼底の深度方向にエッジを探索し、最初のピーク位置を硝子体と網膜層との境界とする。さらに、例えば、層検出部221は、眼底の深度方向にエッジを探索し、最後のピーク位置を網膜色素上皮層境界とする。以上の処理によって、層の境界を検出することができる。
First, the
他に、層の境界検出方法として、Snakesやレベルセット法のような動的輪郭法を適用して検出してもよい。ここで、レベルセット法の場合、検出対象の領域の次元よりも一次元高いレベルセット関数を定義し、検出したい層の境界をそのゼロ等高線であるとみなす。そして、レベルセット関数を更新することで輪郭を制御し、これにより、層の境界を検出することができる。 In addition, the layer boundary detection method may be detected by applying a dynamic contour method such as Snakes or level set method. Here, in the case of the level set method, a level set function that is one dimension higher than the dimension of the region to be detected is defined, and the boundary of the layer to be detected is regarded as the zero contour line. Then, the contour is controlled by updating the level set function, and thereby the boundary of the layer can be detected.
その他に、層の境界検出方法として、GraphCutのようなグラフ理論を用いて層の境界を検出してもよい。この場合、画像の各ピクセルに対応したノードと、sinkとsourceと呼ばれるターミナルを設定し、ノード間を結ぶエッジ(n―link)と、ターミナル間を結ぶエッジ(t−link)を設定する。そして、これらのエッジに対して重みを与えて、作成したグラフに対して、最小カットを求めることにより、層の境界を検出することができる。 In addition, as a layer boundary detection method, a layer boundary may be detected using graph theory such as GraphCut. In this case, a node corresponding to each pixel of the image and a terminal called sink and source are set, and an edge (n-link) connecting the nodes and an edge (t-link) connecting the terminals are set. Then, the layer boundaries can be detected by giving weights to these edges and obtaining the minimum cut for the created graph.
なお、動的輪郭法やGraphCutを用いた境界検出法は、3次元断層画像を対象として3次元的に行ってもよいし、入力した3次元断層画像を2次元断層画像の集合と考え、それぞれの2次元断層画像に対して2次元的に適用してもよい。また、層の境界を検出するために、画像特徴量のみだけではなく、確率アトラスや統計アトラスのように事前知識を利用して検出するようにしてもよい。なお、層の境界を検出する方法は、これらの方法に限定されるものではなく、眼部の断層画像から層の境界を検出可能な方法であれば、いずれの方法を用いてもよい。 The boundary detection method using the dynamic contour method or GraphCut may be performed three-dimensionally for a three-dimensional tomographic image, or the input three-dimensional tomographic image is considered as a set of two-dimensional tomographic images, The two-dimensional tomographic image may be applied two-dimensionally. Further, in order to detect the layer boundary, not only the image feature amount but also a priori knowledge such as a probability atlas or a statistical atlas may be used for detection. The method for detecting the layer boundary is not limited to these methods, and any method may be used as long as the layer boundary can be detected from the tomographic image of the eye.
<ステップS103>
続いて、ステップS103において、正常構造推定部222は、ステップS102で検出された所定の層の境界(本例では、網膜色素上皮層境界)と、当該層の病変によって変形する特徴とに基づいて、その正常構造を推定する処理を行う。
<Step S103>
Subsequently, in step S103, the normal
以下、正常構造推定部222による網膜色素上皮層の正常構造を推定する具体的な処理方法について、図5を用いて説明する。
図5は、本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定を説明するための模式図である。
Hereinafter, a specific processing method for estimating the normal structure of the retinal pigment epithelium layer by the normal
FIG. 5 is a schematic diagram for explaining the estimation of the normal structure of the layer included in the tomographic image according to the first embodiment of the present invention.
図5に示す断層画像には、図3と同様に、層L1、層境界B1、層境界B21と推定した層境界B22が示されている。また、図5中の符号d1及びd2は、それぞれ、層境界B21の座標(x1、z1)、(x2、z2)と、推定した層境界B22の座標(x1、z1')、(x2、z2')との差異を示している。図5において、座標x1では、検出した層境界B21は、推定した層境界B22よりも網膜色素上皮層の深部に位置し、座標x2では、検出した層境界B21は、推定した層境界B22よりも網膜色素上皮層の表面部に位置している。 The tomographic image shown in FIG. 5 shows the layer boundary B22 estimated as the layer L1, the layer boundary B1, and the layer boundary B21, as in FIG. Further, reference numerals d1 and d2 in FIG. 5 denote coordinates (x 1 , z 1 ) and (x 2 , z 2 ) of the layer boundary B21 and estimated coordinates (x 1 , z 1 ′) of the layer boundary B22, respectively. ), (X 2 , z 2 ′). 5, the coordinates x 1, layer boundary B21 was detected, located deep in the retinal pigment epithelium layer than the layer boundary B22 estimated, the coordinates x 2, the layer boundary B21 detected, the layer boundary estimated B22 Rather than the retinal pigment epithelium layer.
正常構造推定部222による正常構造の推定は、検出外れ値を除き、層検出部221の検出結果である層境界B21が正常構造B22の下に出ることがないように行う。これは、加齢黄斑変性による網膜色素上皮層の変形は、その下部に発生した新生血管によって生じるものであり、変形した層境界の位置は、正常時の上側に位置するという知見に基づいている。
The normal structure estimation by the normal
ここで、正常構造の推定を行う具体的方法として、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して正常構造の推定を行う場合について説明する。また、ここで用いる手法は、注目する2次元断層画像内で検出されている層境界を表す座標点群に2次関数をあてはめて、正常構造を推定するというものである。この場合、正常構造は、それぞれの2次元断層画像内において、2次曲線を表す関数で近似される。 Here, as a specific method for estimating the normal structure, the input three-dimensional tomographic image is considered as a set of two-dimensional tomographic images (B-scan images), and the normal structure is estimated for each two-dimensional tomographic image. The case where it performs is demonstrated. The technique used here is to estimate a normal structure by applying a quadratic function to a coordinate point group representing a layer boundary detected in a focused two-dimensional tomographic image. In this case, the normal structure is approximated by a function representing a quadratic curve in each two-dimensional tomographic image.
この手法の要点は、検出された座標点群に関数のあてはめを行う際に、点群と関数との差異の距離に応じた重みを与えるだけではなく、差異の符号に応じて使用する重みを変更することにある。例えば、正常構造推定部222は、以下の(1)式に基づいて、使用する重み関数の選択を行う。
The main point of this method is not only to give a weight according to the distance of the difference between the point group and the function, but also to assign a weight to be used according to the sign of the difference when fitting the function to the detected coordinate point group. It is to change. For example, the normal
ここで、(1)式において、ziは座標xiにおいて検出した層境界のz座標、zi'は座標xiにおける推定した正常構造のz座標である。εiはziとzi'の差異である。a、b、cは推定する関数のパラメータである。ρ1、ρ2は重み関数であり、ρ1、ρ2はx=0で唯一の最小値を持つ正定値偶関数である。(1)式で示すように、εiの符号に応じて重み関数を選択する。 Here, in the equation (1), z i is the z coordinate of the layer boundary detected at the coordinate x i , and z i ′ is the z coordinate of the estimated normal structure at the coordinate x i . ε i is the difference between z i and z i ′. a, b, and c are parameters of the function to be estimated. ρ1 and ρ2 are weight functions, and ρ1 and ρ2 are positive definite even functions having a unique minimum value at x = 0. As shown in equation (1), a weight function is selected according to the sign of ε i .
図5中の符号d1及びd2の場合、差異の大きさは同じだとしても、差異の符号が異なる(ε1は正、ε2は負となる)ため、使用する重み関数は異なる。図5の場合では、符号d1で用いる重み関数はρ1、符号d2で用いる重み関数はρ2となる。また、εi≦0の関係が成り立つように正常構造を推定するのが望ましいので、zがz'よりも網膜の深部に位置する場合の重みが大きくなるように、重み関数を設定しておく。言い換えると、差異εiにおいて、ρ1(εi)≧ρ2(−εi)となるように、重み関数ρ1及びρ2を定義しておく。また、重み関数の選択は、上記の条件(即ち、眼部を構成する層(本例では網膜色素上皮層)の病変によって変形する特徴に基づく条件)を満たしていれば、どのような関数を用いてもよい。 In the case of the codes d1 and d2 in FIG. 5, even if the magnitude of the difference is the same, the signs of the differences are different (ε 1 is positive and ε 2 is negative), so the weighting functions used are different. In the case of FIG. 5, the weight function used for the symbol d1 is ρ1, and the weight function used for the symbol d2 is ρ2. In addition, since it is desirable to estimate the normal structure so that the relationship of ε i ≦ 0 is established, the weight function is set so that the weight when z is positioned deeper than the retina is greater than z ′. . In other words, the weight functions ρ1 and ρ2 are defined so that ρ1 (ε i ) ≧ ρ2 (−ε i ) at the difference ε i . The weight function can be selected as long as it satisfies the above-described conditions (that is, conditions based on the characteristics deformed by the lesion of the layer constituting the eye (in this example, the retinal pigment epithelium layer)). It may be used.
次に、近似関数を求めるための評価式の例を以下の(2)式に示す。 Next, an example of an evaluation formula for obtaining an approximate function is shown in the following formula (2).
(2)式において、ρ(εi)はεiの符号に応じて選択された重み関数(すなわち、ρ1またはρ2)である。
図6は、本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定する際に利用する重み関数の一例を示す模式図である。
In equation (2), ρ (ε i ) is a weighting function selected according to the sign of ε i (ie, ρ1 or ρ2).
FIG. 6 is a schematic diagram illustrating an example of a weight function used when estimating a normal structure of a layer included in a tomographic image according to the first embodiment of this invention.
図6(a)、図6(b)及び図6(c)において、差異εiを横軸にとり、これをxとし、縦軸が重み関数ρ(x)とする。断層画像に含まれる層の正常構造の推定する際に利用する重み関数は、図6に示したものが全てではなく、どのような関数を設定してもよい。また、ρ(x)によって実際にどれほどの重みが与えられているかを確認するためには、ρ(x)の微分を取ればよい。本例では、正常構造推定部222は、上記の(2)式において、評価値Mが最小になるように関数を推定する。
In FIG. 6A, FIG. 6B, and FIG. 6C, the difference ε i is taken on the horizontal axis, this is x, and the vertical axis is the weighting function ρ (x). The weighting function used when estimating the normal structure of the layer included in the tomographic image is not all shown in FIG. 6, and any function may be set. In addition, in order to confirm how much weight is actually given by ρ (x), the derivative of ρ (x) may be taken. In this example, the normal
このように、誤差の符号に応じて適切な重み関数を選択することで、図3で示すように、層検出部221で検出した層境界B21が、正常構造推定部222で推定した正常構造B22の下側にはみ出してしまうことを抑制できる。そして、その結果として、正常構造の推定を精度よく行うことが可能となる。
In this way, by selecting an appropriate weight function according to the sign of the error, as shown in FIG. 3, the layer boundary B21 detected by the
なお、ここでは、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して正常構造を推定する方法について説明を行った。しかしながら、正常構造の推定方法は、この方法に限定されるものではなく、例えば、3次元断層画像に対して処理を行ってもよい。この場合、ステップS102で検出した層境界の3次元的な座標点群に、上記と同様な重み関数の選択基準を用いて楕円体あてはめを行えばよい。なお、正常構造を近似する形状は、2次の関数に限定されるものではなく、他の次数の関数を用いて推定してもよい。 Here, the input 3D tomographic image is considered as a set of 2D tomographic images (B-scan images), and the method for estimating the normal structure for each 2D tomographic image has been described. However, the normal structure estimation method is not limited to this method, and for example, processing may be performed on a three-dimensional tomographic image. In this case, the ellipsoid may be fitted to the three-dimensional coordinate point group of the layer boundary detected in step S102 using the same weight function selection criteria as described above. The shape approximating the normal structure is not limited to a quadratic function, and may be estimated using a function of another order.
(別の正常構造の推定方法)
ここで、上述した方法とは別の正常構造の推定方法について、図14を用いて説明する。なお、図14(a)は、正常眼における網膜の層構造の一例を示す図である。また、図14(b)は、加齢黄斑変性における網膜の層構造の一例を示す図である。図14(a)に示す正常眼における網膜色素上皮層1400aは、滑らかなカーブを有する構造を成している。一方、図14(b)に示す加齢黄斑変性における網膜色素上皮層1400bは、その領域の一部が上下に波打った形状となっている。なお、OCTによる眼部の断層画像は、3次元的に得られるものであるが、図14では説明を簡単にするために、その一断面を2次元的に表している。また、網膜色素上皮層は、厚みの少ない層なので、図14では一本の線で表している。
(Another method for estimating normal structure)
Here, a normal structure estimation method different from the above-described method will be described with reference to FIG. FIG. 14A shows an example of the layer structure of the retina in a normal eye. Moreover, FIG.14 (b) is a figure which shows an example of the layer structure of the retina in age-related macular degeneration. The retinal
このとき、OCTを用いた加齢黄斑変性の診断方法として、図14(b)に示す画像に基づいて、断層画像上で観察可能な現実の網膜色素上皮層境界(図14(c)の1401)と、同断層画像上におけるその正常構造(図14(c)の1402)とを得る。そして、断層画像上で観察可能な現実の網膜色素上皮層境界(1401)と、同断層画像上におけるその正常構造(1402)との差異部分(図14(c)の斜線部分)の面積や体積などによって病気の状態を定量化する。 At this time, as a method for diagnosing age-related macular degeneration using OCT, based on the image shown in FIG. 14B, an actual retinal pigment epithelium layer boundary (1401 in FIG. 14C) that can be observed on a tomographic image. ) And its normal structure (1402 in FIG. 14C) on the tomographic image. Then, the area and volume of the difference between the actual retinal pigment epithelium layer boundary (1401) that can be observed on the tomographic image and its normal structure (1402) on the tomographic image (the hatched portion in FIG. 14C). Quantify the state of the disease by
例えば、2次元断層画像(B−scan画像)から検出した網膜色素上皮層境界に対して二乗誤差が最小となるようにあてはめた楕円曲線を、その正常構造として用いることができる。なお、このような最小二乗法による楕円曲線のあてはめによって推定した正常構造は、実際の正常構造とは異なる場合がある。そのため、検出した層境界との差異に基づく面積を求めたとしても、病状を定量化する尺度として用いるのには、信頼性が不十分な場合もある。これにより、上述した正常構造の推定方法(点群と関数との差異の符号に応じて適切な重み関数に変更する手法)を用いることが好ましい。 For example, an elliptic curve fitted to minimize the square error with respect to the retinal pigment epithelium layer boundary detected from a two-dimensional tomographic image (B-scan image) can be used as the normal structure. Note that the normal structure estimated by fitting the elliptic curve by the least square method may be different from the actual normal structure. Therefore, even if the area based on the difference from the detected layer boundary is obtained, the reliability may not be sufficient for use as a scale for quantifying the medical condition. Accordingly, it is preferable to use the above-described normal structure estimation method (a method of changing to an appropriate weighting function according to the sign of the difference between the point group and the function).
<ステップS104>
続いて、ステップS104において、定量化部223は、各種の定量化処理を行う。
まず、定量化部223は、ステップS102において層検出部221が検出した層の境界に基づいて、図3に示す、層L1の層厚T1、その層の面積及び体積を算出する処理を行う。ここで層厚T1は、xy平面上の各座標点で、層境界B1と層境界B21のz座標の差の絶対値を求めることで計算できる。また、層L1の面積は、それぞれのy座標ごとにx軸方向の各座標点での層厚を加算することによって計算できる。また、層L1の体積は、求めた面積をy軸方向に加算することで計算できる。
<Step S104>
Subsequently, in step S104, the
First, the
さらに、定量化部223は、ステップS102で層検出部221が検出した網膜色素上皮層境界B21と、ステップS103で正常構造推定部222が推定したその正常構造B22に基づいて、ステップS102で検出された網膜色素上皮層の乱れを定量化する。
Further, the
具体的には、xy平面上の各座標点におけるB21の構造とB22の構造との差異T2(図3)を、両者のz座標の差として算出する。そして、求めた差異T2をx軸方向に加算することで差異のなす面積をy座標ごとに求め、さらに、求めた面積をy軸方向に加算することで差異のなす体積を算出する。なお、網膜色素上皮層の乱れを表す特徴量は、B21とB22の差異を定量化するものであれば、いずれのものであってもよい。例えば、求めた差異T2の最大値、中央値、分散、平均、標準偏差、閾値以上の点の数やその割合などを求め、これを用いてもよい。さらには、B21とB22のなす領域の濃度特徴として、平均濃度値、濃度分散値、コントラストなどを求めてもよい。 Specifically, the difference T2 (FIG. 3) between the structure of B21 and the structure of B22 at each coordinate point on the xy plane is calculated as a difference between the z coordinates. Then, by adding the obtained difference T2 in the x-axis direction, an area making a difference is obtained for each y coordinate, and further, by adding the obtained area in the y-axis direction, a volume making a difference is calculated. Note that the feature amount representing the disturbance of the retinal pigment epithelium layer may be any as long as it quantifies the difference between B21 and B22. For example, the maximum value, the median value, the variance, the average, the standard deviation, the number of points equal to or greater than the threshold, the ratio thereof, and the like may be obtained and used. Furthermore, an average density value, a density dispersion value, a contrast, and the like may be obtained as the density characteristics of the region formed by B21 and B22.
また、定量化部223による定量化の方法として、定量化時に層の境界を平面に変換して、それを基準位置として定量化をしてもよい。その例を図7に示す。
図7は、本発明の第1の実施形態を示し、断層画像の平面化処理を説明するための模式図である。具体的に、図7は、図3における層の境界を、網膜層の一番深部の境界B22(例えば、網膜色素上皮層境界)を平面に変換し、他の層もその変形に合わせて変換した例を示したものである。
Further, as a method of quantification by the
FIG. 7 is a schematic diagram for explaining planarization processing of a tomographic image according to the first embodiment of this invention. Specifically, FIG. 7 converts the layer boundary in FIG. 3 into the deepest boundary B22 of the retinal layer (for example, the retinal pigment epithelium layer boundary) into a plane, and converts other layers in accordance with the deformation. This is an example.
さらに、定量化部223は、過去に定量化した層厚、面積、体積や形状特徴、濃度特徴などがある場合には、過去の定量化データとの比較を行う。以下に、過去の定量化データとの比較方法の例について説明する。
Further, when there is a layer thickness, area, volume, shape feature, concentration feature, or the like quantified in the past, the
この場合、まず、定量化部223は、過去と現在の断層画像の位置合わせを行う。この際、断層画像の位置合わせには、剛体アフィン変形や、非線形変形のFFD(Free form deforamation)などの公知の手法を用いることができる。そして、過去に撮影された断層画像と現在の断層画像との位置の対応が取れているならば、任意の断面での層厚、面積などの比較や、任意の領域の体積などを比較することができる。
In this case, first, the
ここでは、過去と現在の断層画像の位置合わせをしてから、各種のデータを比較する例を示したが、例えば断層画像撮像装置120に追尾機能などが搭載されており、画像撮影時に前回と同じ位置を撮影できるのであれば、位置合わせを行う必要はない。さらには、位置合わせを行わずに、単純にB−scan画像のスライス番号同士での比較や、3Dで比較をしてもよい。
Here, an example is shown in which various data are compared after the past and current tomographic images are aligned. For example, the tomographic
なお、定量化部223では、上述した数値データの少なくとも1つを求めればよく、定量化するデータは、任意に設定できるものとする。もしも、1つも求めることができなければ、次のステップS105において、定量化できない旨を表示部240に表示してもよい。
The
<ステップS105>
続いて、ステップS105において、表示部240は、断層画像と、断層画像の層と層の境界を検出した結果と、正常構造を推定した結果と、断層画像の層に関して定量化した結果を表示する処理を行う。本例では、表示部240は、例えばモニタ115を含み構成されるため、ステップS105の処理では、モニタ115上に各種のデータが表示される。ここで、過去のデータがある場合には、過去データと比較して表示するようにしてもよい。
<Step S105>
Subsequently, in step S105, the
図8は、本発明の第1の実施形態を示し、図1に示す画像処理装置110−1によって得られた画像処理結果の表示例を示す模式図である。図8に示す例では、モニタ115の上部に、画像処理部220で検出した層と層の境界や推定した正常構造に係る断層画像801を表示し、モニタ115の下部に、断層画像801の解析結果として網膜層厚のグラフ802を表示している。
FIG. 8 is a schematic diagram illustrating a display example of an image processing result obtained by the image processing apparatus 110-1 illustrated in FIG. 1 according to the first embodiment of this invention. In the example shown in FIG. 8, a
なお、断層画像の表示として、画像取得部210で取得した断層画像に、画像処理部220で検出した層と層の境界や推定した正常構造を重畳表示してもよい。また、断層画像の表示として、特定の層の境界を平面に変換して、それを基準とした断層画像(図7)を生成して表示してもよい。なお、変形する層の範囲は、B−scan画像1枚であってもよいし、3次元断層画像でもよい。
As the tomographic image display, the layer detected by the
<ステップS106>
続いて、ステップS106において、記憶部230(データ記憶部232等)は、以上のステップS101〜S104で取得された各種のデータを関連付けて、ある患者の患者データとして磁気ディスク113に保存する。具体的には、ステップS101で得られた断層画像データ、ステップS102で得られた層及び層の境界のデータ、ステップS103で推定された層の正常構造データ、ステップS104で得られた層の定量化処理の結果が関連付けられて、保存される。なお、磁気ディスク113に保存するデータは、これらのデータうちの少なくとも1つでよい。
<Step S106>
Subsequently, in step S106, the storage unit 230 (such as the data storage unit 232) associates the various types of data acquired in the above steps S101 to S104 and saves them as patient data of a patient on the magnetic disk 113. Specifically, the tomographic image data obtained in step S101, the layer and layer boundary data obtained in step S102, the normal structure data of the layer estimated in step S103, and the layer quantification obtained in step S104. The result of the digitizing process is associated and saved. The data stored on the magnetic disk 113 may be at least one of these data.
ここで、正常構造の推定結果を保存する場合には、推定時に利用した重み関数ρ((1)式)と関数のパラメータ(例えば、(1)式のa、b、c)も同時に関連付けて保存しておき、経過観察時に同じ関数やパラメータを用いて推定するようにしてもよい。 Here, when the estimation result of the normal structure is stored, the weight function ρ (Equation (1)) used at the time of estimation and the function parameters (for example, a, b, and c in Equation (1)) are also associated at the same time. It may be stored and estimated using the same function or parameter during follow-up observation.
また、これらのデータの保存は、不図示の外部サーバに行ってもよい。この場合、記憶部230は、これらのデータを外部サーバへと送信する。
Further, these data may be stored in an external server (not shown). In this case, the
なお、本実施形態において、層検出部221が検出する層としては、内境界膜と網膜色素上皮層に限定されるものではなく、神経線維層、視細胞層、外境界膜などの各層や膜を検出してよい。さらに、正常構造を推定する層の境界としては、網膜色素上皮層に限定されるものではなく、疾病により形状が凹凸に変化する層であれば、いずれの層並びに層境界を推定してもよい。
In the present embodiment, the layers detected by the
以上説明した第1の実施形態によれば、被写体である眼部の断層画像において、当該眼部を構成する層(本実施形態では網膜色素上皮層)の正常構造を精度良く推定することができる。これにより、眼部における疾病の進行度や治療後の回復具合等を精度良く定量化することが可能となる。 According to the first embodiment described above, it is possible to accurately estimate the normal structure of a layer (in this embodiment, the retinal pigment epithelium layer) constituting the eye part in the tomographic image of the eye part that is the subject. . This makes it possible to accurately quantify the degree of disease progression in the eye and the degree of recovery after treatment.
(第1の実施形態の変形例1)
第1の実施形態における画像処理装置110−1は、既に撮像された状態で保存されている眼部の断層画像を保持する画像蓄積サーバ(不図示)と、直接またはLAN130を介して接続し、当該画像蓄積サーバから断層画像を入力する構成であってもよい。この場合、図4のステップS101において、画像取得部210は、画像蓄積サーバ(不図示)に断層画像の送信を要求し、当該画像蓄積サーバから送信される断層画像を取得して、記憶部230に入力する。その後、上述したように、層の境界検出(S102)や定量化処理(S104)を行う。
(Modification 1 of the first embodiment)
The image processing apparatus 110-1 in the first embodiment is connected directly or via a
(第1の実施形態の変形例2)
第1の実施形態における画像処理装置110−1は、1枚または複数枚の二次元の断層画像を入力し、それに対して上述した解析処理(画像処理)を行う構成であってもよい。また、入力された三次元の断層画像から注目すべき断面を選択して、選択された二次元断層画像に対して処理を行う構成であってもよい。この場合、二次元断層画像の選択は、ユーザがマウス116やキーボード117を用いて、或いは、不図示のインターフェイスを用いて行ってもよいし、予め定めた眼底の特定部分(例えば黄斑部の中心を含む断面)に対して処理を行ってもよい。
(Modification 2 of the first embodiment)
The image processing apparatus 110-1 in the first embodiment may have a configuration in which one or a plurality of two-dimensional tomographic images are input and the above-described analysis processing (image processing) is performed thereon. Moreover, the structure which selects the cross section which should be noticed from the input three-dimensional tomographic image, and processes with respect to the selected two-dimensional tomographic image may be sufficient. In this case, the selection of the two-dimensional tomographic image may be performed by the user using the
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
図9は、本発明の第2の実施形態に係る画像処理システム200の概略構成(ハードウェア構成)の一例を示す模式図である。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
FIG. 9 is a schematic diagram illustrating an example of a schematic configuration (hardware configuration) of an
図9に示すように、本実施形態に係る画像処理システム200は、画像処理装置110と、断層画像撮像装置120と、ローカルエリアネットワーク(LAN)130と、広域画像撮像装置140を有して構成されている。ここで、以下の説明においては、図9に示す画像処理装置110を、「画像処理装置110−2」とする。即ち、図9に示す画像処理システム200は、画像処理装置110−2が、LAN130を介して、断層画像撮像装置120のみならず、広域画像撮像装置140とも接続される構成となっている。なお、画像処理装置110−2と広域画像撮像装置140との接続は、USBやIEEE1394等のインターフェイスを介して直接行ってもよい。
As shown in FIG. 9, the
本実施形態に係る画像処理装置110−2は、第1の実施形態に係る画像処理装置110−1と同様に、眼部の断層画像から、網膜色素上皮層境界などの層境界を検出する。そして、画像処理装置110−2は、第1の実施形態に係る画像処理装置110−1と同様に、例えば、加齢黄斑変性等の疾病により層の形状が凹凸に変形するという特徴に基づいて、当該網膜色素上皮層の正常構造を推定し、疾病の定量化を行うものである。ただし、本実施形態に係る画像処理装置110−2は、眼部の断層画像から検出した網膜色素上皮層の形状が正常か異常かを局所領域ごとに判断し、正常と判断した範囲(正常範囲)の情報に基づいて、その正常構造を推定する。これに伴って、図9に示す画像処理装置110−2には、磁気ディスク113の内部に、第1の実施形態とは異なる、制御プログラム1132が格納されている。
Similar to the image processing apparatus 110-1 according to the first embodiment, the image processing apparatus 110-2 according to the present embodiment detects a layer boundary such as a retinal pigment epithelium layer boundary from a tomographic image of the eye. And the image processing apparatus 110-2 is based on the characteristic that the shape of a layer deform | transforms into an unevenness | corrugation by diseases, such as age-related macular degeneration, for example like the image processing apparatus 110-1 which concerns on 1st Embodiment. The normal structure of the retinal pigment epithelium layer is estimated and the disease is quantified. However, the image processing apparatus 110-2 according to the present embodiment determines whether the shape of the retinal pigment epithelium layer detected from the tomographic image of the eye is normal or abnormal for each local region, and the range determined as normal (normal range) ) To estimate its normal structure. Accordingly, in the image processing apparatus 110-2 shown in FIG. 9, a
広域画像撮像装置140は、例えば眼部等の広域画像を撮像する装置であり、例えば、眼底カメラを備えて構成されている。広域像撮像装置30は、ユーザ(技師や医師)による操作に応じて、不図示の被検者(患者)の眼部等の広域画像を撮像する。そして、広域画像撮像装置140は、得られた広域画像を画像処理装置110−2へ出力する。
The wide area
次に、図9に示す画像処理装置110−2の機能構成について説明を行う。
図10は、本発明の第2の実施形態に係る画像処理装置110−2の機能構成の一例を示す模式図である。
Next, a functional configuration of the image processing apparatus 110-2 illustrated in FIG. 9 will be described.
FIG. 10 is a schematic diagram illustrating an example of a functional configuration of an image processing apparatus 110-2 according to the second embodiment of the present invention.
図10に示すように、画像処理装置110−2は、画像取得部210、画像処理部220、記憶部230、及び、表示部240の各機能構成を有して構成されている。第2の実施形態に係る画像処理装置110−2の機能構成については、図2に示す第1の実施形態に係る画像処理装置110−1の機能構成と基本的には同様の構成となる。ただし、第2の実施形態に係る画像処理装置110−2では、画像取得部210が広域画像取得部211と断層画像取得部212とから構成され、また、正常構造推定部222の内部に、層の形状が正常か異常かを判断する判断部2221が構成されている。
As illustrated in FIG. 10, the image processing device 110-2 is configured to have each functional configuration of an
次に、図11を参照して、本実施形態の画像処理装置110−2により実行される、具体的な処理手順を説明する。
図11は、本発明の第2の実施形態に係る画像処理装置110−2の制御方法の処理手順の一例を示すフローチャートである。
Next, a specific processing procedure executed by the image processing apparatus 110-2 of the present embodiment will be described with reference to FIG.
FIG. 11 is a flowchart illustrating an example of a processing procedure of a control method of the image processing apparatus 110-2 according to the second embodiment of the present invention.
<ステップS201>
まず、ステップS201において、断層画像取得部212は、断層画像撮像装置120に対して、被写体である眼部の断層画像の送信を要求し、断層画像撮像装置120から送信される眼部の断層画像を取得する。そして、断層画像取得部212は、断層画像撮像装置120から取得した断層画像を、画像処理部220及び記憶部230(画像記憶部231)に入力する。同様に、広域画像取得部211は、広域画像撮像装置140に対して、被写体である眼部の広域画像の送信を要求し、広域画像撮像装置140から送信される眼部の広域画像を取得する。そして、広域画像取得部211は、取得した広域画像を、画像処理部220及び記憶部230(画像記憶部231)に入力する。
<Step S201>
First, in step S <b> 201, the tomographic
<ステップS202>
続いて、ステップS202において、層検出部221は、ステップS201で取得された断層画像から、被写体である眼部を構成する所定の層の境界を検出する処理を行う。ここで、層の検出方法については、第1の実施形態における図4のステップS102と同様である。なお、層の境界を検出するために、断層画像だけではなく、広域画像から病変や血管を抽出し、その情報を利用して検出するようにしてもよい。
<Step S202>
Subsequently, in step S202, the
<ステップS203>
続いて、ステップS203において、正常構造推定部222の判断部2221は、ステップS202において層検出部221が検出した層境界(本例では、網膜色素上皮層境界(B21))について、正常範囲及び異常範囲を判断して検出する。そして、判断部2221は、ステップS202において層検出部221が検出した層境界を正常範囲と異常範囲とに分類する。
<Step S203>
Subsequently, in step S203, the determination unit 2221 of the normal
具体的には、まず、例えば、層が正常構造である条件として、層境界の曲率は滑らかであると定義する。この場合、判断部2221による異常範囲の検出では、検出した層境界の局所的な曲率を計算し、層の境界形状を評価することで、曲率が滑らかに変化していない部分は異常範囲であるとする。或いは、判断部2221による異常範囲の検出では、眼部の広域画像から白斑や出血やドルーゼンを検出し、病変が存在する広域画像の(x,y)領域に対応する断層画像のz方向の網膜層構造は異常であるとする。そして、判断部2221は、断層画像中での正常範囲と異常範囲の位置を分類しておく。 Specifically, first, as a condition that the layer has a normal structure, for example, the curvature of the layer boundary is defined to be smooth. In this case, in the detection of the abnormal range by the determination unit 2221, the local curvature of the detected layer boundary is calculated and the boundary shape of the layer is evaluated, so that the portion where the curvature does not change smoothly is the abnormal range. And Alternatively, in the detection of the abnormal range by the determination unit 2221, vitiligo, bleeding, and drusen are detected from the wide area image of the eye, and the retina in the z direction of the tomographic image corresponding to the (x, y) region of the wide area image where the lesion exists. The layer structure is assumed to be abnormal. Then, the determination unit 2221 classifies the positions of the normal range and the abnormal range in the tomographic image.
<ステップS204>
続いて、ステップS204において、正常構造推定部222は、ステップS203で正常と判断された範囲に含まれている層境界と、当該層の病変によって変形する特徴とに基づいて、当該層の正常構造を推定する処理を行う。
<Step S204>
Subsequently, in step S204, the normal
ここで、ステップS204における正常構造の推定方法としては、第1の実施形態における図4のステップS103と同様に、多項式を用いて正常構造を近似して推定を行う。この際、正常構造推定部222は、判断部2221で正常と判断された座標群のみを用いて多項式のパラメータを計算し、正常構造を近似する。或いは、正常構造推定部222は、多項式で近似せず、判断部2221で正常と判断された座標群をスプライン補間などの補間処理を行って、正常構造を推定するようにしてもよい。
Here, as a method for estimating the normal structure in step S204, the normal structure is approximated using a polynomial as in step S103 of FIG. 4 in the first embodiment. At this time, the normal
<ステップS205>
続いて、ステップS205において、定量化部223は、第1の実施形態における図4のステップS104と同様に、各種の定量化処理を行う。
<Step S205>
Subsequently, in step S205, the
<ステップS206>
続いて、ステップS206において、表示部240は、第1の実施形態における図4のステップS105と基本的には同様の表示処理を行う。この際、本実施形態では、さらに、推定した正常構造と検出した層境界の表示において、任意の情報を選択して表示できるようにしてもよい。これについて、図12を用いて説明する。
<Step S206>
Subsequently, in step S206, the
図12は、本発明の第2の実施形態を示し、断層画像に含まれる層の境界の表示例を示す模式図である。
図12において、層検出部221が検出した層境界は実線で示し、正常構造推定部222が推定した正常構造は点線で示している。
FIG. 12 is a schematic diagram illustrating a display example of a layer boundary included in a tomographic image according to the second embodiment of this invention.
In FIG. 12, the layer boundary detected by the
具体的に、図12(a)は、検出した層境界と推定した正常構造を同時に表示する一例である。図12(b)は、推定した正常構造のみを表示する一例である。図12(c)は、同一の層境界内で、正常範囲については検出した層境界を表示し、異常範囲については検出した層境界と推定した正常構造を同時に表示する一例である。図12(d)は、同一の層境界内で、正常範囲については検出した層境界を表示し、異常範囲については推定した正常構造のみを表示する一例である。 Specifically, FIG. 12A is an example in which the detected layer boundary and the estimated normal structure are displayed simultaneously. FIG. 12B is an example in which only the estimated normal structure is displayed. FIG. 12C is an example in which the detected layer boundary is displayed for the normal range and the detected normal layer and the estimated normal structure are simultaneously displayed for the abnormal range within the same layer boundary. FIG. 12D shows an example in which the detected layer boundary is displayed for the normal range and only the estimated normal structure is displayed for the abnormal range within the same layer boundary.
ステップS206における表示の方法として、図12(a)〜図12(d)に示した検出結果と推定結果を断層画像上に重畳表示してもよいし、検出結果と推定結果を、断層画像と別に表示するようにしてもよい。このように、層境界に関する情報の表示方法を選択し、任意の情報を表示できるようにしてもよい。 As a display method in step S206, the detection results and the estimation results shown in FIGS. 12A to 12D may be superimposed on the tomographic image, or the detection results and the estimation results may be displayed as a tomographic image. You may make it display separately. In this way, it is possible to select a display method of information related to the layer boundary so that arbitrary information can be displayed.
<ステップS207>
続いて、ステップS207において、記憶部230は、第1の実施形態における図4のステップS106と基本的には同様の記憶処理を行う。この際、さらに、撮像部位の確認等の理由で、広域画像と広域画像上における断層画像の取得範囲を一緒に記憶して提示できるようにしてもよい。
<Step S207>
Subsequently, in step S207, the
以上説明した第2の実施形態によれば、被写体である眼部の断層画像において、網膜色素上皮層の構造が正常か異常かを局所領域ごとに判断するようにしたので、正常と判断した領域から、疾病により変化した当該層の正常構造を精度良く推定することができる。これにより、その結果を用いて疾病の進行度や治療後の回復具合を精度良く定量化することが可能となる。 According to the second embodiment described above, in the tomographic image of the eye that is the subject, whether the structure of the retinal pigment epithelial layer is normal or abnormal is determined for each local region. Therefore, the normal structure of the layer that has changed due to a disease can be accurately estimated. This makes it possible to accurately quantify the degree of disease progression and the degree of recovery after treatment using the results.
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
第3の実施形態に係る画像処理システムの概略構成は、図1に示す第1の実施形態に係る画像処理システム100と同様である。また、第3の実施形態に係る画像処理装置110の機能構成は、図2に示す第1の実施形態に係る画像処理装置110−1の機能構成と基本的には同様である。ただし、正常構造推定部222の処理が異なるため、ここでは、第3の実施形態に係る画像処理装置110を「画像処理装置110−3」とする。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The schematic configuration of the image processing system according to the third embodiment is the same as that of the
また、本実施形態の画像処理装置110−3は、第1の実施形態に係る画像処理装置110−1等と同様に、眼部の断層画像から、網膜色素上皮層境界などの層境界を検出する。そして、画像処理装置110−3は、第1の実施形態に係る画像処理装置110−1と同様に、例えば、加齢黄斑変性等の疾病により層の形状が凹凸に変形するという特徴に基づいて、当該網膜色素上皮層等の正常構造を推定し、疾病の定量化を行うものである。ただし、本実施形態に係る画像処理装置110−3は、眼部の断層画像から検出した網膜色素上皮層境界の形状が、正常構造を表す1つの多項式に係る関数と、病変によるn個の上に凸のガウス関数の混合分布であると仮定して、正常構造を推定する。これは、下からの隆起によって発生した層の凹凸をガウス関数で近似し、それ以外の大局的な形状を多項式で推定するためである。 In addition, the image processing apparatus 110-3 according to the present embodiment detects layer boundaries such as the retinal pigment epithelium layer boundary from the tomographic image of the eye, as with the image processing apparatus 110-1 according to the first embodiment. To do. And the image processing apparatus 110-3 is based on the characteristic that the shape of a layer deform | transforms into an unevenness | corrugation by diseases, such as age-related macular degeneration, similarly to the image processing apparatus 110-1 which concerns on 1st Embodiment. The normal structure such as the retinal pigment epithelium is estimated to quantify the disease. However, in the image processing apparatus 110-3 according to the present embodiment, the shape of the boundary of the retinal pigment epithelium layer detected from the tomographic image of the eye part is a function related to one polynomial representing a normal structure, and the upper number n of lesions. The normal structure is estimated on the assumption that the distribution is a mixture of Gaussian functions. This is because the unevenness of the layer generated by the bulge from the bottom is approximated by a Gaussian function, and other global shapes are estimated by a polynomial.
本実施形態における図2の正常構造推定部222は、検出された座標点群に関数のあてはめを行う際、層境界の形状が、正常構造を表す2次関数と、n個のガウス関数の混合分布であると仮定する。そして、本実施形態における正常構造推定部222は、これらの混合分布を推定することで、形状が凹凸に変形した層の正常構造を推定する。この例を図13に示す。
In the present embodiment, when the normal
図13は、本発明の第3の実施形態を示し、断層画像に含まれる層の正常構造の推定を説明するための模式図である。具体的に、図13(a)の1300は、加齢黄斑変性における網膜色素上皮層境界の形状例を示している。また、図13(b)の1301及び1302は、それぞれ、図13(a)の網膜色素上皮層境界1300から求められる多項式、及び、ガウス関数の例を示している。
FIG. 13 is a schematic diagram for explaining the estimation of the normal structure of a layer included in a tomographic image according to the third embodiment of the present invention. Specifically, 1300 in FIG. 13A shows an example of the shape of the boundary of the retinal pigment epithelium layer in age-related macular degeneration. Moreover, 1301 and 1302 of FIG.13 (b) have each shown the example of the polynomial calculated | required from the retinal pigment
2次関数とガウス関数の混合分布は、EMアルゴリズムを用いて解を求めることができる。この際、混合分布は、多項式と複数のガウス関数とを組み合わせた確率モデルで、多項式とガウス関数の確率に重みをつけて加算したものである。 A mixed distribution of a quadratic function and a Gaussian function can be obtained using an EM algorithm. At this time, the mixed distribution is a probability model in which a polynomial and a plurality of Gauss functions are combined, and the probability of the polynomial and the Gauss function is added with a weight.
本実施形態における正常構造推定部222は、2次関数のパラメータ(a、b、c)とガウス関数のパラメータ(平均、分散共分散行列)と、2次関数とガウス関数との混合率を、EMアルゴリズムを用いて推定する。この際、n個のガウス関数の設定は、多項式と検出した層境界との差異の符号において、負のピークの数に応じてnを設定してもよいし、あるいは、1〜Nの間でnを順番に増やしていき、評価値が最大になる数nを設定するようにしてもよい。
In this embodiment, the normal
また、EMアルゴリズムは、初期値としてパラメータを仮に設定し、Estepにおいてパラメータの妥当性を判断し、Mstepにおいて、妥当性が向上するようにパラメータを選択するものである。本例では、これらのEstepとMstepを繰り返し計算して、収束した時点のパラメータを選択する。ここで、妥当性は、現時点での尤度で判断し、パラメータの選択は、現時点での尤度より大きくなるパラメータを選択する。 In the EM algorithm, parameters are temporarily set as initial values, the validity of parameters is determined in Step, and parameters are selected so that the validity is improved in Mstep. In this example, these Steps and Steps are repeatedly calculated, and the parameters at the time of convergence are selected. Here, the validity is determined by the current likelihood, and the parameter is selected by selecting a parameter that is larger than the current likelihood.
本実施形態では、n個の上に凸のガウス関数を、滑らかな1つの2次関数に混合しているとしている。これは、下からの隆起によって発生した層の凹凸を前者のガウス関数で近似し、それ以外の大局的な形状を2次関数で推定するためである。なお、ここでは、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して正常構造を推定する方法を示している。しかしながら、正常構造の推定方法は、これに限定されるものではなく、3次元の断層画像に対して処理を行ってもよい。また、正常構造を近似する形状は、2次関数に限定されるものではなく、他の次数の関数を用いて推定してもよい。さらに、正常構造を推定する層の境界は、網膜色素上皮層に限定されるものではなく、疾病により形状が凹凸に変化する層であれば、いずれの層並びに層境界を推定してもよい。 In the present embodiment, n upward convex Gaussian functions are mixed into one smooth quadratic function. This is because the unevenness of the layer generated by the bulge from below is approximated by the former Gaussian function, and the other global shape is estimated by a quadratic function. Here, a method of estimating a normal structure for each two-dimensional tomographic image is shown, assuming that the input three-dimensional tomographic image is a set of two-dimensional tomographic images (B-scan images). However, the normal structure estimation method is not limited to this, and processing may be performed on a three-dimensional tomographic image. The shape approximating the normal structure is not limited to a quadratic function, and may be estimated using a function of another order. Furthermore, the boundary of the layer for estimating the normal structure is not limited to the retinal pigment epithelium layer, and any layer and layer boundary may be estimated as long as the shape changes into irregularities due to a disease.
(その他の実施形態)
前述した本発明の各実施形態に係る画像処理装置110を構成する図2及び図10の各構成部、並びに、図4及び図11の各ステップは、CPU111が磁気ディスク113に記憶されている制御プログラムを実行することによって実現できる。この制御プログラム及び当該制御プログラムを記憶したコンピュータ読み取り可能な記録媒体(実施形態では磁気ディスク113)は本発明に含まれる。
(Other embodiments)
2 and 10 constituting the image processing apparatus 110 according to each embodiment of the present invention described above, and the steps shown in FIGS. 4 and 11 are controlled by the
また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.
なお、本発明は、前述した各実施形態の機能を実現するソフトウェアのプログラム(実施形態では図4及び図11に示すフローチャートに対応したプログラム)を、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 In the present invention, a software program (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 4 and 11) for realizing the functions of the above-described embodiments is directly or remotely supplied to the system or apparatus. including. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let me. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
なお、前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 Note that each of the above-described embodiments is merely a specific example for carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. . That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
110−1 画像処理装置
210 画像取得部
220 画像処理部
221 層検出部
222 正常構造推定部
223 定量化部
230 記憶部
231 画像記憶部
232 データ記憶部
240 表示部
110-1
Claims (25)
前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する特徴箇所検出手段と、
前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める演算手段と、
前記検出された層と前記曲線との差異を定量化する定量化手段と、
を有することを特徴とする画像処理装置。 Layer detecting means for detecting a layer from a tomographic image of the fundus of the eye,
In the detected layer, a plurality of feature points including a deep portion located deeper than the threshold with respect to the depth direction of the fundus, a featured portion detection means for detecting on the basis of the shape of the detected layer ,
Based on the plurality of feature locations including the deep location, computing means for obtaining a convex curve in the depth direction of the fundus;
Quantification means for quantifying the difference between the detected layer and the curve;
An image processing apparatus comprising:
前記演算手段は、前記座標点群に2次関数をあてはめて、前記曲線を前記検出された層の正常構造として推定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The feature location detecting means detects a coordinate point group representing a boundary of the detected layer as the plurality of feature locations,
The image according to any one of claims 1 to 6, wherein the calculation means applies a quadratic function to the coordinate point group to estimate the curve as a normal structure of the detected layer. Processing equipment.
前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する工程と、
前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める工程と、
前記検出された層と前記曲線との差異を定量化する工程と、
を有することを特徴とする画像処理方法。 Detecting a layer from a tomographic image of the fundus of the eye,
In the detected layer, detecting a plurality of characteristic points including a deep part located deeper than a threshold with respect to the depth direction of the fundus based on the shape of the detected layer ;
Obtaining a convex curve in the depth direction of the fundus based on the plurality of feature points including the deep part; and
Quantifying the difference between the detected layer and the curve;
An image processing method comprising:
前記曲線を求める工程では、前記座標点群に2次関数をあてはめて、前記曲線を前記検出された層の正常構造として推定することを特徴とする請求項16乃至21のいずれか1項に記載の画像処理方法。 In the step of detecting the plurality of feature locations, a coordinate point group representing a boundary of the detected layer is detected as the plurality of feature locations,
The step of obtaining the curve includes applying a quadratic function to the coordinate point group to estimate the curve as a normal structure of the detected layer. Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012102702A JP5241937B2 (en) | 2012-04-27 | 2012-04-27 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012102702A JP5241937B2 (en) | 2012-04-27 | 2012-04-27 | Image processing apparatus and image processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009048514A Division JP5473358B2 (en) | 2009-03-02 | 2009-03-02 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012148141A JP2012148141A (en) | 2012-08-09 |
JP5241937B2 true JP5241937B2 (en) | 2013-07-17 |
Family
ID=46790979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012102702A Expired - Fee Related JP5241937B2 (en) | 2012-04-27 | 2012-04-27 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5241937B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016002380A (en) | 2014-06-18 | 2016-01-12 | キヤノン株式会社 | Image processing system, operation method for the same, and program |
CN115414033B (en) * | 2022-11-03 | 2023-02-24 | 京东方艺云(杭州)科技有限公司 | Method and device for determining abnormal eye using behavior of user |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006022045A1 (en) * | 2004-08-26 | 2006-03-02 | National University Corporation Nagoya University | Optical interference tomograph |
US7668342B2 (en) * | 2005-09-09 | 2010-02-23 | Carl Zeiss Meditec, Inc. | Method of bioimage data processing for revealing more meaningful anatomic features of diseased tissues |
JP4855150B2 (en) * | 2006-06-09 | 2012-01-18 | 株式会社トプコン | Fundus observation apparatus, ophthalmic image processing apparatus, and ophthalmic image processing program |
JP5095167B2 (en) * | 2006-09-19 | 2012-12-12 | 株式会社トプコン | Fundus observation apparatus, fundus image display apparatus, and fundus observation program |
JP5058627B2 (en) * | 2007-02-26 | 2012-10-24 | 株式会社トプコン | Fundus observation device |
JP4940069B2 (en) * | 2007-09-10 | 2012-05-30 | 国立大学法人 東京大学 | Fundus observation apparatus, fundus image processing apparatus, and program |
JP5101975B2 (en) * | 2007-10-04 | 2012-12-19 | 株式会社トプコン | Fundus observation apparatus and fundus image processing apparatus |
JP4810562B2 (en) * | 2008-10-17 | 2011-11-09 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2012
- 2012-04-27 JP JP2012102702A patent/JP5241937B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012148141A (en) | 2012-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5473358B2 (en) | Image processing apparatus, image processing method, and program | |
US9700210B2 (en) | Image processing apparatus and method for controlling the same | |
JP4909377B2 (en) | Image processing apparatus, control method therefor, and computer program | |
KR101318685B1 (en) | Image processing apparatus, control method thereof, image processing method, tomography system, and storage medium | |
JP6594033B2 (en) | Image processing apparatus, image processing method, and program | |
US9418423B2 (en) | Motion correction and normalization of features in optical coherence tomography | |
US9566002B2 (en) | Image processing apparatus, image processing method, and program | |
JP4850927B2 (en) | Image processing apparatus, image processing method, and computer program | |
KR101373935B1 (en) | Ophthalmic apparatus, control method of an ophthalmic apparatus and computer readable storage medium | |
JP5631339B2 (en) | Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program | |
JP2010094381A (en) | Image processor and image processing method | |
JP5478914B2 (en) | Image processing apparatus, image processing method, and program | |
JP5174232B2 (en) | Image processing method, image processing apparatus, tomographic imaging system, and computer program | |
JP5241937B2 (en) | Image processing apparatus and image processing method | |
JP5677502B2 (en) | Image processing apparatus and image processing method | |
JP5017486B2 (en) | Image processing apparatus and image processing method | |
JP6033478B2 (en) | Ophthalmic apparatus, layer thickness comparison method and program | |
JP5871890B2 (en) | Ophthalmic apparatus, layer thickness comparison method and program | |
JP5677492B2 (en) | Image processing apparatus and image processing method | |
JP5624532B2 (en) | Image processing apparatus, image processing method, ophthalmic system, and computer program | |
JP5236094B2 (en) | Image processing apparatus and image processing method | |
JP5017491B2 (en) | Ophthalmic equipment | |
JP6223527B2 (en) | Ophthalmic apparatus, layer thickness comparison method and program | |
JP6259391B2 (en) | Image analysis apparatus, image analysis system, control method and program for image analysis apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20120720 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20120808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130402 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5241937 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |