JP2013138963A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013138963A
JP2013138963A JP2013088518A JP2013088518A JP2013138963A JP 2013138963 A JP2013138963 A JP 2013138963A JP 2013088518 A JP2013088518 A JP 2013088518A JP 2013088518 A JP2013088518 A JP 2013088518A JP 2013138963 A JP2013138963 A JP 2013138963A
Authority
JP
Japan
Prior art keywords
layer
image processing
curve
image
tomographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013088518A
Other languages
Japanese (ja)
Other versions
JP5677502B2 (en
Inventor
Yoshihiko Iwase
好彦 岩瀬
Shinji Uchiyama
晋二 内山
Kiyohide Sato
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013088518A priority Critical patent/JP5677502B2/en
Publication of JP2013138963A publication Critical patent/JP2013138963A/en
Application granted granted Critical
Publication of JP5677502B2 publication Critical patent/JP5677502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for accurately estimating a normal structure of a layer constituting an object.SOLUTION: An image processing apparatus includes: a layer detection unit 221 for detecting a layer from a tomographic image of a fundus oculi of a subject's eye; and in a detected layer by the layer detection unit 221, a normal structure estimation unit 222 for detecting a plurality of characteristic points including deep points positioned in a deep part than the threshold to the depth direction of the fundus oculi based on the shape of the layer detected by the layer detection unit 221, and obtaining a convex curve in the depth direction of the fundus oculi based on the plurality of characteristic points including the deep points.

Description

本発明は、被写体の断層画像の処理を行う画像処理装置及び画像処理方法、画像処理装置の各手段としてコンピュータを機能させるためのプログラム及び画像処理方法の各工程をコンピュータに実行させるためのプログラム、並びに、画像処理装置と断層画像撮像装置とが通信可能に接続された画像処理システムに関するものである。   The present invention relates to an image processing device and an image processing method for processing a tomographic image of a subject, a program for causing a computer to function as each means of the image processing device, and a program for causing a computer to execute each step of the image processing method. In addition, the present invention relates to an image processing system in which an image processing apparatus and a tomographic imaging apparatus are connected so as to communicate with each other.

生活習慣病や失明原因の上位を占める各種疾病の早期診断を目的として、従来、被写体として眼部の撮影による検査が広く行われている。例えば光干渉断層計(Optical Coherence Tomography:以下「OCT」と称する)などを用いた眼部の断層画像取得装置は、眼部の網膜層内部の状態を3次元的に観察することが可能である。このため、この断層画像取得装置は、疾病の診断をより的確に行うために有用であると期待されている。   For the purpose of early diagnosis of various diseases occupying the top causes of lifestyle-related diseases and blindness, examinations by photographing the eye as a subject have been widely performed. For example, an tomographic image acquisition device for an eye using an optical coherence tomography (hereinafter referred to as “OCT”) or the like can three-dimensionally observe the state inside the retinal layer of the eye. . For this reason, this tomographic image acquisition apparatus is expected to be useful for more accurately diagnosing diseases.

OCTを用いて得られた眼部の断層像(断層画像)において、眼部における神経線維層などの網膜の各層の厚みや網膜層全体の厚みを計測できれば、緑内障、加齢黄斑変性、黄斑浮腫などの疾病の進行度や治療後の回復具合を定量的に診断することが可能となる。従来、これらの層の厚みを計測するためには、3次元的に撮像される断層画像から注目断面を切り出した2次元断層画像(B−scan画像)上において、医師や技師が手動で網膜の各層の境界を指定する必要があった。また、層の厚みの3次元的な分布を得るためには、3次元断層画像を幾つかの2次元断層画像の集合と捉えて、それぞれの2次元断層画像上において注目する層の境界を指定する必要があった。   If the thickness of each layer of the retina such as the nerve fiber layer in the eye or the thickness of the entire retinal layer can be measured in the tomogram (tomographic image) of the eye obtained using OCT, glaucoma, age-related macular degeneration, macular edema Thus, it is possible to quantitatively diagnose the degree of progression of such diseases and the degree of recovery after treatment. Conventionally, in order to measure the thickness of these layers, a doctor or an engineer manually operates a retina on a two-dimensional tomographic image (B-scan image) obtained by cutting a cross section of interest from a tomographic image that is three-dimensionally imaged. It was necessary to specify the boundary of each layer. In addition, in order to obtain a three-dimensional distribution of layer thickness, the three-dimensional tomographic image is regarded as a set of several two-dimensional tomographic images, and the boundary of the layer of interest is specified on each two-dimensional tomographic image. There was a need to do.

しかしながら、層の境界を手動で指定する作業は、医師や技師の作業者にとって負担の掛かるものであった。また、層の境界を手動で指定する作業は、その作業者や作業日時の相違に起因するばらつきが発生するため、期待する精度で定量化を行うことが難しかった。この作業者の負担や作業におけるばらつきの軽減を目的として、コンピュータが断層画像から網膜の各層の境界を検出して、各層の厚みを計測する技術が提案されている(例えば、下記の特許文献1及び特許文献2参照)。   However, the task of manually specifying the layer boundaries is a burden for doctors and engineers. In addition, it is difficult to manually quantify the layer boundaries because it causes variations due to differences in the workers and work dates and times. For the purpose of reducing the burden on workers and variations in work, a technique has been proposed in which a computer detects the boundary of each layer of the retina from a tomographic image and measures the thickness of each layer (for example, Patent Document 1 below). And Patent Document 2).

特開2008−73099号公報JP 2008-73099 A 特開2007−325831号公報JP 2007-325831 A

ここで、加齢黄斑変性のような疾病においては、病状に応じて網膜色素上皮層の形状が凹凸に変形する。そのため、その変形の度合いを定量化することが病状の把握に有効である。このとき、疾病になる前の正常時であれば網膜色素上皮層が存在したであろう境界の位置を、正常構造として推定することが求められる。従来、この作業も医師や技師の手作業によって行われることが多く、その負担やその結果のばらつきが課題となっている。そのため、断層画像からの網膜色素上皮層境界の検出と、その正常構造の推定を自動化することが求められている。
しかしながら、断層画像上の画像特徴としては観測できないので、特許文献1や特許文献2の技術では、その正常構造を推定することができない。
Here, in diseases such as age-related macular degeneration, the shape of the retinal pigment epithelium layer is deformed into irregularities according to the disease state. Therefore, quantifying the degree of deformation is effective for understanding the medical condition. At this time, it is required to estimate the position of the boundary where the retinal pigment epithelium layer would have existed at the normal time before illness as a normal structure. Conventionally, this operation is often performed manually by a doctor or engineer, and the burden and variations in the results have been problems. Therefore, it is required to automate the detection of the retinal pigment epithelium layer boundary from the tomographic image and the estimation of its normal structure.
However, since the image feature on the tomographic image cannot be observed, the normal structure cannot be estimated by the techniques of Patent Document 1 and Patent Document 2.

本発明は、このような問題点に鑑みてなされたものであり、被写体を構成する層の正常構造を精度良く推定する仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism for accurately estimating the normal structure of layers constituting a subject.

本発明の画像処理装置は、眼部の眼底の断層画像から層を検出する層検出手段と、前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する特徴箇所検出手段と、前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める演算手段と、を有する。   The image processing apparatus according to the present invention includes a layer detection unit that detects a layer from a tomographic image of the fundus of the eye, and a deep portion that is located deeper than a threshold in the depth direction of the fundus in the detected layer. A feature point detecting means for detecting a plurality of feature points including the detected layer shape, and a curve convex in the depth direction of the fundus based on the plurality of feature points including the deep part. And calculating means for obtaining.

本発明の画像処理方法は、眼部の眼底の断層画像から層を検出する工程と、前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する工程と、前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める工程と、を有する。   The image processing method of the present invention includes a step of detecting a layer from a tomographic image of the fundus of the eye, and the detected layer includes a deep portion located deeper than a threshold in the depth direction of the fundus. Detecting a plurality of feature points based on the shape of the detected layer; obtaining a convex curve in the depth direction of the fundus based on the plurality of feature points including the deep portion; and Have

本発明の画像処理システムは、前記画像処理装置と、前記断層画像を撮像する断層画像撮像装置とが通信可能に接続された画像処理システムであって、前記層検出手段は、前記断層画像撮像装置が出力した前記断層画像から前記層を検出する。
本発明のプログラムは、前記画像処理装置の各手段としてコンピュータを機能させるためのものである。
本発明のプログラムにおける他の態様は、前記画像処理方法の各工程をコンピュータに実行させるためのものである。
The image processing system of the present invention is an image processing system in which the image processing apparatus and a tomographic image capturing apparatus that captures the tomographic image are communicably connected, and the layer detection unit includes the tomographic image capturing apparatus. The layer is detected from the tomographic image output by.
The program of the present invention is for causing a computer to function as each means of the image processing apparatus.
Another aspect of the program of the present invention is for causing a computer to execute each step of the image processing method.

本発明によれば、被写体を構成する層の正常構造を精度良く推定することができる。これにより、被写体における疾病の進行度や治療後の回復具合等を定量化することが可能となる。   According to the present invention, it is possible to accurately estimate the normal structure of the layers constituting the subject. This makes it possible to quantify the degree of disease progression in the subject, the degree of recovery after treatment, and the like.

本発明の第1の実施形態に係る画像処理システムの概略構成(ハードウェア構成)の一例を示す模式図である。1 is a schematic diagram illustrating an example of a schematic configuration (hardware configuration) of an image processing system according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置の機能構成の一例を示す模式図である。It is a schematic diagram which shows an example of a function structure of the image processing apparatus which concerns on the 1st Embodiment of this invention. 図2に示す画像処理部に入力される断層画像の一例を示す模式図である。It is a schematic diagram which shows an example of the tomographic image input into the image process part shown in FIG. 本発明の第1の実施形態に係る画像処理装置の制御方法の処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing procedure of a control method of the image processing apparatus according to the first embodiment of the present invention. 本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定を説明するための模式図である。It is a schematic diagram for explaining the estimation of the normal structure of the layer included in the tomographic image, showing the first embodiment of the present invention. 本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定する際に利用する重み関数の一例を示す模式図である。It is a schematic diagram which shows the 1st Embodiment of this invention and shows an example of the weight function utilized when estimating the normal structure of the layer contained in a tomographic image. 本発明の第1の実施形態を示し、断層画像の平面化処理を説明するための模式図である。FIG. 5 is a schematic diagram for explaining planarization processing of a tomographic image according to the first embodiment of this invention. 本発明の第1の実施形態を示し、図1に示す画像処理装置によって得られた画像処理結果の表示例を示す模式図である。FIG. 3 is a schematic diagram illustrating a display example of an image processing result obtained by the image processing apparatus illustrated in FIG. 1 according to the first embodiment of this invention. 本発明の第2の実施形態に係る画像処理システムの概略構成(ハードウェア構成)の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure (hardware structure) of the image processing system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の機能構成の一例を示す模式図である。It is a schematic diagram which shows an example of a function structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の制御方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the control method of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態を示し、断層画像に含まれる層の境界の表示例を示す模式図である。It is a schematic diagram which shows the 2nd Embodiment of this invention and shows the example of a display of the boundary of the layer contained in a tomographic image. 本発明の第3の実施形態を示し、断層画像に含まれる層の正常構造の推定を説明するための模式図である。FIG. 10 is a schematic diagram for illustrating estimation of a normal structure of a layer included in a tomographic image according to a third embodiment of the present invention. 一般的な網膜の層構造の一例を示す模式図である。It is a schematic diagram which shows an example of the layer structure of a general retina.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に示す実施形態は、一例に過ぎず、本発明は、図示された構成等に限定されるものではない。また、以下の本明細書においては、網膜色素上皮層と、その上部或いは下部の層との境界を、「網膜色素上皮層境界」、または、単に「層境界」と称する。また、疾病になる前の正常時であれば同層境界が存在したであろう境界の推定位置を、「網膜色素上皮層境界の正常構造」、または、単に「正常構造」と称する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The embodiment described below is only an example, and the present invention is not limited to the illustrated configuration. In the following description, the boundary between the retinal pigment epithelium layer and the upper or lower layer is referred to as “retinal pigment epithelium layer boundary” or simply “layer boundary”. In addition, the estimated position of the boundary where the same layer boundary would exist if it was normal before illness is referred to as “normal structure of the retinal pigment epithelium layer boundary” or simply “normal structure”.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理システム100の概略構成(ハードウェア構成)の一例を示す模式図である。
(First embodiment)
First, a first embodiment of the present invention will be described.
FIG. 1 is a schematic diagram illustrating an example of a schematic configuration (hardware configuration) of an image processing system 100 according to the first embodiment of the present invention.

図1に示すように、本実施形態に係る画像処理システム100は、画像処理装置110と、断層画像撮像装置120と、ローカルエリアネットワーク(LAN)130を有して構成されている。ここで、以下の説明においては、図1に示す画像処理装置110を、「画像処理装置110−1」とする。即ち、図1に示す画像処理システム100は、画像処理装置110−1が、LAN130を介して、断層画像撮像装置120に接続される構成となっている。   As shown in FIG. 1, the image processing system 100 according to the present embodiment includes an image processing device 110, a tomographic image capturing device 120, and a local area network (LAN) 130. Here, in the following description, the image processing apparatus 110 illustrated in FIG. 1 is referred to as “image processing apparatus 110-1”. That is, the image processing system 100 illustrated in FIG. 1 is configured such that the image processing apparatus 110-1 is connected to the tomographic image capturing apparatus 120 via the LAN 130.

本実施形態に係る画像処理装置110−1は、例えば、断層画像撮像装置120で撮像された被写体(本例では眼部)の断層画像から、眼部を構成する網膜色素上皮層境界などの層境界を検出する。そして、画像処理装置110−1は、例えば、加齢黄斑変性等の疾病によって層の形状が凹凸に変形するという特徴に基づいて、当該網膜色素上皮層等の正常構造を推定し、疾病の定量化を行うものである。なお、本実施形態では、被写体の一例として、眼部を適用する例を示すが、本発明においては、これに限定されるものではなく、断層画像として撮像対象になるものであれば適用可能である。   The image processing apparatus 110-1 according to the present embodiment, for example, a layer such as a retinal pigment epithelium layer boundary that constitutes an eye part from a tomographic image of a subject (eye part in this example) imaged by the tomographic image imaging apparatus 120. Detect boundaries. Then, the image processing apparatus 110-1 estimates the normal structure of the retinal pigment epithelium layer and the like based on the feature that the shape of the layer is deformed into irregularities due to a disease such as age-related macular degeneration, and quantifies the disease. It is a thing to do. In this embodiment, an example in which the eye part is applied as an example of the subject is shown. However, the present invention is not limited to this, and can be applied as long as it is an imaging target as a tomographic image. is there.

この画像処理装置110−1は、図1に示すように、中央処理装置(CPU)111、主メモリ112、磁気ディスク113、表示メモリ114、モニタ115、マウス116、キーボード117、及び、共通バス118を有して構成されている。また、磁気ディスク113の内部には、制御プログラム1131が格納されている。   As shown in FIG. 1, the image processing apparatus 110-1 includes a central processing unit (CPU) 111, a main memory 112, a magnetic disk 113, a display memory 114, a monitor 115, a mouse 116, a keyboard 117, and a common bus 118. It is comprised. A control program 1131 is stored inside the magnetic disk 113.

CPU111は、主として、画像処理装置110−1の各構成要素の動作を制御して、画像処理装置110−1の動作を統括的に制御する。   The CPU 111 mainly controls the operation of each component of the image processing apparatus 110-1 and controls the operation of the image processing apparatus 110-1 in an integrated manner.

主メモリ112は、例えばCPU111が処理の実行に際して磁気ディスク113からロードした制御プログラム1131を格納したり、CPU111による制御プログラム1131の実行時の作業領域となったりする。   The main memory 112 stores, for example, a control program 1131 loaded from the magnetic disk 113 when the CPU 111 executes processing, or serves as a work area when the control program 1131 is executed by the CPU 111.

磁気ディスク113は、オペレーティングシステム(OS)や、周辺機器のデバイスドライバ、制御プログラム1131等を記憶(格納)する。また、磁気ディスク113には、必要に応じて、CPU111が制御プログラム1131を用いた処理を行う際に必要な各種の情報やデータ、更には、CPU111による制御プログラム1131を用いた処理によって得られた各種の情報やデータが記憶される。ここで、CPU111は、磁気ディスク113に格納されている制御プログラム1131を実行することにより、画像処理装置110−1で行う各種の動作を統括的に制御する。   The magnetic disk 113 stores (stores) an operating system (OS), device drivers for peripheral devices, a control program 1131, and the like. In addition, the magnetic disk 113 is obtained by performing various types of information and data necessary for the CPU 111 to perform processing using the control program 1131 as well as processing by the CPU 111 using the control program 1131 as necessary. Various information and data are stored. Here, the CPU 111 comprehensively controls various operations performed by the image processing apparatus 110-1 by executing a control program 1131 stored in the magnetic disk 113.

表示メモリ114は、モニタ115に表示するための表示用データを一時記憶する。   The display memory 114 temporarily stores display data to be displayed on the monitor 115.

モニタ115は、例えばCRTモニタや液晶モニタ等で構成されており、CPU111の制御に従って、表示メモリ114の表示用データに基づく画像等を表示する。   The monitor 115 is composed of, for example, a CRT monitor or a liquid crystal monitor, and displays an image based on display data in the display memory 114 under the control of the CPU 111.

マウス116及びキーボード117は、それぞれ、ユーザによるポインティング入力及び文字等の入力を行うためのものである。   A mouse 116 and a keyboard 117 are used for a pointing input and a character input by the user, respectively.

共通バス118は、画像処理装置110−1の内部の各構成要素を相互に通信可能に接続するとともに、当該画像処理装置110−1の内部構成要素とLAN130及び断層画像撮像装置120とを通信可能に接続する。   The common bus 118 connects the internal components of the image processing apparatus 110-1 so that they can communicate with each other, and can communicate the internal components of the image processing apparatus 110-1 with the LAN 130 and the tomographic image capturing apparatus 120. Connect to.

断層画像撮像装置120は、例えば眼部等の断層画像を撮像する装置であり、例えば、タイムドメイン方式のOCTやフーリエドメイン方式のOCTを備えて構成されている。断層画像撮像装置120は、ユーザ(技師や医師)による操作に応じて、不図示の被検者(患者)の眼部等の断層画像を3次元的に撮像する。そして、断層画像撮像装置120は、得られた断層画像を画像処理装置110−1へ出力する。   The tomographic image capturing apparatus 120 is an apparatus that captures a tomographic image of, for example, an eye part, and includes, for example, a time domain OCT or a Fourier domain OCT. The tomographic image capturing apparatus 120 three-dimensionally captures a tomographic image of an eye part or the like of a subject (patient) (not shown) according to an operation by a user (engineer or doctor). Then, the tomographic imaging device 120 outputs the obtained tomographic image to the image processing device 110-1.

LAN130は、必要に応じて、画像処理装置110−1と、断層画像撮像装置120とを通信可能に接続するものである。このLAN130は、例えば、イーサネット(登録商標)等で構成されている。なお、画像処理装置110−1と断層画像撮像装置120との接続は、LAN130によらずに、例えば、USBやIEEE1394等のインターフェイスを介して直接接続する形態であってもよい。   The LAN 130 connects the image processing apparatus 110-1 and the tomographic imaging apparatus 120 so that they can communicate with each other as necessary. The LAN 130 is configured by, for example, Ethernet (registered trademark). Note that the image processing apparatus 110-1 and the tomographic imaging apparatus 120 may be connected directly via an interface such as USB or IEEE 1394, for example, without using the LAN 130.

次に、図1に示す画像処理装置110−1の機能構成について説明を行う。
図2は、本発明の第1の実施形態に係る画像処理装置110−1の機能構成の一例を示す模式図である。
Next, the functional configuration of the image processing apparatus 110-1 shown in FIG. 1 will be described.
FIG. 2 is a schematic diagram illustrating an example of a functional configuration of the image processing apparatus 110-1 according to the first embodiment of the present invention.

図2に示すように、画像処理装置110−1は、画像取得部210、画像処理部220、記憶部230、及び、表示部240の各機能構成を有して構成されている。   As shown in FIG. 2, the image processing apparatus 110-1 is configured to have each functional configuration of an image acquisition unit 210, an image processing unit 220, a storage unit 230, and a display unit 240.

ここで、本実施形態においては、例えば、図1に示すCPU111が磁気ディスク113に記憶されている制御プログラム1131を実行することにより、図2に示す画像取得部210及び画像処理部220が構成される。また、例えば、図1に示すCPU111及び制御プログラム1131、並びに、主メモリ112、磁気ディスク113、或いは、表示メモリ114から、図2に示す記憶部230が構成される。さらに、例えば、図1に示す図1に示すCPU111及び制御プログラム1131、並びに、モニタ115から、表示部240が構成される。   In this embodiment, for example, the CPU 111 shown in FIG. 1 executes the control program 1131 stored in the magnetic disk 113, whereby the image acquisition unit 210 and the image processing unit 220 shown in FIG. 2 are configured. The Further, for example, the CPU 111 and the control program 1131 shown in FIG. 1 and the main memory 112, the magnetic disk 113, or the display memory 114 constitute the storage unit 230 shown in FIG. Further, for example, the display unit 240 includes the CPU 111 and the control program 1131 shown in FIG. 1 and the monitor 115 shown in FIG.

画像取得部210は、断層画像撮像装置120に対して被写体である眼部の断層画像の送信を要求し、断層画像撮像装置120から送信される眼部の断層画像を受信して取得する処理を行う。そして、画像取得部210は、取得した断層画像を画像処理部220及び記憶部230に送る。   The image acquisition unit 210 requests the tomographic image capturing apparatus 120 to transmit a tomographic image of the eye that is a subject, and receives and acquires the tomographic image of the eye transmitted from the tomographic image capturing apparatus 120. Do. Then, the image acquisition unit 210 sends the acquired tomographic image to the image processing unit 220 and the storage unit 230.

画像処理部220は、画像取得部210から送られた断層画像の処理を行うものであり、図2に示すように、層検出部221、正常構造推定部222、及び、定量化部223を有して構成されている。ここで、図3を用いて、画像処理部220で行う画像処理について説明を行う。   The image processing unit 220 performs processing of the tomographic image sent from the image acquisition unit 210, and includes a layer detection unit 221, a normal structure estimation unit 222, and a quantification unit 223 as shown in FIG. Configured. Here, the image processing performed by the image processing unit 220 will be described with reference to FIG.

図3は、図2に示す画像処理部220に入力される断層画像の一例を示す模式図である。具体的に、図3には、眼部における網膜の層構造の一例が示されている。なお、以下の説明では、眼底の深度方向をz座標の正方向と定義し、z座標と直交する方向にxy平面を定義する。   FIG. 3 is a schematic diagram illustrating an example of a tomographic image input to the image processing unit 220 illustrated in FIG. Specifically, FIG. 3 shows an example of the layer structure of the retina in the eye. In the following description, the depth direction of the fundus is defined as the positive direction of the z coordinate, and the xy plane is defined in the direction orthogonal to the z coordinate.

層検出部221は、入力された断層画像から、眼部を構成する、内境界膜の層境界(図3のB1)と、網膜色素上皮層境界(図3のB21)をそれぞれ検出する。この層検出部221が行う具体的な処理の内容については、後述する。   The layer detection unit 221 detects the layer boundary (B1 in FIG. 3) and the retinal pigment epithelial layer boundary (B21 in FIG. 3) constituting the eye part from the input tomographic image. Details of specific processing performed by the layer detection unit 221 will be described later.

正常構造推定部222は、層検出部221で検出された網膜色素上皮層境界(図3のB21)と、当該網膜色素上皮層の病変によって変形する特徴とに基づいて、その正常構造(図3のB22)を推定する処理を行う。なお、図3では、層検出部221が検出した層の境界(B1及びB21)は実線で示し、正常構造推定部222が推定した層の境界(B21)は点線で示している。この正常構造推定部222が行う具体的な処理の内容については、後述する。   Based on the retinal pigment epithelium layer boundary (B21 in FIG. 3) detected by the layer detection unit 221 and the feature deformed by the lesion of the retinal pigment epithelium layer, the normal structure estimation unit 222 has a normal structure (FIG. 3). B22) is estimated. In FIG. 3, the layer boundaries (B1 and B21) detected by the layer detection unit 221 are indicated by solid lines, and the layer boundaries (B21) estimated by the normal structure estimation unit 222 are indicated by dotted lines. Details of specific processing performed by the normal structure estimation unit 222 will be described later.

定量化部223は、層検出部221による検出結果から、層L1の層厚T1、その面積及び体積を算出する処理を行う。また、定量化部223は、層検出部221で検出された網膜色素上皮層境界(図3のB21)と、正常構造推定部222で推定されたその正常構造(図3のB22)に基づいて、当該網膜色素上皮層の状態(具体的には、当該網膜色素上皮層の乱れ)を定量化する。この定量化部223が行う具体的な処理の内容については、後述する。   The quantification unit 223 performs a process of calculating the layer thickness T1, the area, and the volume of the layer L1 from the detection result by the layer detection unit 221. Further, the quantification unit 223 is based on the retinal pigment epithelium layer boundary (B21 in FIG. 3) detected by the layer detection unit 221 and the normal structure (B22 in FIG. 3) estimated by the normal structure estimation unit 222. The state of the retinal pigment epithelium layer (specifically, the disturbance of the retinal pigment epithelium layer) is quantified. Details of specific processing performed by the quantification unit 223 will be described later.

次に、図2の記憶部230について説明する。
記憶部230は、図2に示すように、画像記憶部231と、データ記憶部232を有して構成されている。
Next, the storage unit 230 in FIG. 2 will be described.
As illustrated in FIG. 2, the storage unit 230 includes an image storage unit 231 and a data storage unit 232.

画像記憶部231は、画像取得部210で取得した断層画像(更には必要に応じて画像処理部220で画像処理した断層画像)等を記憶する。   The image storage unit 231 stores a tomographic image acquired by the image acquisition unit 210 (and a tomographic image processed by the image processing unit 220 as necessary).

データ記憶部232は、画像処理部220で利用する関数やパラメータのデータを記憶している。具体的に、データ記憶部232は、正常構造推定部222が網膜色素上皮層の正常構造を推定する際に利用する関数や、層検出部221が断層画像から層の境界を求める際に利用する各種のパラメータのデータなどを記憶している。   The data storage unit 232 stores function and parameter data used by the image processing unit 220. Specifically, the data storage unit 232 is used when the normal structure estimation unit 222 estimates the normal structure of the retinal pigment epithelium layer, and when the layer detection unit 221 obtains the layer boundary from the tomographic image. Various parameter data are stored.

さらに、データ記憶部232は、画像記憶部231に記憶されている各種の断層画像と、画像処理部220で処理した各種の処理結果の情報を関連付けて、これを患者データとして保存する。本例では、記憶部230は、例えば磁気ディスク113等を含み構成されるため、磁気ディスク113等に、各種の断層画像と、画像処理部220で処理した各種の処理結果の情報とが関連付けられて、記憶される。   Further, the data storage unit 232 associates various tomographic images stored in the image storage unit 231 with information on various processing results processed by the image processing unit 220, and stores this as patient data. In this example, since the storage unit 230 includes, for example, the magnetic disk 113 and the like, various tomographic images and various processing result information processed by the image processing unit 220 are associated with the magnetic disk 113 and the like. And memorized.

具体的に、記憶部230は、画像取得部210で取得した断層画像データ、層検出部221で検出した層の境界データ、正常構造推定部222で推定した正常構造データ、定量化部223で定量化した数値データを関連付けて保存する。また、記憶部230(データ記憶部232)に保存されている各種のデータは、LAN130により接続された不図示の外部サーバに保存してもよく、この場合、記憶部230に保存されている各種のデータは、当該外部サーバへと送信される。   Specifically, the storage unit 230 includes tomographic image data acquired by the image acquisition unit 210, layer boundary data detected by the layer detection unit 221, normal structure data estimated by the normal structure estimation unit 222, and quantification by the quantification unit 223. Associate numerical data and save it. Various data stored in the storage unit 230 (data storage unit 232) may be stored in an external server (not shown) connected by the LAN 130. In this case, various types of data stored in the storage unit 230 are stored. Is transmitted to the external server.

次に、表示部240について説明する。
表示部240は、画像取得部210により得られた断層画像、層検出部221や正常構造推定部222により得られた層の境界や、定量化部223により定量化された各種の定量結果を表示する。
Next, the display unit 240 will be described.
The display unit 240 displays the tomographic image obtained by the image acquisition unit 210, the layer boundaries obtained by the layer detection unit 221 and the normal structure estimation unit 222, and various quantification results quantified by the quantification unit 223. To do.

次に、図4を参照して、本実施形態の画像処理装置110−1により実行される、具体的な処理手順を説明する。
図4は、本発明の第1の実施形態に係る画像処理装置110−1の制御方法の処理手順の一例を示すフローチャートである。
Next, a specific processing procedure executed by the image processing apparatus 110-1 according to the present embodiment will be described with reference to FIG.
FIG. 4 is a flowchart illustrating an example of a processing procedure of the control method of the image processing apparatus 110-1 according to the first embodiment of the present invention.

<ステップS101>
まず、ステップS101において、画像取得部210は、断層画像撮像装置120に対して、被写体である眼部の断層画像の送信を要求し、断層画像撮像装置120から送信される眼部の断層画像を取得する。そして、画像取得部210は、断層画像撮像装置120から取得した断層画像を、画像処理部220及び記憶部230(画像記憶部231)に入力する。
<Step S101>
First, in step S <b> 101, the image acquisition unit 210 requests the tomographic imaging apparatus 120 to transmit a tomographic image of the eye that is the subject, and obtains the tomographic image of the eye that is transmitted from the tomographic imaging apparatus 120. get. Then, the image acquisition unit 210 inputs the tomographic image acquired from the tomographic imaging apparatus 120 to the image processing unit 220 and the storage unit 230 (image storage unit 231).

<ステップS102>
続いて、ステップS102において、層検出部221は、ステップS101で取得された断層画像から、被写体である眼部を構成する所定の層の境界を検出する処理を行う。
<Step S102>
Subsequently, in step S102, the layer detection unit 221 performs a process of detecting a boundary of a predetermined layer constituting the eye part that is the subject from the tomographic image acquired in step S101.

以下、層検出部221による層の境界検出の具体的な処理方法を説明する。
本例では、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して以下に示す2次元画像処理を実行する。
Hereinafter, a specific processing method of layer boundary detection by the layer detection unit 221 will be described.
In this example, the input 3D tomographic image is considered as a set of 2D tomographic images (B-scan images), and the following 2D image processing is executed on each 2D tomographic image.

まず、層検出部221は、注目する2次元断層画像に対して平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、層検出部221は、エッジ検出フィルタ処理を行い、断層画像からエッジ成分を検出し、層の境界に相当するエッジを各層において抽出する。例えば、層検出部221は、硝子体側から眼底の深度方向にエッジを探索し、最初のピーク位置を硝子体と網膜層との境界とする。さらに、例えば、層検出部221は、眼底の深度方向にエッジを探索し、最後のピーク位置を網膜色素上皮層境界とする。以上の処理によって、層の境界を検出することができる。   First, the layer detection unit 221 performs a smoothing filter process on the focused two-dimensional tomographic image to remove noise components. Then, the layer detection unit 221 performs edge detection filter processing, detects an edge component from the tomographic image, and extracts an edge corresponding to a layer boundary in each layer. For example, the layer detection unit 221 searches for an edge in the depth direction of the fundus from the vitreous body side, and sets the first peak position as the boundary between the vitreous body and the retinal layer. Further, for example, the layer detection unit 221 searches for an edge in the depth direction of the fundus and sets the last peak position as the retinal pigment epithelium layer boundary. Through the above processing, the layer boundary can be detected.

他に、層の境界検出方法として、Snakesやレベルセット法のような動的輪郭法を適用して検出してもよい。ここで、レベルセット法の場合、検出対象の領域の次元よりも一次元高いレベルセット関数を定義し、検出したい層の境界をそのゼロ等高線であるとみなす。そして、レベルセット関数を更新することで輪郭を制御し、これにより、層の境界を検出することができる。   In addition, the layer boundary detection method may be detected by applying a dynamic contour method such as Snakes or level set method. Here, in the case of the level set method, a level set function that is one dimension higher than the dimension of the region to be detected is defined, and the boundary of the layer to be detected is regarded as the zero contour line. Then, the contour is controlled by updating the level set function, and thereby the boundary of the layer can be detected.

その他に、層の境界検出方法として、GraphCutのようなグラフ理論を用いて層の境界を検出してもよい。この場合、画像の各ピクセルに対応したノードと、sinkとsourceと呼ばれるターミナルを設定し、ノード間を結ぶエッジ(n―link)と、ターミナル間を結ぶエッジ(t−link)を設定する。そして、これらのエッジに対して重みを与えて、作成したグラフに対して、最小カットを求めることにより、層の境界を検出することができる。   In addition, as a layer boundary detection method, a layer boundary may be detected using graph theory such as GraphCut. In this case, a node corresponding to each pixel of the image and a terminal called sink and source are set, and an edge (n-link) connecting the nodes and an edge (t-link) connecting the terminals are set. Then, the layer boundaries can be detected by giving weights to these edges and obtaining the minimum cut for the created graph.

なお、動的輪郭法やGraphCutを用いた境界検出法は、3次元断層画像を対象として3次元的に行ってもよいし、入力した3次元断層画像を2次元断層画像の集合と考え、それぞれの2次元断層画像に対して2次元的に適用してもよい。また、層の境界を検出するために、画像特徴量のみだけではなく、確率アトラスや統計アトラスのように事前知識を利用して検出するようにしてもよい。なお、層の境界を検出する方法は、これらの方法に限定されるものではなく、眼部の断層画像から層の境界を検出可能な方法であれば、いずれの方法を用いてもよい。   The boundary detection method using the dynamic contour method or GraphCut may be performed three-dimensionally for a three-dimensional tomographic image, or the input three-dimensional tomographic image is considered as a set of two-dimensional tomographic images, The two-dimensional tomographic image may be applied two-dimensionally. Further, in order to detect the layer boundary, not only the image feature amount but also a priori knowledge such as a probability atlas or a statistical atlas may be used for detection. The method for detecting the layer boundary is not limited to these methods, and any method may be used as long as the layer boundary can be detected from the tomographic image of the eye.

<ステップS103>
続いて、ステップS103において、正常構造推定部222は、ステップS102で検出された所定の層の境界(本例では、網膜色素上皮層境界)と、当該層の病変によって変形する特徴とに基づいて、その正常構造を推定する処理を行う。
<Step S103>
Subsequently, in step S103, the normal structure estimation unit 222 is based on the boundary of the predetermined layer (in this example, the retinal pigment epithelium layer boundary) detected in step S102 and the feature deformed by the lesion of the layer. The process of estimating the normal structure is performed.

以下、正常構造推定部222による網膜色素上皮層の正常構造を推定する具体的な処理方法について、図5を用いて説明する。
図5は、本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定を説明するための模式図である。
Hereinafter, a specific processing method for estimating the normal structure of the retinal pigment epithelium layer by the normal structure estimation unit 222 will be described with reference to FIG.
FIG. 5 is a schematic diagram for explaining the estimation of the normal structure of the layer included in the tomographic image according to the first embodiment of the present invention.

図5に示す断層画像には、図3と同様に、層L1、層境界B1、層境界B21と推定した層境界B22が示されている。また、図5中の符号d1及びd2は、それぞれ、層境界B21の座標(x1、z1)、(x2、z2)と、推定した層境界B22の座標(x1、z1')、(x2、z2')との差異を示している。図5において、座標x1では、検出した層境界B21は、推定した層境界B22よりも網膜色素上皮層の深部に位置し、座標x2では、検出した層境界B21は、推定した層境界B22よりも網膜色素上皮層の表面部に位置している。 The tomographic image shown in FIG. 5 shows the layer boundary B22 estimated as the layer L1, the layer boundary B1, and the layer boundary B21, as in FIG. Further, reference numerals d1 and d2 in FIG. 5 denote coordinates (x 1 , z 1 ) and (x 2 , z 2 ) of the layer boundary B21 and estimated coordinates (x 1 , z 1 ′) of the layer boundary B22, respectively. ), (X 2 , z 2 ′). 5, the coordinates x 1, layer boundary B21 was detected, located deep in the retinal pigment epithelium layer than the layer boundary B22 estimated, the coordinates x 2, the layer boundary B21 detected, the layer boundary estimated B22 Rather than the retinal pigment epithelium layer.

正常構造推定部222による正常構造の推定は、検出外れ値を除き、層検出部221の検出結果である層境界B21が正常構造B22の下に出ることがないように行う。これは、加齢黄斑変性による網膜色素上皮層の変形は、その下部に発生した新生血管によって生じるものであり、変形した層境界の位置は、正常時の上側に位置するという知見に基づいている。   The normal structure estimation by the normal structure estimation unit 222 is performed so that the layer boundary B21, which is the detection result of the layer detection unit 221, does not go below the normal structure B22 except for the detection outlier. This is based on the knowledge that the deformation of the retinal pigment epithelium layer due to age-related macular degeneration is caused by the neovascularization that occurs in the lower part of the layer, and the position of the deformed layer boundary is located above normal .

ここで、正常構造の推定を行う具体的方法として、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して正常構造の推定を行う場合について説明する。また、ここで用いる手法は、注目する2次元断層画像内で検出されている層境界を表す座標点群に2次関数をあてはめて、正常構造を推定するというものである。この場合、正常構造は、それぞれの2次元断層画像内において、2次曲線を表す関数で近似される。   Here, as a specific method for estimating the normal structure, the input three-dimensional tomographic image is considered as a set of two-dimensional tomographic images (B-scan images), and the normal structure is estimated for each two-dimensional tomographic image. The case where it performs is demonstrated. The technique used here is to estimate a normal structure by applying a quadratic function to a coordinate point group representing a layer boundary detected in a focused two-dimensional tomographic image. In this case, the normal structure is approximated by a function representing a quadratic curve in each two-dimensional tomographic image.

この手法の要点は、検出された座標点群に関数のあてはめを行う際に、点群と関数との差異の距離に応じた重みを与えるだけではなく、差異の符号に応じて使用する重みを変更することにある。例えば、正常構造推定部222は、以下の(1)式に基づいて、使用する重み関数の選択を行う。   The main point of this method is not only to give a weight according to the distance of the difference between the point group and the function, but also to assign a weight to be used according to the sign of the difference when fitting the function to the detected coordinate point group. It is to change. For example, the normal structure estimation unit 222 selects a weight function to be used based on the following equation (1).

Figure 2013138963
Figure 2013138963

ここで、(1)式において、ziは座標xiにおいて検出した層境界のz座標、zi'は座標xiにおける推定した正常構造のz座標である。εiはziとzi'の差異である。a、b、cは推定する関数のパラメータである。ρ1、ρ2は重み関数であり、ρ1、ρ2はx=0で唯一の最小値を持つ正定値偶関数である。(1)式で示すように、εiの符号に応じて重み関数を選択する。 Here, in the equation (1), z i is the z coordinate of the layer boundary detected at the coordinate x i , and z i ′ is the z coordinate of the estimated normal structure at the coordinate x i . ε i is the difference between z i and z i ′. a, b, and c are parameters of the function to be estimated. ρ1 and ρ2 are weight functions, and ρ1 and ρ2 are positive definite even functions having a unique minimum value at x = 0. As shown in equation (1), a weight function is selected according to the sign of ε i .

図5中の符号d1及びd2の場合、差異の大きさは同じだとしても、差異の符号が異なる(ε1は正、ε2は負となる)ため、使用する重み関数は異なる。図5の場合では、符号d1で用いる重み関数はρ1、符号d2で用いる重み関数はρ2となる。また、εi≦0の関係が成り立つように正常構造を推定するのが望ましいので、zがz'よりも網膜の深部に位置する場合の重みが大きくなるように、重み関数を設定しておく。言い換えると、差異εiにおいて、ρ1(εi)≧ρ2(−εi)となるように、重み関数ρ1及びρ2を定義しておく。また、重み関数の選択は、上記の条件(即ち、眼部を構成する層(本例では網膜色素上皮層)の病変によって変形する特徴に基づく条件)を満たしていれば、どのような関数を用いてもよい。 In the case of the codes d1 and d2 in FIG. 5, even if the magnitude of the difference is the same, the signs of the differences are different (ε 1 is positive and ε 2 is negative), so the weighting functions used are different. In the case of FIG. 5, the weight function used for the symbol d1 is ρ1, and the weight function used for the symbol d2 is ρ2. In addition, since it is desirable to estimate the normal structure so that the relationship of ε i ≦ 0 is established, the weight function is set so that the weight when z is positioned deeper than the retina is greater than z ′. . In other words, the weight functions ρ1 and ρ2 are defined so that ρ1 (ε i ) ≧ ρ2 (−ε i ) at the difference ε i . The weight function can be selected as long as it satisfies the above-described conditions (that is, conditions based on the characteristics deformed by the lesion of the layer constituting the eye (in this example, the retinal pigment epithelium layer)). It may be used.

次に、近似関数を求めるための評価式の例を以下の(2)式に示す。   Next, an example of an evaluation formula for obtaining an approximate function is shown in the following formula (2).

Figure 2013138963
Figure 2013138963

(2)式において、ρ(εi)はεiの符号に応じて選択された重み関数(すなわち、ρ1またはρ2)である。
図6は、本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定する際に利用する重み関数の一例を示す模式図である。
In equation (2), ρ (ε i ) is a weighting function selected according to the sign of ε i (ie, ρ1 or ρ2).
FIG. 6 is a schematic diagram illustrating an example of a weight function used when estimating a normal structure of a layer included in a tomographic image according to the first embodiment of this invention.

図6(a)、図6(b)及び図6(c)において、差異εiを横軸にとり、これをxとし、縦軸が重み関数ρ(x)とする。断層画像に含まれる層の正常構造の推定する際に利用する重み関数は、図6に示したものが全てではなく、どのような関数を設定してもよい。また、ρ(x)によって実際にどれほどの重みが与えられているかを確認するためには、ρ(x)の微分を取ればよい。本例では、正常構造推定部222は、上記の(2)式において、評価値Mが最小になるように関数を推定する。 In FIG. 6A, FIG. 6B, and FIG. 6C, the difference ε i is taken on the horizontal axis, this is x, and the vertical axis is the weighting function ρ (x). The weighting function used when estimating the normal structure of the layer included in the tomographic image is not all shown in FIG. 6, and any function may be set. In addition, in order to confirm how much weight is actually given by ρ (x), the derivative of ρ (x) may be taken. In this example, the normal structure estimation unit 222 estimates a function so that the evaluation value M is minimized in the above equation (2).

このように、誤差の符号に応じて適切な重み関数を選択することで、図3で示すように、層検出部221で検出した層境界B21が、正常構造推定部222で推定した正常構造B22の下側にはみ出してしまうことを抑制できる。そして、その結果として、正常構造の推定を精度よく行うことが可能となる。   In this way, by selecting an appropriate weight function according to the sign of the error, as shown in FIG. 3, the layer boundary B21 detected by the layer detection unit 221 is the normal structure B22 estimated by the normal structure estimation unit 222. It can suppress that it protrudes below. As a result, it is possible to accurately estimate the normal structure.

なお、ここでは、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して正常構造を推定する方法について説明を行った。しかしながら、正常構造の推定方法は、この方法に限定されるものではなく、例えば、3次元断層画像に対して処理を行ってもよい。この場合、ステップS102で検出した層境界の3次元的な座標点群に、上記と同様な重み関数の選択基準を用いて楕円体あてはめを行えばよい。なお、正常構造を近似する形状は、2次の関数に限定されるものではなく、他の次数の関数を用いて推定してもよい。   Here, the input 3D tomographic image is considered as a set of 2D tomographic images (B-scan images), and the method for estimating the normal structure for each 2D tomographic image has been described. However, the normal structure estimation method is not limited to this method, and for example, processing may be performed on a three-dimensional tomographic image. In this case, the ellipsoid may be fitted to the three-dimensional coordinate point group of the layer boundary detected in step S102 using the same weight function selection criteria as described above. The shape approximating the normal structure is not limited to a quadratic function, and may be estimated using a function of another order.

(別の正常構造の推定方法)
ここで、上述した方法とは別の正常構造の推定方法について、図14を用いて説明する。なお、図14(a)は、正常眼における網膜の層構造の一例を示す図である。また、図14(b)は、加齢黄斑変性における網膜の層構造の一例を示す図である。図14(a)に示す正常眼における網膜色素上皮層1400aは、滑らかなカーブを有する構造を成している。一方、図14(b)に示す加齢黄斑変性における網膜色素上皮層1400bは、その領域の一部が上下に波打った形状となっている。なお、OCTによる眼部の断層画像は、3次元的に得られるものであるが、図14では説明を簡単にするために、その一断面を2次元的に表している。また、網膜色素上皮層は、厚みの少ない層なので、図14では一本の線で表している。
(Another method for estimating normal structure)
Here, a normal structure estimation method different from the above-described method will be described with reference to FIG. FIG. 14A shows an example of the layer structure of the retina in a normal eye. Moreover, FIG.14 (b) is a figure which shows an example of the layer structure of the retina in age-related macular degeneration. The retinal pigment epithelium layer 1400a in the normal eye shown in FIG. 14 (a) has a structure having a smooth curve. On the other hand, the retinal pigment epithelium layer 1400b in age-related macular degeneration shown in FIG. 14 (b) has a shape in which a part of the region undulates vertically. In addition, although the tomographic image of the eye part by OCT is obtained three-dimensionally, in order to simplify description in FIG. 14, the cross section is represented two-dimensionally. Further, since the retinal pigment epithelium layer is a layer having a small thickness, it is represented by a single line in FIG.

このとき、OCTを用いた加齢黄斑変性の診断方法として、図14(b)に示す画像に基づいて、断層画像上で観察可能な現実の網膜色素上皮層境界(図14(c)の1401)と、同断層画像上におけるその正常構造(図14(c)の1402)とを得る。そして、断層画像上で観察可能な現実の網膜色素上皮層境界(1401)と、同断層画像上におけるその正常構造(1402)との差異部分(図14(c)の斜線部分)の面積や体積などによって病気の状態を定量化する。   At this time, as a method for diagnosing age-related macular degeneration using OCT, based on the image shown in FIG. 14B, an actual retinal pigment epithelium layer boundary (1401 in FIG. 14C) that can be observed on a tomographic image. ) And its normal structure (1402 in FIG. 14C) on the tomographic image. Then, the area and volume of the difference between the actual retinal pigment epithelium layer boundary (1401) that can be observed on the tomographic image and its normal structure (1402) on the tomographic image (the hatched portion in FIG. 14C). Quantify the state of the disease by

例えば、2次元断層画像(B−scan画像)から検出した網膜色素上皮層境界に対して二乗誤差が最小となるようにあてはめた楕円曲線を、その正常構造として用いることができる。なお、このような最小二乗法による楕円曲線のあてはめによって推定した正常構造は、実際の正常構造とは異なる場合がある。そのため、検出した層境界との差異に基づく面積を求めたとしても、病状を定量化する尺度として用いるのには、信頼性が不十分な場合もある。これにより、上述した正常構造の推定方法(点群と関数との差異の符号に応じて適切な重み関数に変更する手法)を用いることが好ましい。   For example, an elliptic curve fitted to minimize the square error with respect to the retinal pigment epithelium layer boundary detected from a two-dimensional tomographic image (B-scan image) can be used as the normal structure. Note that the normal structure estimated by fitting the elliptic curve by the least square method may be different from the actual normal structure. Therefore, even if the area based on the difference from the detected layer boundary is obtained, the reliability may not be sufficient for use as a scale for quantifying the medical condition. Accordingly, it is preferable to use the above-described normal structure estimation method (a method of changing to an appropriate weighting function according to the sign of the difference between the point group and the function).

<ステップS104>
続いて、ステップS104において、定量化部223は、各種の定量化処理を行う。
まず、定量化部223は、ステップS102において層検出部221が検出した層の境界に基づいて、図3に示す、層L1の層厚T1、その層の面積及び体積を算出する処理を行う。ここで層厚T1は、xy平面上の各座標点で、層境界B1と層境界B21のz座標の差の絶対値を求めることで計算できる。また、層L1の面積は、それぞれのy座標ごとにx軸方向の各座標点での層厚を加算することによって計算できる。また、層L1の体積は、求めた面積をy軸方向に加算することで計算できる。
<Step S104>
Subsequently, in step S104, the quantification unit 223 performs various quantification processes.
First, the quantification unit 223 performs a process of calculating the layer thickness T1 of the layer L1, the area and the volume of the layer shown in FIG. 3 based on the layer boundary detected by the layer detection unit 221 in step S102. Here, the layer thickness T1 can be calculated by obtaining the absolute value of the difference between the z coordinates of the layer boundary B1 and the layer boundary B21 at each coordinate point on the xy plane. The area of the layer L1 can be calculated by adding the layer thickness at each coordinate point in the x-axis direction for each y coordinate. The volume of the layer L1 can be calculated by adding the obtained area in the y-axis direction.

さらに、定量化部223は、ステップS102で層検出部221が検出した網膜色素上皮層境界B21と、ステップS103で正常構造推定部222が推定したその正常構造B22に基づいて、ステップS102で検出された網膜色素上皮層の乱れを定量化する。   Further, the quantification unit 223 is detected in step S102 based on the retinal pigment epithelium layer boundary B21 detected by the layer detection unit 221 in step S102 and the normal structure B22 estimated by the normal structure estimation unit 222 in step S103. Quantify the disturbance of the retinal pigment epithelium layer.

具体的には、xy平面上の各座標点におけるB21の構造とB22の構造との差異T2(図3)を、両者のz座標の差として算出する。そして、求めた差異T2をx軸方向に加算することで差異のなす面積をy座標ごとに求め、さらに、求めた面積をy軸方向に加算することで差異のなす体積を算出する。なお、網膜色素上皮層の乱れを表す特徴量は、B21とB22の差異を定量化するものであれば、いずれのものであってもよい。例えば、求めた差異T2の最大値、中央値、分散、平均、標準偏差、閾値以上の点の数やその割合などを求め、これを用いてもよい。さらには、B21とB22のなす領域の濃度特徴として、平均濃度値、濃度分散値、コントラストなどを求めてもよい。   Specifically, the difference T2 (FIG. 3) between the structure of B21 and the structure of B22 at each coordinate point on the xy plane is calculated as a difference between the z coordinates. Then, by adding the obtained difference T2 in the x-axis direction, an area making a difference is obtained for each y coordinate, and further, by adding the obtained area in the y-axis direction, a volume making a difference is calculated. Note that the feature amount representing the disturbance of the retinal pigment epithelium layer may be any as long as it quantifies the difference between B21 and B22. For example, the maximum value, the median value, the variance, the average, the standard deviation, the number of points equal to or greater than the threshold, the ratio thereof, and the like may be obtained and used. Furthermore, an average density value, a density dispersion value, a contrast, and the like may be obtained as the density characteristics of the region formed by B21 and B22.

また、定量化部223による定量化の方法として、定量化時に層の境界を平面に変換して、それを基準位置として定量化をしてもよい。その例を図7に示す。
図7は、本発明の第1の実施形態を示し、断層画像の平面化処理を説明するための模式図である。具体的に、図7は、図3における層の境界を、網膜層の一番深部の境界B22(例えば、網膜色素上皮層境界)を平面に変換し、他の層もその変形に合わせて変換した例を示したものである。
Further, as a method of quantification by the quantification unit 223, the boundary of the layer may be converted into a plane at the time of quantification, and the quantification may be performed using this as a reference position. An example is shown in FIG.
FIG. 7 is a schematic diagram for explaining planarization processing of a tomographic image according to the first embodiment of this invention. Specifically, FIG. 7 converts the layer boundary in FIG. 3 into the deepest boundary B22 of the retinal layer (for example, the retinal pigment epithelium layer boundary) into a plane, and converts other layers in accordance with the deformation. This is an example.

さらに、定量化部223は、過去に定量化した層厚、面積、体積や形状特徴、濃度特徴などがある場合には、過去の定量化データとの比較を行う。以下に、過去の定量化データとの比較方法の例について説明する。   Further, when there is a layer thickness, area, volume, shape feature, concentration feature, or the like quantified in the past, the quantification unit 223 performs comparison with past quantification data. Below, the example of the comparison method with the past quantification data is demonstrated.

この場合、まず、定量化部223は、過去と現在の断層画像の位置合わせを行う。この際、断層画像の位置合わせには、剛体アフィン変形や、非線形変形のFFD(Free form deforamation)などの公知の手法を用いることができる。そして、過去に撮影された断層画像と現在の断層画像との位置の対応が取れているならば、任意の断面での層厚、面積などの比較や、任意の領域の体積などを比較することができる。   In this case, first, the quantification unit 223 aligns the past and current tomographic images. At this time, a known method such as rigid affine deformation or non-linear deformation FFD (Free form deformation) can be used for alignment of tomographic images. Then, if the correspondence between the tomographic images taken in the past and the current tomographic image can be obtained, the comparison of the layer thickness, area, etc. in any cross-section, and the volume of any region, etc. Can do.

ここでは、過去と現在の断層画像の位置合わせをしてから、各種のデータを比較する例を示したが、例えば断層画像撮像装置120に追尾機能などが搭載されており、画像撮影時に前回と同じ位置を撮影できるのであれば、位置合わせを行う必要はない。さらには、位置合わせを行わずに、単純にB−scan画像のスライス番号同士での比較や、3Dで比較をしてもよい。   Here, an example is shown in which various data are compared after the past and current tomographic images are aligned. For example, the tomographic image capturing apparatus 120 has a tracking function and the like. If the same position can be photographed, it is not necessary to perform alignment. Furthermore, the comparison between the slice numbers of the B-scan images or the comparison in 3D may be simply performed without performing the alignment.

なお、定量化部223では、上述した数値データの少なくとも1つを求めればよく、定量化するデータは、任意に設定できるものとする。もしも、1つも求めることができなければ、次のステップS105において、定量化できない旨を表示部240に表示してもよい。   The quantification unit 223 only needs to obtain at least one of the numerical data described above, and the data to be quantified can be arbitrarily set. If none can be obtained, in the next step S105, it may be displayed on the display unit 240 that it cannot be quantified.

<ステップS105>
続いて、ステップS105において、表示部240は、断層画像と、断層画像の層と層の境界を検出した結果と、正常構造を推定した結果と、断層画像の層に関して定量化した結果を表示する処理を行う。本例では、表示部240は、例えばモニタ115を含み構成されるため、ステップS105の処理では、モニタ115上に各種のデータが表示される。ここで、過去のデータがある場合には、過去データと比較して表示するようにしてもよい。
<Step S105>
Subsequently, in step S105, the display unit 240 displays the tomographic image, the result of detecting the layer-to-layer boundary of the tomographic image, the result of estimating the normal structure, and the result of quantifying the layer of the tomographic image. Process. In this example, the display unit 240 includes, for example, the monitor 115, and thus various data are displayed on the monitor 115 in the process of step S105. Here, when there is past data, it may be displayed in comparison with past data.

図8は、本発明の第1の実施形態を示し、図1に示す画像処理装置110−1によって得られた画像処理結果の表示例を示す模式図である。図8に示す例では、モニタ115の上部に、画像処理部220で検出した層と層の境界や推定した正常構造に係る断層画像801を表示し、モニタ115の下部に、断層画像801の解析結果として網膜層厚のグラフ802を表示している。   FIG. 8 is a schematic diagram illustrating a display example of an image processing result obtained by the image processing apparatus 110-1 illustrated in FIG. 1 according to the first embodiment of this invention. In the example shown in FIG. 8, a tomographic image 801 relating to a layer-to-layer boundary detected by the image processing unit 220 or an estimated normal structure is displayed on the upper part of the monitor 115, and an analysis of the tomographic image 801 is performed on the lower part of the monitor 115. As a result, a graph 802 of retinal layer thickness is displayed.

なお、断層画像の表示として、画像取得部210で取得した断層画像に、画像処理部220で検出した層と層の境界や推定した正常構造を重畳表示してもよい。また、断層画像の表示として、特定の層の境界を平面に変換して、それを基準とした断層画像(図7)を生成して表示してもよい。なお、変形する層の範囲は、B−scan画像1枚であってもよいし、3次元断層画像でもよい。   As the tomographic image display, the layer detected by the image processing unit 220 and the estimated normal structure may be superimposed on the tomographic image acquired by the image acquisition unit 210. Further, as a tomographic image display, a boundary of a specific layer may be converted into a plane, and a tomographic image (FIG. 7) based on the boundary may be generated and displayed. The range of the layer to be deformed may be one B-scan image or a three-dimensional tomographic image.

<ステップS106>
続いて、ステップS106において、記憶部230(データ記憶部232等)は、以上のステップS101〜S104で取得された各種のデータを関連付けて、ある患者の患者データとして磁気ディスク113に保存する。具体的には、ステップS101で得られた断層画像データ、ステップS102で得られた層及び層の境界のデータ、ステップS103で推定された層の正常構造データ、ステップS104で得られた層の定量化処理の結果が関連付けられて、保存される。なお、磁気ディスク113に保存するデータは、これらのデータうちの少なくとも1つでよい。
<Step S106>
Subsequently, in step S106, the storage unit 230 (such as the data storage unit 232) associates the various types of data acquired in the above steps S101 to S104 and saves them as patient data of a patient on the magnetic disk 113. Specifically, the tomographic image data obtained in step S101, the layer and layer boundary data obtained in step S102, the normal structure data of the layer estimated in step S103, and the layer quantification obtained in step S104. The result of the digitizing process is associated and saved. The data stored on the magnetic disk 113 may be at least one of these data.

ここで、正常構造の推定結果を保存する場合には、推定時に利用した重み関数ρ((1)式)と関数のパラメータ(例えば、(1)式のa、b、c)も同時に関連付けて保存しておき、経過観察時に同じ関数やパラメータを用いて推定するようにしてもよい。   Here, when the estimation result of the normal structure is stored, the weight function ρ (Equation (1)) used at the time of estimation and the function parameters (for example, a, b, and c in Equation (1)) are also associated at the same time. It may be stored and estimated using the same function or parameter during follow-up observation.

また、これらのデータの保存は、不図示の外部サーバに行ってもよい。この場合、記憶部230は、これらのデータを外部サーバへと送信する。   Further, these data may be stored in an external server (not shown). In this case, the storage unit 230 transmits these data to the external server.

なお、本実施形態において、層検出部221が検出する層としては、内境界膜と網膜色素上皮層に限定されるものではなく、神経線維層、視細胞層、外境界膜などの各層や膜を検出してよい。さらに、正常構造を推定する層の境界としては、網膜色素上皮層に限定されるものではなく、疾病により形状が凹凸に変化する層であれば、いずれの層並びに層境界を推定してもよい。   In the present embodiment, the layers detected by the layer detection unit 221 are not limited to the inner boundary membrane and the retinal pigment epithelium layer, and each layer or membrane such as a nerve fiber layer, a photoreceptor layer, or an outer boundary membrane May be detected. Furthermore, the boundary of the layer for estimating the normal structure is not limited to the retinal pigment epithelium layer, and any layer and layer boundary may be estimated as long as the shape changes into irregularities due to a disease. .

以上説明した第1の実施形態によれば、被写体である眼部の断層画像において、当該眼部を構成する層(本実施形態では網膜色素上皮層)の正常構造を精度良く推定することができる。これにより、眼部における疾病の進行度や治療後の回復具合等を精度良く定量化することが可能となる。   According to the first embodiment described above, it is possible to accurately estimate the normal structure of a layer (in this embodiment, the retinal pigment epithelium layer) constituting the eye part in the tomographic image of the eye part that is the subject. . This makes it possible to accurately quantify the degree of disease progression in the eye and the degree of recovery after treatment.

(第1の実施形態の変形例1)
第1の実施形態における画像処理装置110−1は、既に撮像された状態で保存されている眼部の断層画像を保持する画像蓄積サーバ(不図示)と、直接またはLAN130を介して接続し、当該画像蓄積サーバから断層画像を入力する構成であってもよい。この場合、図4のステップS101において、画像取得部210は、画像蓄積サーバ(不図示)に断層画像の送信を要求し、当該画像蓄積サーバから送信される断層画像を取得して、記憶部230に入力する。その後、上述したように、層の境界検出(S102)や定量化処理(S104)を行う。
(Modification 1 of the first embodiment)
The image processing apparatus 110-1 in the first embodiment is connected directly or via a LAN 130 to an image storage server (not shown) that holds tomographic images of the eye that have been captured and stored. The configuration may be such that a tomographic image is input from the image storage server. In this case, in step S101 of FIG. 4, the image acquisition unit 210 requests the image storage server (not shown) to transmit the tomographic image, acquires the tomographic image transmitted from the image storage server, and stores the storage unit 230. To enter. Thereafter, as described above, layer boundary detection (S102) and quantification processing (S104) are performed.

(第1の実施形態の変形例2)
第1の実施形態における画像処理装置110−1は、1枚または複数枚の二次元の断層画像を入力し、それに対して上述した解析処理(画像処理)を行う構成であってもよい。また、入力された三次元の断層画像から注目すべき断面を選択して、選択された二次元断層画像に対して処理を行う構成であってもよい。この場合、二次元断層画像の選択は、ユーザがマウス116やキーボード117を用いて、或いは、不図示のインターフェイスを用いて行ってもよいし、予め定めた眼底の特定部分(例えば黄斑部の中心を含む断面)に対して処理を行ってもよい。
(Modification 2 of the first embodiment)
The image processing apparatus 110-1 in the first embodiment may have a configuration in which one or a plurality of two-dimensional tomographic images are input and the above-described analysis processing (image processing) is performed thereon. Moreover, the structure which selects the cross section which should be noticed from the input three-dimensional tomographic image, and processes with respect to the selected two-dimensional tomographic image may be sufficient. In this case, the selection of the two-dimensional tomographic image may be performed by the user using the mouse 116 or the keyboard 117 or using an interface (not shown), or a predetermined specific part of the fundus (for example, the center of the macular region). The cross-section including) may be processed.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
図9は、本発明の第2の実施形態に係る画像処理システム200の概略構成(ハードウェア構成)の一例を示す模式図である。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
FIG. 9 is a schematic diagram illustrating an example of a schematic configuration (hardware configuration) of an image processing system 200 according to the second embodiment of the present invention.

図9に示すように、本実施形態に係る画像処理システム200は、画像処理装置110と、断層画像撮像装置120と、ローカルエリアネットワーク(LAN)130と、広域画像撮像装置140を有して構成されている。ここで、以下の説明においては、図9に示す画像処理装置110を、「画像処理装置110−2」とする。即ち、図9に示す画像処理システム200は、画像処理装置110−2が、LAN130を介して、断層画像撮像装置120のみならず、広域画像撮像装置140とも接続される構成となっている。なお、画像処理装置110−2と広域画像撮像装置140との接続は、USBやIEEE1394等のインターフェイスを介して直接行ってもよい。   As shown in FIG. 9, the image processing system 200 according to the present embodiment includes an image processing device 110, a tomographic image capturing device 120, a local area network (LAN) 130, and a wide area image capturing device 140. Has been. Here, in the following description, the image processing apparatus 110 illustrated in FIG. 9 is referred to as “image processing apparatus 110-2”. That is, the image processing system 200 shown in FIG. 9 is configured such that the image processing apparatus 110-2 is connected not only to the tomographic image capturing apparatus 120 but also to the wide area image capturing apparatus 140 via the LAN. Note that the image processing apparatus 110-2 and the wide area image capturing apparatus 140 may be directly connected via an interface such as USB or IEEE1394.

本実施形態に係る画像処理装置110−2は、第1の実施形態に係る画像処理装置110−1と同様に、眼部の断層画像から、網膜色素上皮層境界などの層境界を検出する。そして、画像処理装置110−2は、第1の実施形態に係る画像処理装置110−1と同様に、例えば、加齢黄斑変性等の疾病により層の形状が凹凸に変形するという特徴に基づいて、当該網膜色素上皮層の正常構造を推定し、疾病の定量化を行うものである。ただし、本実施形態に係る画像処理装置110−2は、眼部の断層画像から検出した網膜色素上皮層の形状が正常か異常かを局所領域ごとに判断し、正常と判断した範囲(正常範囲)の情報に基づいて、その正常構造を推定する。これに伴って、図9に示す画像処理装置110−2には、磁気ディスク113の内部に、第1の実施形態とは異なる、制御プログラム1132が格納されている。   Similar to the image processing apparatus 110-1 according to the first embodiment, the image processing apparatus 110-2 according to the present embodiment detects a layer boundary such as a retinal pigment epithelium layer boundary from a tomographic image of the eye. And the image processing apparatus 110-2 is based on the characteristic that the shape of a layer deform | transforms into an unevenness | corrugation by diseases, such as age-related macular degeneration, for example like the image processing apparatus 110-1 which concerns on 1st Embodiment. The normal structure of the retinal pigment epithelium layer is estimated and the disease is quantified. However, the image processing apparatus 110-2 according to the present embodiment determines whether the shape of the retinal pigment epithelium layer detected from the tomographic image of the eye is normal or abnormal for each local region, and the range determined as normal (normal range) ) To estimate its normal structure. Accordingly, in the image processing apparatus 110-2 shown in FIG. 9, a control program 1132 different from the first embodiment is stored inside the magnetic disk 113.

広域画像撮像装置140は、例えば眼部等の広域画像を撮像する装置であり、例えば、眼底カメラを備えて構成されている。広域像撮像装置30は、ユーザ(技師や医師)による操作に応じて、不図示の被検者(患者)の眼部等の広域画像を撮像する。そして、広域画像撮像装置140は、得られた広域画像を画像処理装置110−2へ出力する。   The wide area image capturing apparatus 140 is an apparatus that captures a wide area image such as an eye part, and includes, for example, a fundus camera. The wide-area image capturing device 30 captures a wide-area image such as an eye part of a subject (patient) (not shown) according to an operation by a user (engineer or doctor). Then, the wide area imaging device 140 outputs the obtained wide area image to the image processing apparatus 110-2.

次に、図9に示す画像処理装置110−2の機能構成について説明を行う。
図10は、本発明の第2の実施形態に係る画像処理装置110−2の機能構成の一例を示す模式図である。
Next, a functional configuration of the image processing apparatus 110-2 illustrated in FIG. 9 will be described.
FIG. 10 is a schematic diagram illustrating an example of a functional configuration of an image processing apparatus 110-2 according to the second embodiment of the present invention.

図10に示すように、画像処理装置110−2は、画像取得部210、画像処理部220、記憶部230、及び、表示部240の各機能構成を有して構成されている。第2の実施形態に係る画像処理装置110−2の機能構成については、図2に示す第1の実施形態に係る画像処理装置110−1の機能構成と基本的には同様の構成となる。ただし、第2の実施形態に係る画像処理装置110−2では、画像取得部210が広域画像取得部211と断層画像取得部212とから構成され、また、正常構造推定部222の内部に、層の形状が正常か異常かを判断する判断部2221が構成されている。   As illustrated in FIG. 10, the image processing device 110-2 is configured to have each functional configuration of an image acquisition unit 210, an image processing unit 220, a storage unit 230, and a display unit 240. The functional configuration of the image processing apparatus 110-2 according to the second embodiment is basically the same as the functional configuration of the image processing apparatus 110-1 according to the first embodiment shown in FIG. However, in the image processing apparatus 110-2 according to the second embodiment, the image acquisition unit 210 includes a wide area image acquisition unit 211 and a tomographic image acquisition unit 212, and the normal structure estimation unit 222 includes layers. A determination unit 2221 is configured to determine whether the shape is normal or abnormal.

次に、図11を参照して、本実施形態の画像処理装置110−2により実行される、具体的な処理手順を説明する。
図11は、本発明の第2の実施形態に係る画像処理装置110−2の制御方法の処理手順の一例を示すフローチャートである。
Next, a specific processing procedure executed by the image processing apparatus 110-2 of the present embodiment will be described with reference to FIG.
FIG. 11 is a flowchart illustrating an example of a processing procedure of a control method of the image processing apparatus 110-2 according to the second embodiment of the present invention.

<ステップS201>
まず、ステップS201において、断層画像取得部212は、断層画像撮像装置120に対して、被写体である眼部の断層画像の送信を要求し、断層画像撮像装置120から送信される眼部の断層画像を取得する。そして、断層画像取得部212は、断層画像撮像装置120から取得した断層画像を、画像処理部220及び記憶部230(画像記憶部231)に入力する。同様に、広域画像取得部211は、広域画像撮像装置140に対して、被写体である眼部の広域画像の送信を要求し、広域画像撮像装置140から送信される眼部の広域画像を取得する。そして、広域画像取得部211は、取得した広域画像を、画像処理部220及び記憶部230(画像記憶部231)に入力する。
<Step S201>
First, in step S <b> 201, the tomographic image acquisition unit 212 requests the tomographic imaging apparatus 120 to transmit a tomographic image of the eye that is the subject, and transmits the tomographic image of the eye that is transmitted from the tomographic imaging apparatus 120. To get. The tomographic image acquisition unit 212 inputs the tomographic image acquired from the tomographic image capturing apparatus 120 to the image processing unit 220 and the storage unit 230 (image storage unit 231). Similarly, the wide area image acquisition unit 211 requests the wide area image capturing apparatus 140 to transmit a wide area image of the eye that is the subject, and acquires the wide area image of the eye that is transmitted from the wide area image capturing apparatus 140. . Then, the wide area image acquisition unit 211 inputs the acquired wide area image to the image processing unit 220 and the storage unit 230 (image storage unit 231).

<ステップS202>
続いて、ステップS202において、層検出部221は、ステップS201で取得された断層画像から、被写体である眼部を構成する所定の層の境界を検出する処理を行う。ここで、層の検出方法については、第1の実施形態における図4のステップS102と同様である。なお、層の境界を検出するために、断層画像だけではなく、広域画像から病変や血管を抽出し、その情報を利用して検出するようにしてもよい。
<Step S202>
Subsequently, in step S202, the layer detection unit 221 performs a process of detecting a boundary of a predetermined layer constituting the eye part that is a subject from the tomographic image acquired in step S201. Here, the layer detection method is the same as step S102 of FIG. 4 in the first embodiment. In addition, in order to detect a layer boundary, a lesion or blood vessel may be extracted not only from a tomographic image but also from a wide-area image and detected using the information.

<ステップS203>
続いて、ステップS203において、正常構造推定部222の判断部2221は、ステップS202において層検出部221が検出した層境界(本例では、網膜色素上皮層境界(B21))について、正常範囲及び異常範囲を判断して検出する。そして、判断部2221は、ステップS202において層検出部221が検出した層境界を正常範囲と異常範囲とに分類する。
<Step S203>
Subsequently, in step S203, the determination unit 2221 of the normal structure estimation unit 222 determines the normal range and abnormalities for the layer boundary (in this example, the retinal pigment epithelial layer boundary (B21)) detected by the layer detection unit 221 in step S202. Determine the range and detect. Then, the determination unit 2221 classifies the layer boundary detected by the layer detection unit 221 in step S202 into a normal range and an abnormal range.

具体的には、まず、例えば、層が正常構造である条件として、層境界の曲率は滑らかであると定義する。この場合、判断部2221による異常範囲の検出では、検出した層境界の局所的な曲率を計算し、層の境界形状を評価することで、曲率が滑らかに変化していない部分は異常範囲であるとする。或いは、判断部2221による異常範囲の検出では、眼部の広域画像から白斑や出血やドルーゼンを検出し、病変が存在する広域画像の(x,y)領域に対応する断層画像のz方向の網膜層構造は異常であるとする。そして、判断部2221は、断層画像中での正常範囲と異常範囲の位置を分類しておく。   Specifically, first, as a condition that the layer has a normal structure, for example, the curvature of the layer boundary is defined to be smooth. In this case, in the detection of the abnormal range by the determination unit 2221, the local curvature of the detected layer boundary is calculated and the boundary shape of the layer is evaluated, so that the portion where the curvature does not change smoothly is the abnormal range. And Alternatively, in the detection of the abnormal range by the determination unit 2221, vitiligo, bleeding, and drusen are detected from the wide area image of the eye, and the retina in the z direction of the tomographic image corresponding to the (x, y) region of the wide area image where the lesion exists. The layer structure is assumed to be abnormal. Then, the determination unit 2221 classifies the positions of the normal range and the abnormal range in the tomographic image.

<ステップS204>
続いて、ステップS204において、正常構造推定部222は、ステップS203で正常と判断された範囲に含まれている層境界と、当該層の病変によって変形する特徴とに基づいて、当該層の正常構造を推定する処理を行う。
<Step S204>
Subsequently, in step S204, the normal structure estimation unit 222 determines the normal structure of the layer based on the layer boundary included in the range determined to be normal in step S203 and the feature deformed by the lesion of the layer. The process which estimates is performed.

ここで、ステップS204における正常構造の推定方法としては、第1の実施形態における図4のステップS103と同様に、多項式を用いて正常構造を近似して推定を行う。この際、正常構造推定部222は、判断部2221で正常と判断された座標群のみを用いて多項式のパラメータを計算し、正常構造を近似する。或いは、正常構造推定部222は、多項式で近似せず、判断部2221で正常と判断された座標群をスプライン補間などの補間処理を行って、正常構造を推定するようにしてもよい。   Here, as a method for estimating the normal structure in step S204, the normal structure is approximated using a polynomial as in step S103 of FIG. 4 in the first embodiment. At this time, the normal structure estimation unit 222 calculates polynomial parameters using only the coordinate group determined to be normal by the determination unit 2221 and approximates the normal structure. Alternatively, the normal structure estimation unit 222 may estimate the normal structure by performing interpolation processing such as spline interpolation on the coordinate group determined to be normal by the determination unit 2221 without being approximated by a polynomial.

<ステップS205>
続いて、ステップS205において、定量化部223は、第1の実施形態における図4のステップS104と同様に、各種の定量化処理を行う。
<Step S205>
Subsequently, in step S205, the quantification unit 223 performs various types of quantification processing as in step S104 of FIG. 4 in the first embodiment.

<ステップS206>
続いて、ステップS206において、表示部240は、第1の実施形態における図4のステップS105と基本的には同様の表示処理を行う。この際、本実施形態では、さらに、推定した正常構造と検出した層境界の表示において、任意の情報を選択して表示できるようにしてもよい。これについて、図12を用いて説明する。
<Step S206>
Subsequently, in step S206, the display unit 240 performs basically the same display process as step S105 of FIG. 4 in the first embodiment. At this time, in the present embodiment, any information may be selected and displayed in displaying the estimated normal structure and the detected layer boundary. This will be described with reference to FIG.

図12は、本発明の第2の実施形態を示し、断層画像に含まれる層の境界の表示例を示す模式図である。
図12において、層検出部221が検出した層境界は実線で示し、正常構造推定部222が推定した正常構造は点線で示している。
FIG. 12 is a schematic diagram illustrating a display example of a layer boundary included in a tomographic image according to the second embodiment of this invention.
In FIG. 12, the layer boundary detected by the layer detection unit 221 is indicated by a solid line, and the normal structure estimated by the normal structure estimation unit 222 is indicated by a dotted line.

具体的に、図12(a)は、検出した層境界と推定した正常構造を同時に表示する一例である。図12(b)は、推定した正常構造のみを表示する一例である。図12(c)は、同一の層境界内で、正常範囲については検出した層境界を表示し、異常範囲については検出した層境界と推定した正常構造を同時に表示する一例である。図12(d)は、同一の層境界内で、正常範囲については検出した層境界を表示し、異常範囲については推定した正常構造のみを表示する一例である。   Specifically, FIG. 12A is an example in which the detected layer boundary and the estimated normal structure are displayed simultaneously. FIG. 12B is an example in which only the estimated normal structure is displayed. FIG. 12C is an example in which the detected layer boundary is displayed for the normal range and the detected normal layer and the estimated normal structure are simultaneously displayed for the abnormal range within the same layer boundary. FIG. 12D shows an example in which the detected layer boundary is displayed for the normal range and only the estimated normal structure is displayed for the abnormal range within the same layer boundary.

ステップS206における表示の方法として、図12(a)〜図12(d)に示した検出結果と推定結果を断層画像上に重畳表示してもよいし、検出結果と推定結果を、断層画像と別に表示するようにしてもよい。このように、層境界に関する情報の表示方法を選択し、任意の情報を表示できるようにしてもよい。   As a display method in step S206, the detection results and the estimation results shown in FIGS. 12A to 12D may be superimposed on the tomographic image, or the detection results and the estimation results may be displayed as a tomographic image. You may make it display separately. In this way, it is possible to select a display method of information related to the layer boundary so that arbitrary information can be displayed.

<ステップS207>
続いて、ステップS207において、記憶部230は、第1の実施形態における図4のステップS106と基本的には同様の記憶処理を行う。この際、さらに、撮像部位の確認等の理由で、広域画像と広域画像上における断層画像の取得範囲を一緒に記憶して提示できるようにしてもよい。
<Step S207>
Subsequently, in step S207, the storage unit 230 performs basically the same storage process as step S106 of FIG. 4 in the first embodiment. At this time, the acquisition range of the tomographic image on the wide area image and the wide area image may be stored and presented together for reasons such as confirmation of the imaging region.

以上説明した第2の実施形態によれば、被写体である眼部の断層画像において、網膜色素上皮層の構造が正常か異常かを局所領域ごとに判断するようにしたので、正常と判断した領域から、疾病により変化した当該層の正常構造を精度良く推定することができる。これにより、その結果を用いて疾病の進行度や治療後の回復具合を精度良く定量化することが可能となる。   According to the second embodiment described above, in the tomographic image of the eye that is the subject, whether the structure of the retinal pigment epithelial layer is normal or abnormal is determined for each local region. Therefore, the normal structure of the layer that has changed due to a disease can be accurately estimated. This makes it possible to accurately quantify the degree of disease progression and the degree of recovery after treatment using the results.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
第3の実施形態に係る画像処理システムの概略構成は、図1に示す第1の実施形態に係る画像処理システム100と同様である。また、第3の実施形態に係る画像処理装置110の機能構成は、図2に示す第1の実施形態に係る画像処理装置110−1の機能構成と基本的には同様である。ただし、正常構造推定部222の処理が異なるため、ここでは、第3の実施形態に係る画像処理装置110を「画像処理装置110−3」とする。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The schematic configuration of the image processing system according to the third embodiment is the same as that of the image processing system 100 according to the first embodiment shown in FIG. The functional configuration of the image processing apparatus 110 according to the third embodiment is basically the same as the functional configuration of the image processing apparatus 110-1 according to the first embodiment shown in FIG. However, since the processing of the normal structure estimation unit 222 is different, the image processing apparatus 110 according to the third embodiment is referred to as “image processing apparatus 110-3”.

また、本実施形態の画像処理装置110−3は、第1の実施形態に係る画像処理装置110−1等と同様に、眼部の断層画像から、網膜色素上皮層境界などの層境界を検出する。そして、画像処理装置110−3は、第1の実施形態に係る画像処理装置110−1と同様に、例えば、加齢黄斑変性等の疾病により層の形状が凹凸に変形するという特徴に基づいて、当該網膜色素上皮層等の正常構造を推定し、疾病の定量化を行うものである。ただし、本実施形態に係る画像処理装置110−3は、眼部の断層画像から検出した網膜色素上皮層境界の形状が、正常構造を表す1つの多項式に係る関数と、病変によるn個の上に凸のガウス関数の混合分布であると仮定して、正常構造を推定する。これは、下からの隆起によって発生した層の凹凸をガウス関数で近似し、それ以外の大局的な形状を多項式で推定するためである。   In addition, the image processing apparatus 110-3 according to the present embodiment detects layer boundaries such as the retinal pigment epithelium layer boundary from the tomographic image of the eye, as with the image processing apparatus 110-1 according to the first embodiment. To do. And the image processing apparatus 110-3 is based on the characteristic that the shape of a layer deform | transforms into an unevenness | corrugation by diseases, such as age-related macular degeneration, similarly to the image processing apparatus 110-1 which concerns on 1st Embodiment. The normal structure such as the retinal pigment epithelium is estimated to quantify the disease. However, in the image processing apparatus 110-3 according to the present embodiment, the shape of the boundary of the retinal pigment epithelium layer detected from the tomographic image of the eye part is a function related to one polynomial representing a normal structure, and the upper number n of lesions. The normal structure is estimated on the assumption that the distribution is a mixture of Gaussian functions. This is because the unevenness of the layer generated by the bulge from the bottom is approximated by a Gaussian function, and other global shapes are estimated by a polynomial.

本実施形態における図2の正常構造推定部222は、検出された座標点群に関数のあてはめを行う際、層境界の形状が、正常構造を表す2次関数と、n個のガウス関数の混合分布であると仮定する。そして、本実施形態における正常構造推定部222は、これらの混合分布を推定することで、形状が凹凸に変形した層の正常構造を推定する。この例を図13に示す。   In the present embodiment, when the normal structure estimation unit 222 in FIG. 2 applies a function to the detected coordinate point group, the shape of the layer boundary is a mixture of a quadratic function representing a normal structure and n Gaussian functions. Assume a distribution. And the normal structure estimation part 222 in this embodiment estimates the normal structure of the layer in which the shape deform | transformed into the unevenness | corrugation by estimating these mixed distributions. An example of this is shown in FIG.

図13は、本発明の第3の実施形態を示し、断層画像に含まれる層の正常構造の推定を説明するための模式図である。具体的に、図13(a)の1300は、加齢黄斑変性における網膜色素上皮層境界の形状例を示している。また、図13(b)の1301及び1302は、それぞれ、図13(a)の網膜色素上皮層境界1300から求められる多項式、及び、ガウス関数の例を示している。   FIG. 13 is a schematic diagram for explaining the estimation of the normal structure of a layer included in a tomographic image according to the third embodiment of the present invention. Specifically, 1300 in FIG. 13A shows an example of the shape of the boundary of the retinal pigment epithelium layer in age-related macular degeneration. Moreover, 1301 and 1302 of FIG.13 (b) have each shown the example of the polynomial calculated | required from the retinal pigment epithelium layer boundary 1300 of Fig.13 (a), and a Gaussian function.

2次関数とガウス関数の混合分布は、EMアルゴリズムを用いて解を求めることができる。この際、混合分布は、多項式と複数のガウス関数とを組み合わせた確率モデルで、多項式とガウス関数の確率に重みをつけて加算したものである。   A mixed distribution of a quadratic function and a Gaussian function can be obtained using an EM algorithm. At this time, the mixed distribution is a probability model in which a polynomial and a plurality of Gauss functions are combined, and the probability of the polynomial and the Gauss function is added with a weight.

本実施形態における正常構造推定部222は、2次関数のパラメータ(a、b、c)とガウス関数のパラメータ(平均、分散共分散行列)と、2次関数とガウス関数との混合率を、EMアルゴリズムを用いて推定する。この際、n個のガウス関数の設定は、多項式と検出した層境界との差異の符号において、負のピークの数に応じてnを設定してもよいし、あるいは、1〜Nの間でnを順番に増やしていき、評価値が最大になる数nを設定するようにしてもよい。   In this embodiment, the normal structure estimation unit 222 calculates the quadratic function parameters (a, b, c), Gaussian function parameters (mean, variance-covariance matrix), and the mixture ratio of the quadratic function and the Gaussian function. Estimate using EM algorithm. At this time, n Gaussian functions may be set by setting n according to the number of negative peaks in the sign of the difference between the polynomial and the detected layer boundary, or between 1 and N. n may be increased in order and a number n that maximizes the evaluation value may be set.

また、EMアルゴリズムは、初期値としてパラメータを仮に設定し、Estepにおいてパラメータの妥当性を判断し、Mstepにおいて、妥当性が向上するようにパラメータを選択するものである。本例では、これらのEstepとMstepを繰り返し計算して、収束した時点のパラメータを選択する。ここで、妥当性は、現時点での尤度で判断し、パラメータの選択は、現時点での尤度より大きくなるパラメータを選択する。   In the EM algorithm, parameters are temporarily set as initial values, the validity of parameters is determined in Step, and parameters are selected so that the validity is improved in Mstep. In this example, these Steps and Steps are repeatedly calculated, and the parameters at the time of convergence are selected. Here, the validity is determined by the current likelihood, and the parameter is selected by selecting a parameter that is larger than the current likelihood.

本実施形態では、n個の上に凸のガウス関数を、滑らかな1つの2次関数に混合しているとしている。これは、下からの隆起によって発生した層の凹凸を前者のガウス関数で近似し、それ以外の大局的な形状を2次関数で推定するためである。なお、ここでは、入力した3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して正常構造を推定する方法を示している。しかしながら、正常構造の推定方法は、これに限定されるものではなく、3次元の断層画像に対して処理を行ってもよい。また、正常構造を近似する形状は、2次関数に限定されるものではなく、他の次数の関数を用いて推定してもよい。さらに、正常構造を推定する層の境界は、網膜色素上皮層に限定されるものではなく、疾病により形状が凹凸に変化する層であれば、いずれの層並びに層境界を推定してもよい。   In the present embodiment, n upward convex Gaussian functions are mixed into one smooth quadratic function. This is because the unevenness of the layer generated by the bulge from below is approximated by the former Gaussian function, and the other global shape is estimated by a quadratic function. Here, a method of estimating a normal structure for each two-dimensional tomographic image is shown, assuming that the input three-dimensional tomographic image is a set of two-dimensional tomographic images (B-scan images). However, the normal structure estimation method is not limited to this, and processing may be performed on a three-dimensional tomographic image. The shape approximating the normal structure is not limited to a quadratic function, and may be estimated using a function of another order. Furthermore, the boundary of the layer for estimating the normal structure is not limited to the retinal pigment epithelium layer, and any layer and layer boundary may be estimated as long as the shape changes into irregularities due to a disease.

(その他の実施形態)
前述した本発明の各実施形態に係る画像処理装置110を構成する図2及び図10の各構成部、並びに、図4及び図11の各ステップは、CPU111が磁気ディスク113に記憶されている制御プログラムを実行することによって実現できる。この制御プログラム及び当該制御プログラムを記憶したコンピュータ読み取り可能な記録媒体(実施形態では磁気ディスク113)は本発明に含まれる。
(Other embodiments)
2 and 10 constituting the image processing apparatus 110 according to each embodiment of the present invention described above, and the steps shown in FIGS. 4 and 11 are controlled by the CPU 111 stored in the magnetic disk 113. This can be realized by executing a program. This control program and a computer-readable recording medium (magnetic disk 113 in the embodiment) storing the control program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した各実施形態の機能を実現するソフトウェアのプログラム(実施形態では図4及び図11に示すフローチャートに対応したプログラム)を、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   In the present invention, a software program (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 4 and 11) for realizing the functions of the above-described embodiments is directly or remotely supplied to the system or apparatus. including. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let me. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that each of the above-described embodiments is merely a specific example for carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. . That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

110−1 画像処理装置
210 画像取得部
220 画像処理部
221 層検出部
222 正常構造推定部
223 定量化部
230 記憶部
231 画像記憶部
232 データ記憶部
240 表示部
110-1 Image Processing Device 210 Image Acquisition Unit 220 Image Processing Unit 221 Layer Detection Unit 222 Normal Structure Estimation Unit 223 Quantification Unit 230 Storage Unit 231 Image Storage Unit 232 Data Storage Unit 240 Display Unit

Claims (27)

眼部の眼底の断層画像から層を検出する層検出手段と、
前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する特徴箇所検出手段と、
前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める演算手段と、
を有することを特徴とする画像処理装置。
Layer detecting means for detecting a layer from a tomographic image of the fundus of the eye,
Feature location detection means for detecting a plurality of feature locations including a deep location located deeper than a threshold in the depth direction of the fundus based on the shape of the detected layer in the detected layer; ,
Based on the plurality of feature locations including the deep location, computing means for obtaining a convex curve in the depth direction of the fundus;
An image processing apparatus comprising:
前記深部箇所を通過する直線を求める手段を有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising means for obtaining a straight line passing through the deep portion. 前記演算手段は、前記検出された層の前記深部箇所が、前記曲線よりも深くならないように前記曲線を求めることを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit obtains the curve so that the deep portion of the detected layer is not deeper than the curve. 前記演算手段は、前記複数の特徴箇所に基づく2次曲線を前記曲線として求めることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit obtains a quadratic curve based on the plurality of characteristic locations as the curve. 前記演算手段は、前記検出された層との差が最小になる前記2次曲線を最小二乗法によって求めることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the calculation unit obtains the quadratic curve that minimizes a difference from the detected layer by a least square method. 前記演算手段は、前記複数の特徴箇所それぞれに関数をあてはめて、前記複数の特徴箇所と前記関数との差異の符号に応じて、前記関数の重みを変更して、前記曲線を前記検出された層の正常構造として推定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The calculating means assigns a function to each of the plurality of feature locations, changes the weight of the function according to a sign of a difference between the plurality of feature locations and the function, and detects the curve. The image processing apparatus according to claim 1, wherein the image processing apparatus estimates the normal structure of the layer. 前記特徴箇所検出手段は、前記検出された層の境界を表す座標点群を前記複数の特徴箇所として検出し、
前記演算手段は、前記座標点群に2次関数をあてはめて、前記曲線を前記検出された層の正常構造として推定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The feature location detecting means detects a coordinate point group representing a boundary of the detected layer as the plurality of feature locations,
The image according to any one of claims 1 to 6, wherein the calculation means applies a quadratic function to the coordinate point group to estimate the curve as a normal structure of the detected layer. Processing equipment.
前記検出された層と前記曲線との差異を示す差異領域を前記断層画像上に重畳して表示手段に表示させる表示制御手段を有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The display control unit according to claim 1, further comprising: a display control unit configured to display a difference region indicating a difference between the detected layer and the curve on the tomographic image so as to be displayed on a display unit. The image processing apparatus described. 前記曲線を示す表示形態を前記断層画像上に重畳して表示手段に表示させる表示制御手段を有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display control unit configured to display a display form indicating the curve on the tomographic image so as to be displayed on a display unit. 前記演算手段は、前記眼底の3次元断層画像を構成する複数の2次元断層画像それぞれに対して前記曲線を求めることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the calculation unit obtains the curve for each of a plurality of two-dimensional tomographic images constituting the three-dimensional tomographic image of the fundus. . 前記層検出手段は、前記眼底の網膜色素上皮層に相当する前記断層画像中の層を検出することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the layer detection unit detects a layer in the tomographic image corresponding to the retinal pigment epithelium layer of the fundus. 前記層検出手段は、前記断層画像からエッジ成分を前記層の境界として検出することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the layer detection unit detects an edge component from the tomographic image as a boundary of the layer. 請求項1乃至12のいずれか1項に記載の画像処理装置と、前記断層画像を撮像する断層画像撮像装置とが通信可能に接続された画像処理システムであって、
前記層検出手段は、前記断層画像撮像装置が出力した前記断層画像から前記層を検出することを特徴とする画像処理システム。
An image processing system in which the image processing apparatus according to any one of claims 1 to 12 and the tomographic image capturing apparatus that captures the tomographic image are connected to be communicable,
The image processing system, wherein the layer detecting means detects the layer from the tomographic image output from the tomographic imaging apparatus.
請求項1乃至12のいずれか1項に記載の画像処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。   13. A program that causes a computer to function as each unit of the image processing apparatus according to claim 1. 眼部の眼底の断層画像から層を検出する工程と、
前記検出された層において、前記眼底の深さ方向に対して閾値よりも深部に位置する深部箇所を含む複数の特徴箇所を、前記検出された層の形状に基づいて検出する工程と、
前記深部箇所を含む前記複数の特徴箇所に基づいて、前記眼底の深さ方向に凸な曲線を求める工程と、
を有することを特徴とする画像処理方法。
Detecting a layer from a tomographic image of the fundus of the eye,
In the detected layer, detecting a plurality of characteristic points including a deep part located deeper than a threshold with respect to the depth direction of the fundus based on the shape of the detected layer;
Obtaining a convex curve in the depth direction of the fundus based on the plurality of feature points including the deep part; and
An image processing method comprising:
前記深部箇所を通過する直線を求める工程を有することを特徴とする請求項15に記載の画像処理方法。   The image processing method according to claim 15, further comprising a step of obtaining a straight line passing through the deep portion. 前記曲線を求める工程では、前記検出された層の前記深部箇所が、前記曲線よりも深くならないように前記曲線を求めることを特徴とする請求項15または16に記載の画像処理方法。   The image processing method according to claim 15 or 16, wherein, in the step of obtaining the curve, the curve is obtained so that the deep portion of the detected layer is not deeper than the curve. 前記曲線を求める工程では、前記複数の特徴箇所に基づく2次曲線を前記曲線として求めることを特徴とする請求項15乃至17のいずれか1項に記載の画像処理方法。   18. The image processing method according to claim 15, wherein in the step of obtaining the curve, a quadratic curve based on the plurality of characteristic locations is obtained as the curve. 前記曲線を求める工程では、前記検出された層との差が最小になる前記2次曲線を最小二乗法によって求めることを特徴とする請求項18に記載の画像処理方法。   19. The image processing method according to claim 18, wherein, in the step of obtaining the curve, the quadratic curve that minimizes the difference from the detected layer is obtained by a least square method. 前記曲線を求める工程では、前記複数の特徴箇所それぞれに関数をあてはめて、前記複数の特徴箇所と前記関数との差異の符号に応じて、前記関数の重みを変更して、前記曲線を前記検出された層の正常構造として推定することを特徴とする請求項15乃至19のいずれか1項に記載の画像処理方法。   In the step of obtaining the curve, a function is assigned to each of the plurality of feature locations, the weight of the function is changed according to a sign of a difference between the plurality of feature locations and the function, and the curve is detected. The image processing method according to claim 15, wherein the image is estimated as a normal structure of the formed layer. 前記複数の特徴箇所を検出する工程では、前記検出された層の境界を表す座標点群を前記複数の特徴箇所として検出し、
前記曲線を求める工程では、前記座標点群に2次関数をあてはめて、前記曲線を前記検出された層の正常構造として推定することを特徴とする請求項15乃至20のいずれか1項に記載の画像処理方法。
In the step of detecting the plurality of feature locations, a coordinate point group representing a boundary of the detected layer is detected as the plurality of feature locations,
21. The step of obtaining the curve, wherein a quadratic function is applied to the coordinate point group to estimate the curve as a normal structure of the detected layer. Image processing method.
前記検出された層と前記曲線との差異を示す差異領域を前記断層画像上に重畳して表示手段に表示させる工程を有することを特徴とする請求項15乃至21のいずれか1項に記載の画像処理方法。   The method according to any one of claims 15 to 21, further comprising a step of causing a display unit to display a difference area indicating a difference between the detected layer and the curve on the tomographic image. Image processing method. 前記曲線を示す表示形態を前記断層画像上に重畳して表示手段に表示させる工程を有することを特徴とする請求項15乃至21のいずれか1項に記載の画像処理方法。   The image processing method according to any one of claims 15 to 21, further comprising a step of superimposing the display form indicating the curve on the tomographic image and displaying the display form on a display unit. 前記曲線を求める工程では、前記眼底の3次元断層画像を構成する複数の2次元断層画像それぞれに対して前記曲線を求めることを特徴とする請求項15乃至23のいずれか1項に記載の画像処理方法。   The image according to any one of claims 15 to 23, wherein in the step of obtaining the curve, the curve is obtained for each of a plurality of two-dimensional tomographic images constituting the three-dimensional tomographic image of the fundus. Processing method. 前記眼底の断層画像から層を検出する工程では、前記眼底の網膜色素上皮層に相当する前記断層画像中の層を検出することを特徴とする請求項15乃至24のいずれか1項に記載の画像処理方法。   25. The step of detecting a layer from the tomographic image of the fundus occupies a layer in the tomographic image corresponding to the retinal pigment epithelium layer of the fundus oculi. Image processing method. 前記眼底の断層画像から層を検出する工程では、前記断層画像からエッジ成分を前記層の境界として検出することを特徴とする請求項15乃至25のいずれか1項に記載の画像処理方法。   The image processing method according to any one of claims 15 to 25, wherein in the step of detecting a layer from the tomographic image of the fundus, an edge component is detected from the tomographic image as a boundary of the layer. 請求項15乃至26のいずれか1項に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。   27. A program for causing a computer to execute each step of the image processing method according to claim 15.
JP2013088518A 2013-04-19 2013-04-19 Image processing apparatus and image processing method Active JP5677502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013088518A JP5677502B2 (en) 2013-04-19 2013-04-19 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013088518A JP5677502B2 (en) 2013-04-19 2013-04-19 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009048514A Division JP5473358B2 (en) 2009-03-02 2009-03-02 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2013138963A true JP2013138963A (en) 2013-07-18
JP5677502B2 JP5677502B2 (en) 2015-02-25

Family

ID=49036940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013088518A Active JP5677502B2 (en) 2013-04-19 2013-04-19 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5677502B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007028531A1 (en) * 2005-09-09 2007-03-15 Carl Zeiss Meditec Ag Method of bioimage data processing for revealing more meaningful anatomic features of diseased tissues
JP2007225349A (en) * 2006-02-21 2007-09-06 Univ Of Tsukuba Image processing method for three-dimensional optical tomography image
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008073099A (en) * 2006-09-19 2008-04-03 Topcon Corp Fundus observation apparatus, fundus image display device, and fundus observation program
JP2008206684A (en) * 2007-02-26 2008-09-11 Topcon Corp Fundus oculi observation device, fundus oculi image processing device and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007028531A1 (en) * 2005-09-09 2007-03-15 Carl Zeiss Meditec Ag Method of bioimage data processing for revealing more meaningful anatomic features of diseased tissues
JP2009507537A (en) * 2005-09-09 2009-02-26 カール ツァイス メディテック アクチエンゲゼルシャフト A method for processing biological image data to reveal more meaningful anatomical features of diseased tissue
JP2007225349A (en) * 2006-02-21 2007-09-06 Univ Of Tsukuba Image processing method for three-dimensional optical tomography image
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008073099A (en) * 2006-09-19 2008-04-03 Topcon Corp Fundus observation apparatus, fundus image display device, and fundus observation program
JP2008206684A (en) * 2007-02-26 2008-09-11 Topcon Corp Fundus oculi observation device, fundus oculi image processing device and program

Also Published As

Publication number Publication date
JP5677502B2 (en) 2015-02-25

Similar Documents

Publication Publication Date Title
JP5473358B2 (en) Image processing apparatus, image processing method, and program
US9700210B2 (en) Image processing apparatus and method for controlling the same
JP4909377B2 (en) Image processing apparatus, control method therefor, and computer program
KR101318685B1 (en) Image processing apparatus, control method thereof, image processing method, tomography system, and storage medium
US9418423B2 (en) Motion correction and normalization of features in optical coherence tomography
JP6594033B2 (en) Image processing apparatus, image processing method, and program
KR101373935B1 (en) Ophthalmic apparatus, control method of an ophthalmic apparatus and computer readable storage medium
US9566002B2 (en) Image processing apparatus, image processing method, and program
JP4850927B2 (en) Image processing apparatus, image processing method, and computer program
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
JP5478914B2 (en) Image processing apparatus, image processing method, and program
JP5174232B2 (en) Image processing method, image processing apparatus, tomographic imaging system, and computer program
JP5241937B2 (en) Image processing apparatus and image processing method
JP5677502B2 (en) Image processing apparatus and image processing method
JP2017221742A (en) Image analysis apparatus, control method for image analysis apparatus, and program
JP5017486B2 (en) Image processing apparatus and image processing method
JP6868233B2 (en) Symmetry visualization device, symmetry visualization method and program
JP6033478B2 (en) Ophthalmic apparatus, layer thickness comparison method and program
JP5871890B2 (en) Ophthalmic apparatus, layer thickness comparison method and program
JP5677492B2 (en) Image processing apparatus and image processing method
JP5624532B2 (en) Image processing apparatus, image processing method, ophthalmic system, and computer program
JP5236094B2 (en) Image processing apparatus and image processing method
JP5017491B2 (en) Ophthalmic equipment
JP6223527B2 (en) Ophthalmic apparatus, layer thickness comparison method and program
JP6259391B2 (en) Image analysis apparatus, image analysis system, control method and program for image analysis apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141226

R151 Written notification of patent or utility model registration

Ref document number: 5677502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151