JP2010200920A - Image processing apparatus and method for controlling the same - Google Patents

Image processing apparatus and method for controlling the same Download PDF

Info

Publication number
JP2010200920A
JP2010200920A JP2009048520A JP2009048520A JP2010200920A JP 2010200920 A JP2010200920 A JP 2010200920A JP 2009048520 A JP2009048520 A JP 2009048520A JP 2009048520 A JP2009048520 A JP 2009048520A JP 2010200920 A JP2010200920 A JP 2010200920A
Authority
JP
Japan
Prior art keywords
layer
subject
predetermined layer
normal
tomographic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009048520A
Other languages
Japanese (ja)
Other versions
JP2010200920A5 (en
JP5478914B2 (en
Inventor
Kiyohide Sato
清秀 佐藤
Yoshihiko Iwase
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009048520A priority Critical patent/JP5478914B2/en
Priority to US12/714,798 priority patent/US9700210B2/en
Publication of JP2010200920A publication Critical patent/JP2010200920A/en
Publication of JP2010200920A5 publication Critical patent/JP2010200920A5/en
Application granted granted Critical
Publication of JP5478914B2 publication Critical patent/JP5478914B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mechanism for estimating a normal structure of a predetermined layer constituting an object with high accuracy. <P>SOLUTION: The image processing apparatus includes: an image acquisition unit 220 for acquiring a tomographic image of the object; an object information acquisition unit 210 for acquiring normal-time data of the predetermined layer that constitutes the object; a layer detection unit 251 for detecting the predetermined layer from the tomographic image obtained by the image acquisition unit 220; and a normal structure estimation unit 252 for estimating the normal structure of the predetermined layer, using the detection result of the predetermined layer detected by the layer detection unit 251 and the normal-time data of the predetermined layer obtained by the object information acquisition unit 210. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体の断層画像の処理を行う画像処理装置及びその制御方法、制御方法をコンピュータに実行させるためのプログラム、並びに、当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体に関するものである。   The present invention relates to an image processing apparatus for processing a tomographic image of a subject, a control method therefor, a program for causing a computer to execute the control method, and a computer-readable storage medium storing the program.

生活習慣病や失明原因の上位を占める各種疾病の早期診断を目的として、従来、被写体として眼部の撮像による検査が広く行われている。例えば光干渉断層計(Optical Coherence Tomography:以下「OCT」と称する)などを用いた眼部の断層画像取得装置は、眼部の網膜層内部の状態を3次元的に観察することが可能である。このため、この断層画像取得装置は、疾病の診断をより的確に行うために有用であると期待されている。   For the purpose of early diagnosis of various diseases that occupy the top causes of lifestyle-related diseases and blindness, examinations using imaging of the eye as a subject have been widely performed. For example, an tomographic image acquisition device for an eye using an optical coherence tomography (hereinafter referred to as “OCT”) or the like can three-dimensionally observe the state inside the retinal layer of the eye. . For this reason, this tomographic image acquisition apparatus is expected to be useful for more accurately diagnosing diseases.

ここで、OCTを用いて撮影された眼部の断層画像(断層画像)について説明する。
図10は、OCTを用いて撮影された眼部の網膜の層構造の一例を示す模式図である。
Here, a tomographic image (tomographic image) of the eye taken using OCT will be described.
FIG. 10 is a schematic diagram showing an example of the layer structure of the retina of the eye taken using OCT.

具体的に、図10には、網膜の黄斑部における層構造の一例が示されている。一般的に、OCTによる眼部の断層画像は3次元的に得られるものであるが、図10では説明を簡単にするために、その一断面を2次元的に表記している。   Specifically, FIG. 10 shows an example of a layer structure in the macular portion of the retina. In general, a tomographic image of the eye by OCT is obtained three-dimensionally, but in order to simplify the explanation, one cross-section is shown two-dimensionally in FIG.

図10において、1001は網膜色素上皮層、1002は神経線維層、1003は内境界膜を表している。例えば、図10(a)に示すような断層画像が入力された場合に、神経線維層1002の厚み(図10(a)のT1)や網膜層全体の厚み(図10(a)のT2)を計測できれば、緑内障などの疾病の進行度や治療後の回復具合を定量的に診断することが可能となる。   In FIG. 10, reference numeral 1001 denotes a retinal pigment epithelium layer, 1002 denotes a nerve fiber layer, and 1003 denotes an inner limiting membrane. For example, when a tomographic image as shown in FIG. 10A is input, the thickness of the nerve fiber layer 1002 (T1 in FIG. 10A) and the thickness of the entire retinal layer (T2 in FIG. 10A) Can be measured quantitatively to diagnose the degree of progression of diseases such as glaucoma and the degree of recovery after treatment.

従来、これらの層の厚みを計測するためには、3次元的に撮像される断層画像から注目断面を切り出した2次元断層画像(B−scan画像)上において、医師や技師が手動で網膜の各層の境界を指定する必要があった。例えば、図10(a)の神経線維層1002の厚み(T1)を調べるためには、図10(b)に示すように、内境界膜1003と、神経線維層1002とその下部の層との境界(以下、「神経線維層境界」1004と称する)とを、断層画像上で指定する必要があった。また、網膜層全体の厚み(図10(a)のT2)を調べるためには、さらに、網膜色素上皮層1001とその下部の層との境界(以下、「網膜色素上皮層境界」1005と称する)を断層画像上で指定する必要があった。   Conventionally, in order to measure the thickness of these layers, a doctor or an engineer manually operates a retina on a two-dimensional tomographic image (B-scan image) obtained by cutting a cross section of interest from a tomographic image that is three-dimensionally imaged. It was necessary to specify the boundary of each layer. For example, in order to examine the thickness (T1) of the nerve fiber layer 1002 in FIG. 10 (a), as shown in FIG. 10 (b), the inner boundary membrane 1003, the nerve fiber layer 1002, and the lower layer thereof are separated. It was necessary to designate a boundary (hereinafter referred to as “nerve fiber layer boundary” 1004) on the tomographic image. Further, in order to examine the thickness of the entire retinal layer (T2 in FIG. 10A), the boundary between the retinal pigment epithelium layer 1001 and the lower layer (hereinafter referred to as “retinal pigment epithelium layer boundary” 1005). ) On the tomographic image.

また、各層厚の3次元的な分布を得るためには、3次元断層画像を幾つかの2次元断層画像の集合と捕らえて、それぞれの2次元断層画像上において注目する層の境界を指定する必要があった。   In order to obtain a three-dimensional distribution of each layer thickness, the three-dimensional tomographic image is regarded as a set of several two-dimensional tomographic images, and the boundary of the layer of interest is designated on each two-dimensional tomographic image. There was a need.

しかしながら、層の境界を手動で指定する作業は、医師や技師の作業者にとって負担の掛かるものであった。また、層の境界を手動で指定する作業は、その作業者や作業日時の相違に起因するばらつきが発生するため、期待する精度で定量化を行うことが難しかった。この作業者の負担や作業におけるばらつきの軽減を目的として、コンピュータが断層画像から網膜の各層の境界を検出して、各層の厚みを計測する技術が提案されている(例えば、下記の特許文献1及び特許文献2参照)。   However, the task of manually specifying the layer boundaries is a burden for doctors and engineers. In addition, it is difficult to manually quantify the layer boundaries because it causes variations due to differences in the workers and work dates and times. For the purpose of reducing the burden on workers and variations in work, a technique has been proposed in which a computer detects the boundary of each layer of the retina from a tomographic image and measures the thickness of each layer (for example, Patent Document 1 below). And Patent Document 2).

また、加齢黄斑変性のような疾病においては、病状に応じて網膜色素上皮層の形状が凹凸に変形する。そのため、その変形の度合いを定量化することが病状の把握に有効である。   Moreover, in diseases such as age-related macular degeneration, the shape of the retinal pigment epithelium layer is deformed into irregularities according to the disease state. Therefore, quantifying the degree of deformation is effective for understanding the medical condition.

図10(a)には、正常眼における網膜の層構造の一例が示されており、また、図10(c)には、加齢黄斑変性における網膜の層構造の一例が示されている。図10(a)に示す正常眼における網膜色素上皮層1001は、滑らかなカーブを有する構造を成している。一方、図10(c)に示す加齢黄斑変性における網膜色素上皮層1001は、その領域の一部が上下に波打った形状となっている。   FIG. 10 (a) shows an example of the layer structure of the retina in a normal eye, and FIG. 10 (c) shows an example of the layer structure of the retina in age-related macular degeneration. The retinal pigment epithelium layer 1001 in the normal eye shown in FIG. 10A has a structure having a smooth curve. On the other hand, the retinal pigment epithelium layer 1001 in age-related macular degeneration shown in FIG. 10 (c) has a shape in which a part of the region is waved up and down.

以下の説明においては、疾病になる前の正常時であれば網膜色素上皮層境界が存在したであろう境界の推定位置を、「網膜色素上皮層境界の正常構造」、または、単に「正常構造」と称する。また、OCTを用いた加齢黄斑変性の診断方法として、断層画像上で観察可能な現実の網膜色素上皮層境界(実測値:図10(d)の実線1005)と、同断層画像上におけるその正常構造(推定値:図10(d)の破線1006)とを得る。そして、断層画像上で観察可能な現実の網膜色素上皮層境界(1005)と、同断層画像上におけるその正常構造(1006)との差異部分(図10(d)の斜線部分)のなす断面ごとの面積や全体の体積などによって、病気の状態を定量化することが行われている。   In the following description, the estimated position of the boundary where the retinal pigment epithelial layer boundary would have existed at the normal time before illness is referred to as “normal structure of the retinal pigment epithelial layer boundary” or simply “normal structure”. ". In addition, as a method for diagnosing age-related macular degeneration using OCT, an actual retinal pigment epithelial layer boundary that can be observed on a tomographic image (actually measured value: solid line 1005 in FIG. 10 (d)) and its on the tomographic image A normal structure (estimated value: broken line 1006 in FIG. 10D) is obtained. Then, for each cross section formed by the difference between the actual retinal pigment epithelium layer boundary (1005) observable on the tomographic image and the normal structure (1006) on the tomographic image (the hatched portion in FIG. 10 (d)). The state of the disease is quantified by the area and the total volume of the disease.

しかしながら、この作業も、従来は、医師や技師の手作業によって行われることが多く、その負担やその結果のばらつきが課題となっている。そのため、断層画像からの網膜色素上皮層境界の検出と、その正常構造の推定を自動化することが求められている。   However, conventionally, this work is also often performed manually by a doctor or engineer, and the burden and variations in the results are problematic. Therefore, it is required to automate the detection of the retinal pigment epithelium layer boundary from the tomographic image and the estimation of its normal structure.

上述した網膜色素上皮層境界の検出は、特許文献1や特許文献2に開示されている技術によって行うことができる。一方、その正常構造は、断層画像上の画像特徴としては観測できないので、特許文献1や特許文献2の技術では推定することができない。そこで、従来、2次元断層画像(B−scan画像)から検出した網膜色素上皮層境界に対して二乗誤差が最小となるようにあてはめた楕円曲線を、その正常構造として用いることがしばしばなされている。   The above-described detection of the retinal pigment epithelium layer boundary can be performed by the techniques disclosed in Patent Document 1 and Patent Document 2. On the other hand, since the normal structure cannot be observed as an image feature on the tomographic image, it cannot be estimated by the techniques of Patent Document 1 and Patent Document 2. Therefore, conventionally, an elliptic curve fitted to minimize the square error with respect to the retinal pigment epithelium layer boundary detected from a two-dimensional tomographic image (B-scan image) is often used as its normal structure. .

なお、網膜色素上皮層1001は非常に薄い層であるため、一般的に、網膜色素上皮層境界1005をもって、「網膜色素上皮層」と呼ぶ場合がある。その慣例に倣う場合には、以下の説明において、「網膜色素上皮層境界」を「網膜色素上皮層」、「網膜色素上皮層境界の正常構造」を「網膜色素上皮層の正常構造」と読み替えてもよい。   Since the retinal pigment epithelium layer 1001 is a very thin layer, the retinal pigment epithelium layer boundary 1005 is generally sometimes referred to as a “retinal pigment epithelium layer”. To follow that convention, in the following explanation, “retinal pigment epithelial layer boundary” is read as “retinal pigment epithelial layer boundary” and “normal structure of retinal pigment epithelial layer boundary” is read as “normal structure of retinal pigment epithelial layer”. May be.

特開2008−73099号公報JP 2008-73099 A 特開2007−325831号公報JP 2007-325831 A

しかしながら、上述した、従来の最小二乗法による楕円曲線のあてはめによって推定した正常構造は、実際の正常構造とは一致しない場合が多い。そのため、検出した現実の層境界との差異に基づく面積を求めたとしても、病状を定量化する尺度として用いるのには、信頼性が不十分な場合があった。
また、血管や白斑などの影響により網膜色素上皮層境界1005が断層画像上において明確に観測できない(画像特徴が得られない)部分がある場合に、その検出を行うことができないという課題があった。
However, the normal structure estimated by fitting the elliptic curve by the conventional least square method described above often does not match the actual normal structure. Therefore, even if the area based on the difference from the detected actual layer boundary is obtained, the reliability may not be sufficient for use as a scale for quantifying the medical condition.
In addition, when there is a portion where the retinal pigment epithelium layer boundary 1005 cannot be clearly observed on a tomographic image due to the influence of blood vessels or vitiligo (image characteristics cannot be obtained), there is a problem that the detection cannot be performed. .

本発明は、このような問題点に鑑みてなされたものであり、被写体を構成する所定の層の正常構造を精度良く推定する仕組みを提供することを目的とする。また、本発明は、被写体を構成する所定の層境界の一部が断層像上において観測困難な場合であっても、その所定の層の検出を精度よく行えるようにすることを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide a mechanism for accurately estimating the normal structure of a predetermined layer constituting a subject. It is another object of the present invention to accurately detect a predetermined layer even when a part of a predetermined layer boundary constituting the subject is difficult to observe on a tomographic image.

本発明の画像処理装置は、被写体の断層画像を取得する画像取得手段と、前記被写体を構成する所定の層の正常時データを取得する被写体情報取得手段と、前記断層画像から前記所定の層を検出する層検出手段と、前記層検出手段による前記所定の層の検出結果と、前記被写体情報取得手段で取得された当該所定の層の正常時データとを用いて、前記所定の層の正常構造を推定する正常構造推定手段とを有する。
本発明の画像処理装置における他の態様は、被写体の断層画像を取得する画像取得手段と、前記被写体を構成する所定の層の正常時データを取得する被写体情報取得手段と、前記被写体情報取得手段で取得された前記所定の層の正常時データを利用して、前記断層画像から前記所定の層を検出する層検出手段とを有する。
The image processing apparatus of the present invention includes an image acquisition unit that acquires a tomographic image of a subject, a subject information acquisition unit that acquires normal time data of a predetermined layer constituting the subject, and the predetermined layer from the tomographic image. A normal structure of the predetermined layer using a layer detection unit to detect, a detection result of the predetermined layer by the layer detection unit, and normal data of the predetermined layer acquired by the subject information acquisition unit And normal structure estimating means for estimating.
According to another aspect of the image processing apparatus of the present invention, an image acquisition unit that acquires a tomographic image of a subject, a subject information acquisition unit that acquires normal time data of a predetermined layer that constitutes the subject, and the subject information acquisition unit And layer detecting means for detecting the predetermined layer from the tomographic image using the normal data of the predetermined layer acquired in step (1).

本発明の画像処理装置の制御方法は、被写体の断層画像の処理を行う画像処理装置の制御方法であって、前記被写体の断層画像を取得する画像取得ステップと、前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、前記断層画像から前記所定の層を検出する層検出ステップと、前記層検出ステップによる前記所定の層の検出結果と、前記被写体情報取得ステップで取得された当該所定の層の正常時データとを用いて、前記所定の層の正常構造を推定する正常構造推定ステップとを有する。
本発明の画像処理装置の制御方法における他の態様は、被写体の断層画像の処理を行う画像処理装置の制御方法であって、被写体の断層画像を取得する画像取得ステップと、前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、前記被写体情報取得ステップで取得された前記所定の層の正常時データを利用して、前記断層画像から前記所定の層を検出する層検出ステップとを有する。
An image processing apparatus control method according to the present invention is an image processing apparatus control method for processing a tomographic image of a subject, an image acquisition step of acquiring the tomographic image of the subject, and a predetermined layer constituting the subject Acquired in the subject information acquisition step for acquiring normal data, the layer detection step for detecting the predetermined layer from the tomographic image, the detection result of the predetermined layer by the layer detection step, and the subject information acquisition step A normal structure estimation step of estimating a normal structure of the predetermined layer using the normal data of the predetermined layer.
Another aspect of the control method for an image processing apparatus according to the present invention is a control method for an image processing apparatus that performs processing of a tomographic image of a subject. The image acquisition step for acquiring a tomographic image of a subject and the subject are configured. A subject information acquisition step for acquiring normal data of a predetermined layer, and a layer for detecting the predetermined layer from the tomographic image using the normal data of the predetermined layer acquired in the subject information acquisition step Detecting step.

本発明のプログラムは、被写体の断層画像の処理を行う画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、前記被写体の断層画像を取得する画像取得ステップと、前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、前記断層画像から前記所定の層を検出する層検出ステップと、前記層検出ステップによる前記所定の層の検出結果と、前記被写体情報取得ステップで取得された当該所定の層の正常時データとを用いて、前記所定の層の正常構造を推定する正常構造推定ステップとをコンピュータに実行させるためのものである。
本発明のプログラムにおける他の態様は、被写体の断層画像の処理を行う画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、被写体の断層画像を取得する画像取得ステップと、前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、前記被写体情報取得ステップで取得された前記所定の層の正常時データを利用して、前記断層画像から前記所定の層を検出する層検出ステップとをコンピュータに実行させるためのものである。
A program according to the present invention is a program for causing a computer to execute a control method of an image processing apparatus that processes a tomographic image of a subject, and that configures the subject and an image acquisition step of acquiring the tomographic image of the subject. A subject information acquisition step for acquiring normal data of a predetermined layer; a layer detection step for detecting the predetermined layer from the tomographic image; a detection result of the predetermined layer by the layer detection step; and the subject information acquisition. The normal structure estimation step of estimating the normal structure of the predetermined layer using the normal time data of the predetermined layer acquired in the step is executed by a computer.
Another aspect of the program of the present invention is a program for causing a computer to execute a control method of an image processing apparatus that processes a tomographic image of a subject, an image acquisition step of acquiring a tomographic image of the subject, and the subject Subject information acquisition step for acquiring normal time data of a predetermined layer constituting the predetermined layer, and using the normal time data of the predetermined layer acquired in the subject information acquisition step, the predetermined layer is extracted from the tomographic image. This is for causing a computer to execute a layer detection step for detection.

本発明のコンピュータ読み取り可能な記憶媒体は、前記プログラムを記憶する。   The computer-readable storage medium of the present invention stores the program.

本発明によれば、被写体を構成する所定の層の正常構造を精度良く推定することができる。これにより、被写体における疾病の進行度や治療後の回復具合等を定量化することが可能となる。また、被写体を構成する所定の層境界の一部が断層画像上において観測困難な場合であっても、その所定の層の検出を精度良く行うことができる。   According to the present invention, it is possible to accurately estimate the normal structure of a predetermined layer constituting a subject. This makes it possible to quantify the degree of disease progression in the subject, the degree of recovery after treatment, and the like. Further, even when a part of the predetermined layer boundary constituting the subject is difficult to observe on the tomographic image, the predetermined layer can be detected with high accuracy.

本発明の第1の実施形態に係る画像処理システムの概略構成の一例を示す模式図である。1 is a schematic diagram illustrating an example of a schematic configuration of an image processing system according to a first embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置のハードウェア構成の一例を示す模式図である。It is a schematic diagram which shows an example of the hardware constitutions of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の機能構成の一例を示す模式図である。It is a schematic diagram which shows an example of a function structure of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置の制御方法の処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a processing procedure of a control method of the image processing apparatus according to the first embodiment of the present invention. 図4のステップS106における「網膜色素上皮層の正常時処理」の詳細な処理手順の一例を示すフローチャートである。5 is a flowchart showing an example of a detailed processing procedure of “normal processing of retinal pigment epithelial layer” in step S106 of FIG. 図4のステップS107における「網膜色素上皮層の異常時処理」の詳細な処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of a detailed processing procedure of “retinal pigment epithelial layer abnormality processing” in step S107 of FIG. 4; 本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定する際に利用する重み関数の一例を示す模式図である。It is a schematic diagram which shows the 1st Embodiment of this invention and shows an example of the weight function utilized when estimating the normal structure of the layer contained in a tomographic image. 本発明の第2の実施形態に係る画像処理装置の機能構成の一例を示す模式図である。It is a schematic diagram which shows an example of a function structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置の制御方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the control method of the image processing apparatus which concerns on the 2nd Embodiment of this invention. OCTを用いて撮影された眼部の網膜の層構造の一例を示す模式図である。It is a schematic diagram which shows an example of the layer structure of the retina of the eye | photography part image | photographed using OCT.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。なお、以下に示す実施形態は、一例に過ぎず、本発明は、図示された構成等に限定されるものではない。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The embodiment described below is only an example, and the present invention is not limited to the illustrated configuration.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理システム100の概略構成の一例を示す模式図である。
(First embodiment)
First, a first embodiment of the present invention will be described.
FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of an image processing system 100 according to the first embodiment of the present invention.

図1に示すように、画像処理システム100は、画像処理装置110と、断層画像撮像装置120と、データサーバ130と、ローカルエリアネットワーク(LAN)140を有して構成されている。即ち、図1に示す画像処理システム100は、画像処理装置110が、LAN140を介して、断層画像撮像装置120及びデータサーバ130に接続される構成となっている。   As shown in FIG. 1, the image processing system 100 includes an image processing device 110, a tomographic image capturing device 120, a data server 130, and a local area network (LAN) 140. That is, the image processing system 100 illustrated in FIG. 1 is configured such that the image processing apparatus 110 is connected to the tomographic image capturing apparatus 120 and the data server 130 via the LAN 140.

なお、図1に示す例では、画像処理装置110と、断層画像撮像装置120及びデータサーバ130との接続をLAN140により行う形態について示しているが、本実施形態においては、これに限定されるものではない。例えば、LAN140に換えて、USBやIEEE1394等のインターフェイスを用いる形態であっても、また、インターネット等の外部ネットワークを用いる形態であってもよい。   In the example shown in FIG. 1, the image processing apparatus 110, the tomographic image capturing apparatus 120, and the data server 130 are connected via the LAN 140. However, in the present embodiment, the present invention is not limited to this. is not. For example, instead of the LAN 140, an interface such as USB or IEEE1394 may be used, or an external network such as the Internet may be used.

本実施形態に係る画像処理装置110は、例えば、断層画像撮像装置120で撮像された被写体(本例では眼部(黄斑部);「被検眼」ともいう)の断層画像を取得し、当該断層画像から、眼部を構成する層の境界を検出する。そして、画像処理装置110は、操作者(技師や医師)の指示に応じて所定の疾病を前提とした解析処理を実行し、当該疾病の定量化処理を行う。なお、本実施形態では、被写体の一例として、被検眼(眼部)を適用する例を示すが、本発明においては、これに限定されるものではなく、断層画像として撮像対象になるものであれば適用可能である。   The image processing apparatus 110 according to the present embodiment acquires, for example, a tomographic image of a subject (in this example, an eye part (macular region); also referred to as “eye to be examined”) imaged by the tomographic image imaging apparatus 120, From the image, the boundary of the layer constituting the eye is detected. Then, the image processing apparatus 110 performs an analysis process based on a predetermined disease in accordance with an instruction from an operator (engineer or doctor), and performs a quantification process of the disease. In the present embodiment, an example in which the eye to be examined (eye part) is applied as an example of the subject is shown. However, the present invention is not limited to this, and may be an imaging target as a tomographic image. If applicable.

ここで、画像処理装置110は、操作者により「網膜色素上皮層の正常時処理」が指示された場合には、緑内障等の検査のための解析処理を行う。この場合、画像処理装置110は、例えば、図10(b)に示すように、内境界膜1003、神経線維層境界1004及び網膜色素上皮層境界1005を断層画像から検出し、図10(a)に示す神経線維層1002の厚みや網膜層全体の厚みを計測する。   Here, the image processing apparatus 110 performs an analysis process for examination of glaucoma or the like when the operator instructs “normal processing of the retinal pigment epithelium layer”. In this case, for example, as shown in FIG. 10B, the image processing apparatus 110 detects the inner boundary membrane 1003, the nerve fiber layer boundary 1004, and the retinal pigment epithelium layer boundary 1005 from the tomographic image, and FIG. The thickness of the nerve fiber layer 1002 shown in FIG.

一方、画像処理装置110は、操作者より「網膜色素上皮層の異常時処理」が指示された場合には、加齢黄斑変性等の検査のための解析処理を行う。この場合、画像処理装置110は、例えば、図10(d)に示すように、内境界膜1003及び網膜色素上皮層境界1005を断層画像から検出し、さらに、網膜色素上皮層境界の正常構造1006を推定する。そして、画像処理装置110は、網膜層全体の厚みを計測すると共に、網膜色素上皮層1001の状態(具体的には、網膜色素上皮層1001の乱れ)を定量化する処理を行う。   On the other hand, the image processing apparatus 110 performs analysis processing for examination such as age-related macular degeneration when the operator instructs “processing when the retinal pigment epithelium layer is abnormal”. In this case, for example, as shown in FIG. 10D, the image processing apparatus 110 detects the inner boundary film 1003 and the retinal pigment epithelium layer boundary 1005 from the tomographic image, and further, the normal structure 1006 of the retinal pigment epithelium layer boundary. Is estimated. The image processing apparatus 110 measures the thickness of the entire retinal layer and quantifies the state of the retinal pigment epithelium layer 1001 (specifically, the disturbance of the retinal pigment epithelium layer 1001).

断層画像撮像装置120は、例えば被写体として眼部等の断層画像を撮像する装置であり、例えば、タイムドメイン方式のOCTやフーリエドメイン方式のOCTを備えて構成されている。断層画像撮像装置120は、操作者による操作に応じて、不図示の被検者(患者)の眼部(黄斑部)等の断層画像を3次元的に撮像する。そして、断層画像撮像装置120は、得られた断層画像を画像処理装置110へ送信する。   The tomographic image capturing apparatus 120 is an apparatus that captures a tomographic image of an eye part or the like as a subject, for example, and includes, for example, a time domain type OCT or a Fourier domain type OCT. The tomographic image capturing apparatus 120 three-dimensionally captures a tomographic image of an eye (macular region) of a subject (patient) (not shown) according to an operation by an operator. Then, the tomographic image capturing apparatus 120 transmits the obtained tomographic image to the image processing apparatus 110.

データサーバ130は、被写体である眼部等の断層画像データやその解析結果データ(層の境界データや定量化した数値データなど)を保持するサーバである。データサーバ130は、画像処理装置110(或いは断層画像撮像装置120)が出力する眼部等の断層画像データやその解析結果データを保存する。また、データサーバ130は、画像処理装置110からの要求に応じて、当該被写体(被検眼)に関する過去のデータを画像処理装置110へ送信する。   The data server 130 is a server that holds tomographic image data of a subject's eye or the like and analysis result data (layer boundary data, quantified numerical data, and the like). The data server 130 stores tomographic image data of the eye part and the like and the analysis result data output from the image processing apparatus 110 (or tomographic image capturing apparatus 120). Further, the data server 130 transmits past data related to the subject (eye to be examined) to the image processing apparatus 110 in response to a request from the image processing apparatus 110.

次に、図1に示す画像処理装置110のハードウェア構成について説明する。
図2は、本発明の第1の実施形態に係る画像処理装置110のハードウェア構成の一例を示す模式図である。
Next, a hardware configuration of the image processing apparatus 110 illustrated in FIG. 1 will be described.
FIG. 2 is a schematic diagram illustrating an example of a hardware configuration of the image processing apparatus 110 according to the first embodiment of the present invention.

図2に示すように、画像処理装置110は、CPU111、RAM112、ROM113、外部記憶装置114、モニタ115、キーボード116、マウス117、通信インターフェイス118、及び、バス119の各ハードウェア構成を有して構成されている。   As shown in FIG. 2, the image processing apparatus 110 has hardware configurations of a CPU 111, a RAM 112, a ROM 113, an external storage device 114, a monitor 115, a keyboard 116, a mouse 117, a communication interface 118, and a bus 119. It is configured.

CPU111は、ROM113或いは外部記憶装置114に格納されたプログラムやデータを用いて、当該画像処理装置110全体の制御を行う。   The CPU 111 controls the image processing apparatus 110 as a whole using programs and data stored in the ROM 113 or the external storage device 114.

RAM112は、外部記憶装置114(或いはROM113)からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU111が各種の処理を行うために必要とするワークエリアを備える。   The RAM 112 includes an area for temporarily storing programs and data loaded from the external storage device 114 (or the ROM 113), and a work area required for the CPU 111 to perform various processes.

ROM113には、一般に、コンピュータのBIOSや設定データなどが格納されている。   The ROM 113 generally stores a computer BIOS and setting data.

外部記憶装置114は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であり、例えば、オペレーティングシステムやCPU111が実行するプログラム等を保存する。また、本実施形態の説明において既知の各種の情報やデータは、外部記憶装置114に保存されており、必要に応じて、RAM112にロードされる。なお、本例では、CPU111が実行するプログラムは、外部記憶装置114に記憶されているものとするが、例えば、ROM113に記憶されている形態であってもよい。   The external storage device 114 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores, for example, an operating system, a program executed by the CPU 111, and the like. Also, various types of information and data known in the description of the present embodiment are stored in the external storage device 114 and loaded into the RAM 112 as necessary. In this example, the program executed by the CPU 111 is stored in the external storage device 114, but may be stored in the ROM 113, for example.

モニタ115は、例えば、液晶ディスプレイなどにより構成されている。   The monitor 115 is composed of, for example, a liquid crystal display.

キーボード116及びマウス117は、入力デバイスを構成するものであり、操作者は、これらの入力デバイスを用いて、各種の指示を画像処理装置110に与えることができる。   The keyboard 116 and the mouse 117 constitute input devices, and the operator can give various instructions to the image processing apparatus 110 using these input devices.

通信インターフェイス118は、画像処理装置110が外部装置との間で各種のデータの通信を行うためのものであり、例えば、IEEE1394やUSB、イーサネット(登録商標)ポート等によって構成されている。通信インターフェイス118を介して取得されたデータは、外部記憶装置114に取り込まれ、その後、必要に応じて、RAM112にロードされる。   The communication interface 118 is for the image processing apparatus 110 to communicate various data with an external apparatus, and is configured by, for example, IEEE 1394, USB, Ethernet (registered trademark) port, or the like. Data acquired via the communication interface 118 is taken into the external storage device 114 and then loaded into the RAM 112 as necessary.

バス119は、画像処理装置110の内部の各構成要素(111〜118)を相互に通信可能に接続するものである。   The bus 119 connects the components (111 to 118) inside the image processing apparatus 110 so that they can communicate with each other.

次に、画像処理装置110の機能構成(ソフトウェア構成)について説明する。
図3は、本発明の第1の実施形態に係る画像処理装置110の機能構成の一例を示す模式図である。
Next, a functional configuration (software configuration) of the image processing apparatus 110 will be described.
FIG. 3 is a schematic diagram illustrating an example of a functional configuration of the image processing apparatus 110 according to the first embodiment of the present invention.

図3に示すように、画像処理装置110は、被写体情報取得部210、画像取得部220、指示取得部230、記憶部240、画像処理部250、表示部260、及び、結果出力部270の各機能構成を有して構成されている。   As illustrated in FIG. 3, the image processing apparatus 110 includes a subject information acquisition unit 210, an image acquisition unit 220, an instruction acquisition unit 230, a storage unit 240, an image processing unit 250, a display unit 260, and a result output unit 270. It has a functional configuration.

ここで、本実施形態においては、例えば、図2に示すCPU111及び外部記憶装置114に記憶されているプログラム、並びに、キーボード116及びマウス117の入力デバイスから、図3に示す被写体情報取得部210及び指示取得部230が構成される。また、例えば、図2に示すCPU111及び外部記憶装置114に記憶されているプログラム、並びに、通信インターフェイス118から、図3に示す画像取得部220及び結果出力部270が構成される。また、例えば、図2に示すRAM112、ROM113或いは外部記憶装置114から、図3に示す記憶部240が構成される。また、例えば、図2に示すCPU111及び外部記憶装置114に記憶されているプログラムから、図3に示す画像処理部250が構成される。また、例えば、図2に示すCPU111及び外部記憶装置114に記憶されているプログラム、並びに、モニタ115から、表示部260が構成される。   Here, in the present embodiment, for example, from the programs stored in the CPU 111 and the external storage device 114 shown in FIG. 2 and the input devices of the keyboard 116 and the mouse 117, the subject information acquisition unit 210 shown in FIG. An instruction acquisition unit 230 is configured. For example, the image acquisition unit 220 and the result output unit 270 illustrated in FIG. 3 are configured from the programs stored in the CPU 111 and the external storage device 114 illustrated in FIG. 2 and the communication interface 118. Further, for example, the RAM 112, the ROM 113, or the external storage device 114 shown in FIG. 2 constitutes the storage unit 240 shown in FIG. Further, for example, the image processing unit 250 shown in FIG. 3 is configured from the programs stored in the CPU 111 and the external storage device 114 shown in FIG. In addition, for example, the display unit 260 includes the program stored in the CPU 111 and the external storage device 114 shown in FIG.

被写体情報取得部210は、被写体(被検眼)を同定する情報を、例えば、キーボード116及びマウス117の入力デバイスを介した操作者の入力により取得する。ここで、被写体(被検眼)を同定する情報とは、例えば、それぞれの被写体(被検眼)に割りあてられた識別番号である。なお、これ以外に、被写体(被検眼)を同定する情報として、被検者の識別番号と、検査対象が右眼であるか左眼であるかを表す識別子を組み合わせて用いてもよい。さらに、被写体情報取得部210は、被写体(被検眼)を同定する情報に基づいて、データサーバ130が保持している当該被写体(被検眼)に関する情報を取得する処理を行う。   The subject information acquisition unit 210 acquires information for identifying a subject (eye to be examined) by an operator's input via the keyboard 116 and the input device of the mouse 117, for example. Here, the information for identifying a subject (eye to be examined) is, for example, an identification number assigned to each subject (eye to be examined). In addition to this, as the information for identifying the subject (eye to be examined), a subject identification number and an identifier indicating whether the examination target is the right eye or the left eye may be used in combination. Furthermore, the subject information acquisition unit 210 performs processing for acquiring information on the subject (eye to be examined) held by the data server 130 based on information for identifying the subject (eye to be examined).

なお、本例では、操作者により入力デバイスを介して被写体(被検眼)を同定する情報を取得するようにしているが、この形態に限定されるものではない。例えば、被写体(被検眼)を同定する情報を断層画像撮像装置120が保持している場合には、断層画像と共に当該情報を断層画像撮像装置120から取得する構成としてもよい。   In this example, information for identifying a subject (eye to be examined) is acquired by an operator via an input device. However, the present invention is not limited to this form. For example, when the tomographic image capturing apparatus 120 holds information for identifying a subject (eye to be examined), the information may be acquired from the tomographic image capturing apparatus 120 together with the tomographic image.

画像取得部220は、断層画像撮像装置120に対して所定の断層画像の送信を要求し、断層画像撮像装置120から送信される断層画像を取得する処理を行う。なお、以下の説明では、画像取得部220が取得する断層画像は、被写体情報取得部210において同定される被写体(被検眼)のものであることを前提とする。また、画像取得部220が取得する断層画像には、当該断層画像の撮像に関する各種のパラメータが情報として付帯しているものとする。   The image acquisition unit 220 requests the tomographic image capturing apparatus 120 to transmit a predetermined tomographic image, and performs processing for acquiring the tomographic image transmitted from the tomographic image capturing apparatus 120. In the following description, it is assumed that the tomographic image acquired by the image acquisition unit 220 is that of a subject (eye to be examined) identified by the subject information acquisition unit 210. In addition, it is assumed that the tomographic image acquired by the image acquisition unit 220 includes various parameters related to the imaging of the tomographic image as information.

指示取得部230は、操作者が入力デバイスを介して入力する処理の指示を取得する。例えば、指示取得部230は、前述した解析処理(「網膜色素上皮層の正常時処理」または「網膜色素上皮層の異常時処理」)のいずれを実行するかの指示を取得する。また、指示取得部230は、解析処理の中断、終了、解析結果を保存するか否かの指示や保存場所の指示等を取得する。そして、指示取得部230は、必要に応じて、取得した指示の内容を画像処理部250や結果出力部270へ送信する。   The instruction acquisition unit 230 acquires an instruction for processing that the operator inputs through the input device. For example, the instruction acquisition unit 230 acquires an instruction as to which of the above-described analysis processing (“normal processing of the retinal pigment epithelium layer” or “abnormal processing of the retinal pigment epithelium layer”) is to be executed. Also, the instruction acquisition unit 230 acquires an instruction to interrupt or end the analysis process, whether to save the analysis result, an instruction for a storage location, or the like. Then, the instruction acquisition unit 230 transmits the content of the acquired instruction to the image processing unit 250 and the result output unit 270 as necessary.

記憶部240は、被写体情報取得部210が取得した被写体(被検眼)に関する情報を一時的に記憶して保持する。また、記憶部240は、画像取得部220が取得した当該被写体(被検眼)の断層画像を一時的に記憶して保持する。さらに、記憶部240は、後述する画像処理部250による断層画像の解析結果を一時的に記憶して保持する。記憶部240に記憶されたこれらのデータは、必要に応じて、画像処理部250、表示部260及び結果出力部270へ送信される。   The storage unit 240 temporarily stores and holds information about the subject (eye to be examined) acquired by the subject information acquisition unit 210. The storage unit 240 temporarily stores and holds the tomographic image of the subject (eye to be examined) acquired by the image acquisition unit 220. Further, the storage unit 240 temporarily stores and holds a tomographic image analysis result by the image processing unit 250 described later. These data stored in the storage unit 240 are transmitted to the image processing unit 250, the display unit 260, and the result output unit 270 as necessary.

画像処理部250は、記憶部240から断層画像を入力し、指示取得部230が取得した指示に従って、所定の疾病を前提とした解析処理を当該断層画像に対して実行する。ここで、画像処理部250は、図3に示すように、層検出部251、正常構造推定部252及び定量化部253を備えて構成されている。   The image processing unit 250 inputs a tomographic image from the storage unit 240, and executes analysis processing on the tomographic image based on a predetermined disease in accordance with the instruction acquired by the instruction acquisition unit 230. Here, as shown in FIG. 3, the image processing unit 250 includes a layer detection unit 251, a normal structure estimation unit 252, and a quantification unit 253.

層検出部251は、記憶部240から取得した断層画像から、被写体(被検眼)を構成する所定の層(具体的に、本例では、図10に示す内境界膜1003と網膜色素上皮層境界1005)を検出する処理を行う。また、層検出部251は、「網膜色素上皮層の正常時処理」が指示されている場合には、図10に示す神経線維層境界1004を更に検出する。この層検出部251が実行する具体的な処理の内容については、後述する。   The layer detection unit 251 determines a predetermined layer (specifically, in this example, the inner boundary film 1003 and the retinal pigment epithelial layer boundary shown in FIG. 10) constituting the subject (eye to be examined) from the tomographic image acquired from the storage unit 240. 1005) is detected. Further, when “normal processing of the retinal pigment epithelium layer” is instructed, the layer detection unit 251 further detects the nerve fiber layer boundary 1004 shown in FIG. Details of specific processing executed by the layer detection unit 251 will be described later.

正常構造推定部252は、「網膜色素上皮層の異常時処理」が指示されている場合に、層検出部251で検出された所定の層の正常構造(本例では、網膜色素上皮層(境界)の正常構造(図10(d)の1006)を推定する処理を行う。一方、正常構造推定部252は、「網膜色素上皮層の正常時処理」が指示されている場合には、何の処理も実行しない。この正常構造推定部252が実行する具体的な処理の内容については、後述する。   When the “retinal pigment epithelium layer abnormality processing” is instructed, the normal structure estimation unit 252 has a normal structure of a predetermined layer detected by the layer detection unit 251 (in this example, the retinal pigment epithelium layer (boundary ) Is estimated (1006 in FIG. 10 (d)) On the other hand, the normal structure estimation unit 252 is instructed to execute “normal processing of the retinal pigment epithelium layer”. The processing is not executed, and details of specific processing executed by the normal structure estimation unit 252 will be described later.

定量化部253は、層検出部251による所定の層の検出結果と、正常構造推定部252が推定した所定の層の正常構造とに基づいて、被写体(被検眼)の状態を定量化する処理を行う。   The quantification unit 253 quantifies the state of the subject (eye to be examined) based on the detection result of the predetermined layer by the layer detection unit 251 and the normal structure of the predetermined layer estimated by the normal structure estimation unit 252. I do.

例えば、定量化部253は、網膜層全体の厚みを定量化する。また、定量化部253は、「網膜色素上皮層の正常時処理」が指示されている場合には、図10に示す神経線維層1002の厚みを定量化する。また、定量化部253は、「網膜色素上皮層の異常時処理」が指示されている場合には、検出した網膜色素上皮層境界とその正常構造との差異(即ち、網膜色素上皮層の乱れ)を定量化する。この定量化部253が実行する具体的な処理の内容については、後述する。   For example, the quantification unit 253 quantifies the thickness of the entire retinal layer. Further, when “normal processing of the retinal pigment epithelium layer” is instructed, the quantification unit 253 quantifies the thickness of the nerve fiber layer 1002 illustrated in FIG. In addition, when “the abnormal processing of the retinal pigment epithelium layer” is instructed, the quantification unit 253 determines the difference between the detected retinal pigment epithelium layer boundary and its normal structure (that is, the disturbance of the retinal pigment epithelium layer). ). Details of specific processing executed by the quantification unit 253 will be described later.

表示部260は、画像処理部250で得た層の境界やその正常構造に関する情報を断層画像に重畳してモニタ115に表示する。また、表示部260は、定量化部253で定量化した各種の数値データをモニタ115に表示する。   The display unit 260 superimposes information on the layer boundaries and the normal structure obtained by the image processing unit 250 on the tomographic image and displays the information on the monitor 115. The display unit 260 displays various numerical data quantified by the quantification unit 253 on the monitor 115.

結果出力部270は、検査日時と、被写体(被検眼)を同定する情報と、被写体(被検眼)の断層画像と、画像処理部250によって得られた解析結果とを関連付けて、保存すべき情報としてデータサーバ130へ送信する。   The result output unit 270 associates the examination date and time, information for identifying the subject (eye to be examined), the tomographic image of the subject (eye to be examined), and the analysis result obtained by the image processing unit 250, and information to be stored To the data server 130.

次に、図4を参照して、本実施形態の画像処理装置110により実行される、具体的な処理手順を説明する。   Next, a specific processing procedure executed by the image processing apparatus 110 according to the present embodiment will be described with reference to FIG.

図4は、本発明の第1の実施形態に係る画像処理装置110の制御方法の処理手順の一例を示すフローチャートである。なお、本実施形態に係る画像処理装置110の図3に示す各機能構成は、当該各機能構成を実現するプログラムをCPU111が実行し、コンピュータ全体を制御することで実現される。また、以下の処理を行う前段階で、図4に示すフローチャートに従ったプログラムコードは、例えば外部記憶装置114からRAM112に既にロードされているものとする。   FIG. 4 is a flowchart illustrating an example of a processing procedure of the control method of the image processing apparatus 110 according to the first embodiment of the present invention. Note that each functional configuration shown in FIG. 3 of the image processing apparatus 110 according to the present embodiment is realized by the CPU 111 executing a program that realizes each functional configuration and controlling the entire computer. Further, it is assumed that the program code according to the flowchart shown in FIG. 4 is already loaded from, for example, the external storage device 114 to the RAM 112 before the following processing is performed.

<ステップS101>
まず、ステップS101において、被写体情報取得部210は、被写体(被検眼)を同定する情報を外部から取得する。具体的に、被写体情報取得部210は、被写体(被検眼)を同定する情報を、例えば、キーボード116及びマウス117の入力デバイスを介した操作者の入力により取得する。そして、被写体情報取得部210は、取得した被写体(被検眼)を同定する情報に基づいて、データサーバ130が保持している当該被写体(被検眼)に関する情報を取得する処理を行う。例えば、被写体情報取得部210は、過去に撮像した当該被検眼の断層画像やその解析結果(層の境界や定量化した数値データなど)を取得する。特に、被写体情報取得部210は、当該被検眼に関する網膜色素上皮層境界の正常時データをデータサーバ130が保持している場合には、そのデータをデータサーバ130から取得する。そして、被写体情報取得部210は、このようにして取得した情報を記憶部240へ送信する。
<Step S101>
First, in step S101, the subject information acquisition unit 210 acquires information for identifying a subject (eye to be examined) from the outside. Specifically, the subject information acquisition unit 210 acquires information for identifying a subject (eye to be examined) by an operator's input via the keyboard 116 and the input device of the mouse 117, for example. Then, the subject information acquisition unit 210 performs processing for acquiring information on the subject (eye to be examined) held by the data server 130 based on the information for identifying the acquired subject (eye to be examined). For example, the subject information acquisition unit 210 acquires a tomographic image of the eye to be inspected in the past and an analysis result thereof (such as a layer boundary and quantified numerical data). In particular, the subject information acquisition unit 210 acquires data from the data server 130 when the data server 130 holds normal data of the retinal pigment epithelium layer boundary related to the eye to be examined. Then, the subject information acquisition unit 210 transmits the information acquired in this way to the storage unit 240.

<ステップS102>
続いて、ステップS102において、画像取得部220は、断層画像撮像装置120に対して所定の断層画像の送信を要求し、断層画像撮像装置120から送信される断層画像を取得する処理を行う。そして、画像取得部220は、取得した断層画像を記憶部240へ送信する。
<Step S102>
Subsequently, in step S <b> 102, the image acquisition unit 220 requests the tomographic image capturing apparatus 120 to transmit a predetermined tomographic image, and performs processing for acquiring a tomographic image transmitted from the tomographic image capturing apparatus 120. Then, the image acquisition unit 220 transmits the acquired tomographic image to the storage unit 240.

<ステップS103>
続いて、ステップS103において、表示部260は、ステップS102で取得された断層画像をモニタ115に表示する処理を行う。ここでは、例えば、図10(a)や図10(c)に模式的に示すような画像がモニタ115に表示される。ここで、断層画像は、3次元的データであるので、実際にモニタ115に表示されるのは、そこからいずれかの注目断面を切り出した2次元断層画像となる。なお、表示する断面は、GUI等を介して任意に選択できる構成であることが望ましい。また、ステップS101で取得した過去の時点における各種のデータ(断層画像やその解析結果など)を並べて表示できる構成であってもよい。
<Step S103>
Subsequently, in step S103, the display unit 260 performs processing for displaying the tomographic image acquired in step S102 on the monitor 115. Here, for example, an image as schematically shown in FIGS. 10A and 10C is displayed on the monitor 115. Here, since the tomographic image is three-dimensional data, what is actually displayed on the monitor 115 is a two-dimensional tomographic image obtained by cutting out any cross section of interest. Note that it is desirable that the displayed cross section can be arbitrarily selected via a GUI or the like. Moreover, the structure which can arrange | position and display the various data (tomographic image, its analysis result, etc.) in the past time acquired by step S101 may be sufficient.

<ステップS104>
続いて、ステップS104において、指示取得部230は、操作者がキーボード116やマウス117等の入力デバイスを介して入力する処理の指示を取得する。具体的に、ここでは、指示取得部230は、「網膜色素上皮層の正常時処理」と「網膜色素上皮層の異常時処理」のいずれを実行するかの指示を取得する。この際、操作者は、いずれの解析処理を画像処理装置110に実行させるのかを判断して、その判断結果を画像処理装置110に入力(何れかの処理を選択)すればよい。このステップS104で得られた処理の指示は、画像処理部250へ送信される。
<Step S104>
Subsequently, in step S <b> 104, the instruction acquisition unit 230 acquires an instruction for processing that the operator inputs via an input device such as the keyboard 116 or the mouse 117. Specifically, here, the instruction acquisition unit 230 acquires an instruction to execute either “normal processing of the retinal pigment epithelium layer” or “abnormal processing of the retinal pigment epithelium layer”. At this time, the operator may determine which analysis process is to be executed by the image processing apparatus 110 and input the determination result to the image processing apparatus 110 (select any process). The processing instruction obtained in step S104 is transmitted to the image processing unit 250.

<ステップS105>
続いて、ステップS105において、例えば画像処理部250は、ステップS104で得られた処理の指示が、「網膜色素上皮層の正常時処理」であるか否かを判断する。
<Step S105>
Subsequently, in step S105, for example, the image processing unit 250 determines whether or not the processing instruction obtained in step S104 is “normal processing of the retinal pigment epithelium layer”.

ステップS105の判断の結果、ステップS104で得られた処理の指示が、「網膜色素上皮層の正常時処理」である場合には、ステップS106に進む。一方、ステップS105の判断の結果、ステップS104で得られた処理の指示が、「網膜色素上皮層の正常時処理」でない場合(即ち、「網膜色素上皮層の異常時処理」である場合)には、ステップS107に進む。   As a result of the determination in step S105, when the processing instruction obtained in step S104 is “normal processing of the retinal pigment epithelium layer”, the process proceeds to step S106. On the other hand, as a result of the determination in step S105, when the processing instruction obtained in step S104 is not “normal processing of the retinal pigment epithelial layer” (that is, “processing when retinal pigment epithelial layer is abnormal”). Advances to step S107.

<ステップS106>
ステップS106に進むと、画像処理部250は、「網膜色素上皮層の正常時処理」に係る解析処理を実行する。また、表示部260は、画像処理部250による当該解析処理の結果を表示する処理を行う。このステップS106の詳細な処理については、図5に示すフローチャートを用いて後述する。その後、ステップS108に進む。
<Step S106>
In step S106, the image processing unit 250 executes analysis processing related to “normal processing of the retinal pigment epithelium layer”. In addition, the display unit 260 performs processing for displaying the result of the analysis processing by the image processing unit 250. Detailed processing in step S106 will be described later with reference to the flowchart shown in FIG. Thereafter, the process proceeds to step S108.

<ステップS107>
一方、ステップS107に進むと、画像処理部250は、「網膜色素上皮層の異常時処理」に係る解析処理を実行する。また、表示部260は、画像処理部250による当該解析処理の結果を表示する処理を行う。このステップS107の詳細な処理については、図6に示すフローチャートを用いて後述する。その後、ステップS108に進む。
<Step S107>
On the other hand, when the processing proceeds to step S107, the image processing unit 250 executes an analysis process related to the “retinal pigment epithelium layer abnormality process”. In addition, the display unit 260 performs processing for displaying the result of the analysis processing by the image processing unit 250. Detailed processing in step S107 will be described later with reference to the flowchart shown in FIG. Thereafter, the process proceeds to step S108.

<ステップS108>
ステップS108に進むと、まず、指示取得部230は、例えばキーボード116やマウス117を介して操作者から入力された、当該被写体(被検眼)に関する今回の処理結果をデータサーバ130に保存するか否かの指示を取得する処理を行う。そして、例えば結果出力部270は、指示取得部230が取得した指示に従って、当該被写体(被検眼)に関する今回の処理結果をデータサーバ130に保存するか否かの判断を行う。
<Step S108>
In step S108, first, the instruction acquisition unit 230 determines whether or not to store, in the data server 130, the current processing result regarding the subject (eye to be examined) input from the operator via the keyboard 116 or the mouse 117, for example. The process which acquires the instruction | indication is performed. Then, for example, the result output unit 270 determines whether or not to save the current processing result regarding the subject (eye to be examined) in the data server 130 in accordance with the instruction acquired by the instruction acquisition unit 230.

ステップS108の判断の結果、当該被写体(被検眼)に関する今回の処理結果をデータサーバ130に保存する場合には、ステップS109に進む。一方、ステップS108の判断の結果、当該被写体(被検眼)に関する今回の処理結果をデータサーバ130に保存しない場合には、ステップS110に進む。   As a result of the determination in step S108, when the current processing result regarding the subject (eye to be examined) is stored in the data server 130, the process proceeds to step S109. On the other hand, as a result of the determination in step S108, if the current processing result related to the subject (eye to be examined) is not stored in the data server 130, the process proceeds to step S110.

<ステップS109>
ステップS109に進むと、結果出力部270は、検査日時と、被写体(被検眼)を同定する情報と、被写体(被検眼)の断層画像と、画像処理部250によって得られた解析結果とを関連付けて、保存すべき情報としてデータサーバ130へ送信する。その後、ステップS110に進む。
<Step S109>
In step S109, the result output unit 270 associates the examination date and time, information for identifying the subject (eye to be examined), the tomographic image of the subject (eye to be examined), and the analysis result obtained by the image processing unit 250. And transmitted to the data server 130 as information to be stored. Then, it progresses to step S110.

<ステップS110>
ステップS110に進むと、指示取得部230は、例えばキーボード116やマウス117を介して操作者から入力された、画像処理装置110による断層画像の解析処理を終了するか否かの指示を取得する処理を行う。そして、画像処理装置110は、指示取得部230が取得した指示に従って、断層画像の解析処理を終了するか否かの判断を行う。
<Step S110>
In step S110, the instruction acquisition unit 230 acquires an instruction whether to end the tomographic image analysis processing by the image processing apparatus 110, which is input from the operator via the keyboard 116 or the mouse 117, for example. I do. Then, the image processing apparatus 110 determines whether to end the tomographic image analysis process according to the instruction acquired by the instruction acquisition unit 230.

ステップS110の判断の結果、断層画像の解析処理を終了しない場合には、ステップS101に戻って、次の被写体(被検眼)に対する処理(或いは、同一被検眼に対する再処理)を実行する。一方、ステップS110の判断の結果、断層画像の解析処理を終了する場合には、図4に示すフローチャートにおける処理を終了する。   If the tomographic image analysis process is not terminated as a result of the determination in step S110, the process returns to step S101, and the process for the next subject (eye to be examined) (or reprocessing for the same eye to be examined) is executed. On the other hand, as a result of the determination in step S110, if the tomographic image analysis process is to be terminated, the process in the flowchart shown in FIG. 4 is terminated.

次に、図5を参照して、図4のステップS106で実行される処理の詳細な処理手順について説明する。   Next, with reference to FIG. 5, a detailed processing procedure of the processing executed in step S106 of FIG. 4 will be described.

図5は、図4のステップS106における「網膜色素上皮層の正常時処理」の詳細な処理手順の一例を示すフローチャートである。   FIG. 5 is a flowchart showing an example of a detailed processing procedure of “normal processing of the retinal pigment epithelium layer” in step S106 of FIG.

<ステップS201>
まず、ステップS201において、層検出部251は、記憶部240から被写体(被検眼)の断層画像を取得し、当該断層画像から、被写体(被検眼)を構成する所定の層を検出する処理を行う。具体的に、層検出部251は、被写体(被検眼)の断層画像から、図10に示す内境界膜1003、神経線維層境界1004及び網膜色素上皮層境界1005を検出する。さらに、層検出部251は、黄斑部の中心である中心窩の座標も検出する。そして、層検出部251は、これらの検出結果を記憶部240へ出力する。
<Step S201>
First, in step S <b> 201, the layer detection unit 251 acquires a tomographic image of the subject (eye to be examined) from the storage unit 240 and performs a process of detecting a predetermined layer constituting the subject (eye to be examined) from the tomographic image. . Specifically, the layer detection unit 251 detects an inner boundary film 1003, a nerve fiber layer boundary 1004, and a retinal pigment epithelium layer boundary 1005 shown in FIG. 10 from a tomographic image of a subject (eye to be examined). Furthermore, the layer detection unit 251 also detects the coordinates of the fovea, which is the center of the macula. Then, the layer detection unit 251 outputs these detection results to the storage unit 240.

以下、層検出部251による層の境界検出を行う具体的な処理方法を説明する。
ここでは、処理対象である3次元断層画像を2次元断層画像(B−scan画像)の集合と考え、それぞれの2次元断層画像に対して以下の2次元画像処理を実行する。
Hereinafter, a specific processing method for detecting a layer boundary by the layer detection unit 251 will be described.
Here, the three-dimensional tomographic image to be processed is considered as a set of two-dimensional tomographic images (B-scan images), and the following two-dimensional image processing is executed on each two-dimensional tomographic image.

まず、層検出部251は、注目する2次元断層画像に対して平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、層検出部251は、断層画像からエッジ成分を検出し、その連結性に基づいて何本かの線分を層境界の候補として抽出する。そして、層検出部251は、これらの候補の中から、一番上の線分を内境界膜1003として選択する。また、層検出部251は、内境界膜1003の直下にある線分を神経線維層境界1004として選択する。さらに、層検出部251は、一番下の線分を網膜色素上皮層境界1005として選択する。   First, the layer detection unit 251 performs a smoothing filter process on the focused two-dimensional tomographic image to remove noise components. Then, the layer detection unit 251 detects edge components from the tomographic image, and extracts some line segments as layer boundary candidates based on the connectivity. Then, the layer detecting unit 251 selects the uppermost line segment as the inner boundary film 1003 from these candidates. In addition, the layer detection unit 251 selects a line segment immediately below the inner boundary film 1003 as the nerve fiber layer boundary 1004. Further, the layer detection unit 251 selects the lowermost line segment as the retinal pigment epithelium layer boundary 1005.

さらに、これらの線分を初期値として、Snakeやレベルセット法等の動的輪郭法を適用することで、検出精度の向上を図ってもよい。また、グラフカットのような手法を用いて層の境界を検出してもよい。   Furthermore, the detection accuracy may be improved by applying a dynamic contour method such as a Snake or a level set method using these line segments as initial values. Further, a layer boundary may be detected using a technique such as graph cut.

なお、動的輪郭法やグラフカットを用いた境界検出法は、3次元断層画像を対象として3次元的に行ってもよいし、処理対象である3次元断層画像を2次元断層画像の集合と考え、それぞれの2次元断層画像に対して2次元的に適用してもよい。また、層の境界を検出する方法は、これらの方法に限定されるものではなく、眼部の断層画像から層の境界を検出可能な方法であれば、いずれの方法を用いてもよい。   Note that the boundary detection method using the dynamic contour method or the graph cut may be performed three-dimensionally for a three-dimensional tomographic image, or the three-dimensional tomographic image to be processed is set as a set of two-dimensional tomographic images. It is possible to apply two-dimensionally to each two-dimensional tomographic image. The method for detecting the layer boundary is not limited to these methods, and any method may be used as long as the layer boundary can be detected from the tomographic image of the eye.

層検出部251は、さらに、内境界膜1003を利用して中心窩の座標も検出する。具体的には、層検出部251は、検出した内境界膜1003のz座標が断層画像の中心付近において最大となる点を中心窩とする。なお、以下の処理では、この中心窩が原点となるように全ての座標を変換(平行移動)して取り扱う。   The layer detection unit 251 further detects coordinates of the fovea using the inner boundary film 1003. Specifically, the layer detection unit 251 sets the point where the z coordinate of the detected inner boundary film 1003 is maximum near the center of the tomographic image as the fovea. In the following processing, all coordinates are converted (translated) so that the fovea is the origin.

<ステップS202>
続いて、ステップS202において、定量化部253は、ステップS201で検出された層の境界に基づいて、神経線維層1002の厚みと、網膜層全体の厚みを計測することで、必要な情報の定量化を行う。
<Step S202>
Subsequently, in step S202, the quantification unit 253 quantifies necessary information by measuring the thickness of the nerve fiber layer 1002 and the thickness of the entire retinal layer based on the layer boundary detected in step S201. Do.

まず、定量化部253は、xy平面上の各座標点において、神経線維層境界1004と内境界膜1003とのz座標の差を求めることにより、神経線維層1002の厚み(図10(a)のT1)を計測する。同様に、定量化部253は、網膜色素上皮層境界1005と内境界膜1003とのz座標の差を求めることにより、網膜層全体の厚み(図10(a)のT2)を計測する。さらに、定量化部253は、それぞれのy座標ごとにx軸方向の各座標点での層厚を加算することにより、それぞれの断面における各層(神経線維層1002及び網膜層全体)の面積を計測する。さらに、定量化部253は、求めた面積をy軸方向に加算することにより、各層の体積を計測する。そして、定量化部253は、これらの計測結果に係るデータを記憶部240へ出力する。   First, the quantifying unit 253 obtains the z-coordinate difference between the nerve fiber layer boundary 1004 and the inner boundary film 1003 at each coordinate point on the xy plane, thereby determining the thickness of the nerve fiber layer 1002 (FIG. 10A). Of T1). Similarly, the quantification unit 253 measures the thickness of the entire retinal layer (T2 in FIG. 10A) by obtaining a difference in z-coordinate between the retinal pigment epithelium layer boundary 1005 and the inner boundary film 1003. Furthermore, the quantification unit 253 measures the area of each layer (the nerve fiber layer 1002 and the entire retinal layer) in each cross section by adding the layer thickness at each coordinate point in the x-axis direction for each y coordinate. To do. Further, the quantification unit 253 measures the volume of each layer by adding the obtained areas in the y-axis direction. Then, the quantification unit 253 outputs data related to these measurement results to the storage unit 240.

<ステップS203>
続いて、ステップS203において、表示部260は、ステップS101における層境界の検出結果を断層画像に重畳してモニタ115に表示する処理を行う。ここで、図10(b)に示すように、層の境界を線で示す場合には、それぞれの境界に対して予め定めた色の線を用いることが望ましい。例えば、表示部260は、内境界膜1003は赤色の線、神経線維層境界1004は黄色の線、網膜色素上皮層境界1005は緑色の線を用いて表示(提示)する。また、例えば、表示部260は、層境界を明示的に示さずに、層の領域に半透明の色をつけて表示(提示)してもよい。例えば、表示部260は、神経線維層1002以外の網膜層全体を表す領域を緑色に、神経線維層1002を表す領域を赤色に着色して表示(提示)してもよい。なお、これらの表示を行う際には、注目する断面をGUI等によって選択可能な構成であることが望ましい。また、公知のボリュームレンダリングの技術を用いて、3次元的に表示してもよい。
<Step S203>
Subsequently, in step S203, the display unit 260 performs a process of superimposing the layer boundary detection result in step S101 on the tomographic image and displaying it on the monitor 115. Here, as shown in FIG. 10B, when the layer boundaries are indicated by lines, it is desirable to use lines of a predetermined color for each boundary. For example, the display unit 260 displays (presents) the inner boundary film 1003 using a red line, the nerve fiber layer boundary 1004 using a yellow line, and the retinal pigment epithelium layer boundary 1005 using a green line. Further, for example, the display unit 260 may display (present) a semi-transparent color in a layer region without explicitly showing the layer boundary. For example, the display unit 260 may display (present) a region representing the entire retinal layer other than the nerve fiber layer 1002 in green and a region representing the nerve fiber layer 1002 in red. In addition, when performing these displays, it is desirable to have a configuration in which a cross section of interest can be selected using a GUI or the like. Further, it may be displayed three-dimensionally using a known volume rendering technique.

さらに、表示部260は、ステップS202で定量化により計測した層厚に関する情報をモニタ115に表示する処理を行う。この表示は、3次元断層画像全体(xy平面)に対する層厚の分布マップとして表示してもよいし、上述した検出結果の表示と連動させて注目断面における各層の面積を表示してもよい。また、全体の体積を表示してもよいし、操作者がxy平面上において指定した領域内における体積を算出して表示してもよい。   Further, the display unit 260 performs processing for displaying information on the layer thickness measured by quantification in step S202 on the monitor 115. This display may be displayed as a layer thickness distribution map for the entire three-dimensional tomographic image (xy plane), or the area of each layer in the cross section of interest may be displayed in conjunction with the display of the detection result described above. Further, the entire volume may be displayed, or the volume in a region designated by the operator on the xy plane may be calculated and displayed.

<ステップS204>
続いて、ステップS204において、まず、指示取得部230は、ステップS201で検出した網膜色素上皮層境界1005を表す座標群を、当該被写体(被検眼)の網膜色素上皮層境界の正常時データとして保存するか否かの指示を取得する処理を行う。この指示は、例えば、キーボード116やマウス117を介して、操作者によって入力される。そして、そして、例えば結果出力部270は、指示取得部230が取得した指示に従って、ステップS201で検出した網膜色素上皮層境界1005を表す座標群を、当該被写体(被検眼)の網膜色素上皮層境界の正常時データとして保存するか否かの判断を行う。
<Step S204>
Subsequently, in step S204, the instruction acquisition unit 230 first stores the coordinate group representing the retinal pigment epithelium layer boundary 1005 detected in step S201 as normal data of the retinal pigment epithelium layer boundary of the subject (examined eye). The process which acquires the instruction | indication of whether to do is performed. This instruction is input by the operator via the keyboard 116 or the mouse 117, for example. Then, for example, the result output unit 270 uses the coordinate group representing the retinal pigment epithelium layer boundary 1005 detected in step S201 in accordance with the instruction acquired by the instruction acquisition unit 230 as the retinal pigment epithelium layer boundary of the subject (examined eye). It is determined whether or not to save as normal data.

ステップS204の判断の結果、ステップS201で検出した網膜色素上皮層境界1005を表す座標群を、当該被写体(被検眼)の網膜色素上皮層境界の正常時データとして保存しない場合には、図5のフローチャートの処理を終了する。一方、ステップS204の判断の結果、ステップS201で検出した網膜色素上皮層境界1005を表す座標群を、当該被写体(被検眼)の網膜色素上皮層境界の正常時データとして保存する場合には、ステップS205に進む。   As a result of the determination in step S204, when the coordinate group representing the retinal pigment epithelium layer boundary 1005 detected in step S201 is not stored as normal data of the retinal pigment epithelium layer boundary of the subject (examined eye), FIG. The process of the flowchart ends. On the other hand, if the coordinate group representing the retinal pigment epithelium layer boundary 1005 detected in step S201 is stored as normal data of the retinal pigment epithelium layer boundary of the subject (examined eye) as a result of the determination in step S204, The process proceeds to S205.

<ステップS205>
ステップS205に進むと、結果出力部270は、ステップS201で検出した網膜色素上皮層境界のデータ(層境界を表す座標群)を、当該被写体(被検眼)の網膜色素上皮層境界の正常時データとしてデータサーバ130へ送信する。これにより、データサーバ130は、当該被写体(被検眼)に関連付けて、結果出力部270から取得したデータを網膜色素上皮層境界の正常時データとして保存する。その後、図5に示すフローチャートにおける処理(即ち、図4のS106の処理)が終了する。
<Step S205>
In step S205, the result output unit 270 uses the retinal pigment epithelium layer boundary data (coordinate group representing the layer boundary) detected in step S201 as normal data of the retinal pigment epithelium layer boundary of the subject (eye to be examined). To the data server 130. Thereby, the data server 130 stores the data acquired from the result output unit 270 in association with the subject (eye to be examined) as normal data of the retinal pigment epithelium layer boundary. Thereafter, the process in the flowchart shown in FIG. 5 (that is, the process of S106 in FIG. 4) is completed.

なお、本実施形態においては、ステップS106の処理において、神経線維層1002と網膜層全体の厚みのみを計測しているが、もちろん、眼部の視細胞層や外境界膜などの他の層の解析を行う構成であってもよい。   In the present embodiment, only the thicknesses of the nerve fiber layer 1002 and the entire retinal layer are measured in the process of step S106. Of course, other layers such as the photoreceptor layer of the eye and the outer boundary membrane are also measured. The structure which performs an analysis may be sufficient.

次に、図6を参照して、図4のステップS107で実行される処理の詳細な処理手順について説明する。   Next, with reference to FIG. 6, the detailed process procedure of the process performed by step S107 of FIG. 4 is demonstrated.

図6は、図4のステップS107における「網膜色素上皮層の異常時処理」の詳細な処理手順の一例を示すフローチャートである。   FIG. 6 is a flowchart showing an example of a detailed processing procedure of the “retinal pigment epithelium layer abnormality process” in step S107 of FIG.

<ステップS301>
まず、ステップS301において、層検出部251は、記憶部240から被写体(被検眼)の断層画像を取得し、当該断層画像から、被写体(被検眼)を構成する所定の層を検出する処理を行う。具体的に、層検出部251は、被写体(被検眼)の断層画像から、図10に示す内境界膜1003及び網膜色素上皮層境界1005を検出する。さらに、層検出部251は、黄斑部の中心である中心窩の座標も検出する。そして、層検出部251は、これらの検出結果を記憶部240へ出力する。ここで、層検出部251による層の境界検出の具体的方法については、ステップS201と同様であるので、その詳細な説明は省略する。なお、以下の処理では、中心窩が原点となるように全ての座標を変換(平行移動)して取り扱う。
<Step S301>
First, in step S301, the layer detection unit 251 acquires a tomographic image of the subject (eye to be examined) from the storage unit 240, and performs a process of detecting a predetermined layer constituting the subject (eye to be examined) from the tomographic image. . Specifically, the layer detection unit 251 detects the inner boundary film 1003 and the retinal pigment epithelium layer boundary 1005 shown in FIG. 10 from the tomographic image of the subject (eye to be examined). Furthermore, the layer detection unit 251 also detects the coordinates of the fovea, which is the center of the macula. Then, the layer detection unit 251 outputs these detection results to the storage unit 240. Here, since the specific method of the layer boundary detection by the layer detection unit 251 is the same as that in step S201, detailed description thereof is omitted. In the following processing, all coordinates are converted (translated) so that the fovea is the origin.

<ステップS302>
続いて、ステップS302において、正常構造推定部252は、ステップS101で被写体情報取得部210が取得した被写体(被検眼)に関する情報に基づいて、当該被写体(被検眼)の網膜色素上皮層境界の正常時データが利用可能であるか否かを判断する。より具体的には、ステップS101で被写体情報取得部210が取得した被写体(被検眼)に関する情報の中に、当該被写体(被検眼)の網膜色素上皮層境界の正常時データが含まれているか否かに基づいて、当該正常時データが利用可能であるか否かを判断する。
<Step S302>
Subsequently, in step S302, the normal structure estimation unit 252 normalizes the retinal pigment epithelium layer boundary of the subject (eye to be examined) based on the information regarding the subject (eye to be examined) acquired by the subject information acquisition unit 210 in step S101. Determine whether hourly data is available. More specifically, whether or not the information on the subject (eye to be examined) acquired by the subject information acquisition unit 210 in step S101 includes normal data of the retinal pigment epithelium layer boundary of the subject (eye to be examined). Based on the above, it is determined whether or not the normal data is available.

ステップS302の判断の結果、被写体(被検眼)の網膜色素上皮層境界の正常時データが利用可能である場合には、正常構造推定部252が記憶部240から当該正常時データを取得した後、ステップS303に進む。一方、ステップS302の判断の結果、被写体(被検眼)の網膜色素上皮層境界の正常時データが利用可能でない場合には、表示部260が当該正常時データを利用できない旨を表示した上で、ステップS304に進む。   As a result of the determination in step S302, when normal data of the retinal pigment epithelium layer boundary of the subject (eye to be examined) is available, after the normal structure estimation unit 252 acquires the normal data from the storage unit 240, Proceed to step S303. On the other hand, as a result of the determination in step S302, when normal data of the retinal pigment epithelium layer boundary of the subject (eye to be examined) is not available, the display unit 260 displays that the normal data cannot be used, Proceed to step S304.

<ステップS303>
ステップS303に進むと、正常構造推定部252は、ステップS302で取得した網膜色素上皮層境界の正常時データを断層画像にあてはめる処理を行って、断層画像上における網膜色素上皮層境界の正常構造を推定する処理を行う。そして、ステップS303の処理が終了すると、ステップS305に進む。
<Step S303>
In step S303, the normal structure estimation unit 252 performs processing for applying the normal data of the retinal pigment epithelial layer boundary acquired in step S302 to the tomographic image, and determines the normal structure of the retinal pigment epithelial layer boundary on the tomographic image. Performs estimation processing. Then, when the process of step S303 ends, the process proceeds to step S305.

以下、ステップS303における網膜色素上皮層境界の正常構造を推定する具体的な処理方法について説明する。   Hereinafter, a specific processing method for estimating the normal structure of the retinal pigment epithelium layer boundary in step S303 will be described.

正常時データは、そのデータを取得した際の断層画像上における中心窩を原点とした座標系で表現されている。一方、ステップS102で取得された断層画像(現断層画像)も、その中心窩を原点とした座標系(現座標系)で表現されている。そこで、正常構造推定部252は、これらの座標系が一致するように、正常時データを現座標系へと重ね合わせることを行う。そして、正常構造推定部252は、このようにして重ね合わせた正常時データを、現断層画像上における網膜色素上皮層境界の正常構造の初期値とする(即ち、初期位置合わせをする)。そして、正常構造推定部252は、現断層画像上で検出されている網膜色素上皮層境界1005へのあてはめ処理によって、正常構造を更新する。言い換えると、正常構造推定部252は、正常時データを正常構造に変換するための変換行列Aの初期値を単位行列と定義して、正常構造が適切となるような変換行列Aの推定を行う。本実施形態では、変換行列Aは3次元の剛体変換を表す行列と定義するが、均等スケールの変形を含む行列とすることも可能であるし、アフィン変換全般を許す行列とすることも可能である。   The normal data is expressed in a coordinate system with the fovea as the origin on the tomographic image when the data is acquired. On the other hand, the tomographic image (current tomographic image) acquired in step S102 is also expressed in a coordinate system (current coordinate system) with the fovea as the origin. Therefore, the normal structure estimation unit 252 superimposes the normal data on the current coordinate system so that these coordinate systems match. Then, the normal structure estimation unit 252 sets the normal data superimposed in this way as the initial value of the normal structure of the retinal pigment epithelium layer boundary on the current tomographic image (that is, performs initial alignment). Then, the normal structure estimation unit 252 updates the normal structure by the fitting process to the retinal pigment epithelium layer boundary 1005 detected on the current tomographic image. In other words, the normal structure estimation unit 252 defines the initial value of the conversion matrix A for converting normal data into a normal structure as a unit matrix, and estimates the conversion matrix A so that the normal structure is appropriate. . In this embodiment, the transformation matrix A is defined as a matrix representing a three-dimensional rigid transformation, but it can also be a matrix including a uniform scale deformation, or can be a matrix that allows affine transformation in general. is there.

本実施形態では、上述したあてはめ処理を行うために、検出結果と正常構造との差異εiを、下記の(1)式のように定義する。 In the present embodiment, in order to perform the above-described fitting process, the difference ε i between the detection result and the normal structure is defined as the following equation (1).

Figure 2010200920
Figure 2010200920

(1)式のXorg_iは、座標群として記述されている正常時データのi番目の点の座標を表している。また、(1)式のXnormal_iは、変換行列Aによる座標変換後の点(即ち、正常構造上の点)の座標を表している。また、(1)式のXdetected_iは、それぞれのXnormal_iに対応する網膜色素上皮層境界1005上の点の座標を表している。この対応付けは、例えば、それぞれのXnormal_iに対して、同一のx,y座標を有する網膜色素上
皮層境界1005上の点を選択することで行う。或いは、それぞれのXnormal_iに最も距離が近い網膜色素上皮層境界1005上の点を選択する。なお、(1)式における各座標と座標変換行列は、同次座標系で表記されているものとする。
Xorg_i in the expression (1) represents the coordinates of the i-th point of normal data described as a coordinate group. In addition, Xnormal_i in the expression (1) represents the coordinates of a point after coordinate transformation by the transformation matrix A (that is, a point on the normal structure). Further, Xdetected_i in the equation (1) represents the coordinates of a point on the retinal pigment epithelium layer boundary 1005 corresponding to each Xnormal_i. This association is performed, for example, by selecting a point on the retinal pigment epithelium layer boundary 1005 having the same x, y coordinates for each Xnormal_i. Alternatively, a point on the retinal pigment epithelium layer boundary 1005 closest to each Xnormal_i is selected. In addition, each coordinate and coordinate transformation matrix in equation (1) are assumed to be expressed in a homogeneous coordinate system.

そして、正常構造推定部252は、以下の(2)式に示す評価式を最小化する変換行列Aを求める。   Then, the normal structure estimation unit 252 obtains a transformation matrix A that minimizes the evaluation formula shown in the following formula (2).

Figure 2010200920
Figure 2010200920

(2)式において、ρ(x)は重み関数である。
図7は、本発明の第1の実施形態を示し、断層画像に含まれる層の正常構造の推定する際に利用する重み関数の一例を示す模式図である。
In equation (2), ρ (x) is a weight function.
FIG. 7 is a schematic diagram illustrating an example of a weight function used in estimating a normal structure of a layer included in a tomographic image according to the first embodiment of this invention.

図7(a)、図7(b)及び図7(c)において、横軸がx(中心付近が0)、縦軸が重み関数ρ(x)である。なお、断層画像に含まれる層の正常構造の推定する際に利用する重み関数は、図7に示したものが全てではなく、どのような関数を設定してもよい。
また、(2)式を最小化するということは、最小二乗法やM推定を用いて変換行列Aを求めることに相当している。
7A, 7B, and 7C, the horizontal axis is x (0 near the center), and the vertical axis is the weighting function ρ (x). Note that the weighting function used when estimating the normal structure of the layer included in the tomographic image is not all shown in FIG. 7, and any function may be set.
Further, minimizing the expression (2) corresponds to obtaining the transformation matrix A using the least square method or M estimation.

<ステップS304>
一方、ステップS304に進むと、正常構造推定部252は、断層画像のそれぞれの2次元断面に対して、多項式で記述される曲線を網膜色素上皮層境界1005にあてはめる処理を行って、その正常構造を推定する処理を行う。この推定処理の方法は、背景技術で述べた方法と同様である。その後、ステップS305に進む。
<Step S304>
On the other hand, when the process proceeds to step S304, the normal structure estimation unit 252 performs a process of applying a curve described by a polynomial to the retinal pigment epithelium layer boundary 1005 for each two-dimensional cross section of the tomographic image, and the normal structure thereof. The process which estimates is performed. The estimation processing method is the same as the method described in the background art. Thereafter, the process proceeds to step S305.

<ステップS305>
ステップS305に進むと、定量化部253は、ステップS301で検出された層の境界に基づいて、網膜層全体の厚みを計測してこれを定量化する。また、定量化部253は、ステップS301で検出された網膜色素上皮層境界1005と、ステップS303或いはステップS304で推定されたその正常構造1006との差異に基づいて、網膜色素上皮層1001の乱れを定量化する処理を行う。そして、定量化部253は、これらの計測結果を記憶部240へ出力する。
<Step S305>
In step S305, the quantification unit 253 measures the thickness of the entire retinal layer based on the layer boundary detected in step S301, and quantifies it. Further, the quantification unit 253 determines the disturbance of the retinal pigment epithelium layer 1001 based on the difference between the retinal pigment epithelium layer boundary 1005 detected in step S301 and the normal structure 1006 estimated in step S303 or step S304. Perform the process of quantification. Then, the quantification unit 253 outputs these measurement results to the storage unit 240.

なお、網膜層全体の厚みの定量化については、ステップS202の処理と同様なので詳細な説明は省略する。また、網膜色素上皮層1001の乱れの定量化に関しても、その差異部分の厚みや面積・体積の定量化は、層の厚みの定量化と同様であるので、詳細な説明は省略する。   Note that the quantification of the thickness of the entire retinal layer is the same as the processing in step S202, and thus detailed description thereof is omitted. Further, regarding the quantification of the disturbance of the retinal pigment epithelium layer 1001, the quantification of the thickness, area, and volume of the difference is the same as the quantification of the layer thickness, and detailed description thereof is omitted.

また、網膜色素上皮層1001の乱れを表す特徴量は、ステップS301で検出した網膜色素上皮層境界1005と、その正常構造1006との差異を定量化するものであれば、いずれのものであってもよい。例えば、差異のなす領域の特徴として、求めた差異(厚み)の分布、最大値、平均値、中央値、分散、標準偏差、閾値以上の点の数やその割合などを求めてもよい。また、差異領域の特徴として、濃度ヒストグラム、平均濃度値、濃度分散値、コントラスト等の濃度特徴を求めてもよい。   The feature amount representing the disturbance of the retinal pigment epithelium layer 1001 is any one that quantifies the difference between the retinal pigment epithelium layer boundary 1005 detected in step S301 and its normal structure 1006. Also good. For example, the distribution of the obtained difference (thickness), the maximum value, the average value, the median value, the variance, the standard deviation, the number of points greater than or equal to the threshold, the ratio thereof, and the like may be obtained as the characteristics of the regions that are made different. Further, density features such as a density histogram, an average density value, a density variance value, and contrast may be obtained as the characteristics of the different areas.

<ステップS306>
続いて、ステップS306において、表示部260は、ステップS301で検出された網膜色素上皮層境界1005と、ステップS303或いはステップS304で推定したその正常構造1006とを、断層画像に重畳して表示する処理を行う。また、これに合わせて、表示部260は、ステップS305で定量化により計測したデータを表示する処理を行う。なお、これらの表示処理は、ステップS203における処理と同様であるので、詳細な説明は省略する。
<Step S306>
Subsequently, in step S306, the display unit 260 superimposes and displays the retinal pigment epithelium layer boundary 1005 detected in step S301 and the normal structure 1006 estimated in step S303 or step S304 on the tomographic image. I do. In accordance with this, the display unit 260 performs a process of displaying the data measured by quantification in step S305. Since these display processes are the same as the processes in step S203, detailed description thereof is omitted.

ステップS306の処理が終了すると、図6のフローチャートにおける処理(即ち、図4のS107の処理)が終了する。   When the process of step S306 ends, the process in the flowchart of FIG. 6 (that is, the process of S107 of FIG. 4) ends.

以上説明した第1の実施形態によれば、被写体(被検眼)自体が正常であった時の網膜色素上皮層境界をあてはめる処理を行うので、断層画像上の被写体を構成する網膜色素上皮層の正常構造を精度良く推定することができる。したがって、網膜色素上皮層の状態(形状の乱れ)を精度良く定量化することができる。これにより、例えば加齢黄斑変性等の疾病の進行度や治療後の回復具合等を、定量的に解析することが可能となる。また、被写体を構成する所定の層境界の一部が断層画像上において観測困難な場合であっても、その所定の層の検出を精度良く行うことができる。   According to the first embodiment described above, since the process of fitting the retinal pigment epithelium layer boundary when the subject (test eye) itself is normal is performed, the retinal pigment epithelium layer constituting the subject on the tomographic image is processed. The normal structure can be estimated with high accuracy. Therefore, the state (disturbance of shape) of the retinal pigment epithelium layer can be accurately quantified. This makes it possible to quantitatively analyze, for example, the degree of progression of diseases such as age-related macular degeneration and the degree of recovery after treatment. Further, even when a part of the predetermined layer boundary constituting the subject is difficult to observe on the tomographic image, the predetermined layer can be detected with high accuracy.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
第1の実施形態に係る画像処理装置110は、断層画像撮像装置120で撮像された被写体(被検眼)の断層画像を取得し、操作者の指示に応じて所定の疾病を前提とした解析処理を実行し、疾病の定量化を行うものであった。これに対して、第2の実施形態に係る画像処理装置も、取得した被写体(被検眼)の断層画像に解析処理を施す点については第1の実施形態と同様である。ただし、第2の実施形態に係る画像処理装置では、「網膜色素上皮層の正常時処理」を行うか、「網膜色素上皮層の異常時処理」を行うかの判断を、操作者からの指示に応じて行うものではなく、その判断を装置内部で自動的に行う点が第1の実施形態と異なる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
The image processing apparatus 110 according to the first embodiment acquires a tomographic image of a subject (eye to be examined) imaged by the tomographic image imaging apparatus 120, and performs an analysis process based on a predetermined disease according to an operator's instruction. To quantitate the disease. In contrast, the image processing apparatus according to the second embodiment is the same as the first embodiment in that analysis processing is performed on the acquired tomographic image of the subject (eye to be examined). However, in the image processing apparatus according to the second embodiment, an instruction from the operator determines whether to perform “normal processing of the retinal pigment epithelium layer” or “abnormal processing of the retinal pigment epithelium layer”. This is different from the first embodiment in that the determination is automatically performed inside the apparatus.

第2の実施形態に係る画像処理システムの概略構成は、図1に示す第1の実施形態に係る画像処理システム100の概略構成と同様の構成となる。また、第2の実施形態に係る画像処理装置のハードウェア構成は、図2に示す第1の実施形態に係る画像処理装置110のハードウェア構成と同様の構成となる。   The schematic configuration of the image processing system according to the second embodiment is the same as the schematic configuration of the image processing system 100 according to the first embodiment shown in FIG. The hardware configuration of the image processing apparatus according to the second embodiment is the same as the hardware configuration of the image processing apparatus 110 according to the first embodiment shown in FIG.

図8は、本発明の第2の実施形態に係る画像処理装置110の機能構成の一例を示す模式図である。ここで、図8において、図3と同様の構成については、同様の符号を付している。図8に示すように、第2の実施形態に係る画像処理装置110は、画像処理部250の内部に状態判定部254が追加されて構成されている点で、図3に示す第1の実施形態に係る画像処理装置110の機能構成と異なっている。以下の説明では、第1の実施形態と異なる点について、説明を行う。   FIG. 8 is a schematic diagram illustrating an example of a functional configuration of the image processing apparatus 110 according to the second embodiment of the present invention. Here, in FIG. 8, the same components as those in FIG. 3 are denoted by the same reference numerals. As shown in FIG. 8, the image processing apparatus 110 according to the second embodiment is configured by adding a state determination unit 254 to the inside of the image processing unit 250, and thus the first implementation shown in FIG. 3. This is different from the functional configuration of the image processing apparatus 110 according to the embodiment. In the following description, differences from the first embodiment will be described.

状態判定部254は、層検出部251が検出した網膜色素上皮層境界1005に基づいて、網膜色素上皮層が正常であるか、異常であるかの判定を行う。この状態判定部254が実行する具体的な処理の内容については、後述する。   The state determination unit 254 determines whether the retinal pigment epithelium layer is normal or abnormal based on the retinal pigment epithelium layer boundary 1005 detected by the layer detection unit 251. Details of specific processing executed by the state determination unit 254 will be described later.

次に、図9を参照して、本実施形態の画像処理装置110により実行される、具体的な処理手順を説明する。   Next, a specific processing procedure executed by the image processing apparatus 110 according to the present embodiment will be described with reference to FIG.

図9は、本発明の第2の実施形態に係る画像処理装置110の制御方法の処理手順の一例を示すフローチャートである。なお、図9において、図4と同様の処理については、同じステップ番号を付しており、第1の実施形態と同様であるため、その詳細な説明は省略する。   FIG. 9 is a flowchart illustrating an example of a processing procedure of a control method of the image processing apparatus 110 according to the second embodiment of the present invention. In FIG. 9, processes similar to those in FIG. 4 are denoted by the same step numbers and are the same as those in the first embodiment, and thus detailed description thereof is omitted.

まず、第2の実施形態に係る画像処理装置110の処理では、図4に示すステップS101〜ステップS103の処理を経る。   First, in the processing of the image processing apparatus 110 according to the second embodiment, the processing of steps S101 to S103 shown in FIG. 4 is performed.

<ステップS401>
続いて、ステップS401において、層検出部251は、記憶部240から被写体(被検眼)の断層画像を取得し、当該断層画像から、被写体(被検眼)を構成する所定の層を検出する処理を行う。具体的に、層検出部251は、被写体(被検眼)の断層画像から、図10に示す内境界膜1003、神経線維層境界1004及び網膜色素上皮層境界1005を検出する。そして、層検出部251は、これらの検出結果を記憶部240へ出力する。このステップS401処理は、第1の実施形態における図5のステップS201と同様のであるので、その詳細な説明は省略する。
<Step S401>
Subsequently, in step S401, the layer detection unit 251 obtains a tomographic image of the subject (eye to be examined) from the storage unit 240, and detects a predetermined layer constituting the subject (eye to be examined) from the tomographic image. Do. Specifically, the layer detection unit 251 detects an inner boundary film 1003, a nerve fiber layer boundary 1004, and a retinal pigment epithelium layer boundary 1005 shown in FIG. 10 from a tomographic image of a subject (eye to be examined). Then, the layer detection unit 251 outputs these detection results to the storage unit 240. Since this step S401 is the same as step S201 of FIG. 5 in the first embodiment, detailed description thereof is omitted.

<ステップS402>
続いて、ステップS402において、状態判定部254は、ステップS401で検出された網膜色素上皮層境界1005に基づいて、当該網膜色素上皮層が正常であるか否かの判定を行う。例えば、状態判定部254は、ステップS401で検出された網膜色素上皮層境界1005の曲率の最大値が予め定めた閾値以上であった場合に、当該網膜色素上皮層が異常であると判定する。そして、状態判定部254は、その判定結果を記憶部240へ出力する。
<Step S402>
Subsequently, in step S402, the state determination unit 254 determines whether or not the retinal pigment epithelium layer is normal based on the retinal pigment epithelium layer boundary 1005 detected in step S401. For example, the state determination unit 254 determines that the retinal pigment epithelium layer is abnormal when the maximum value of the curvature of the retinal pigment epithelium layer boundary 1005 detected in step S401 is equal to or greater than a predetermined threshold. Then, the state determination unit 254 outputs the determination result to the storage unit 240.

なお、ステップS402における網膜色素上皮層が正常であるか否かの判定は、他のいずれの方法で行ってもよい。例えば、ステップS402における網膜色素上皮層が正常であるか否かの判定は、網膜色素上皮層境界1005の極大点と極小点の数が閾値以上であるか否かによって行うようにしてもよい。また、変極点の数によって判定してもよく、曲率の分散によって判定してもよい。また、例えば、ステップS402における網膜色素上皮層が正常であるか否かの判定は、網膜色素上皮層境界1005を表す3次元座標群に主成分分析を施し、z軸方向のばらつきを表す第3主成分の大きさが閾値以上であるか否かによって判定してもよい。さらに、フーリエ変換による周波数解析を行い、予め定めた周波数領域の強度によって判定してもよい。なお、これらの処理は、異常が生じやすい中心窩の近傍付近における網膜色素上皮層境界1005のみを対象として行ってもよい。   Note that the determination of whether or not the retinal pigment epithelium layer is normal in step S402 may be performed by any other method. For example, the determination as to whether or not the retinal pigment epithelium layer is normal in step S402 may be performed based on whether or not the number of maximum points and minimum points of the retinal pigment epithelium layer boundary 1005 is equal to or greater than a threshold value. Further, it may be determined by the number of inflection points, or may be determined by the dispersion of curvature. Further, for example, in the determination of whether or not the retinal pigment epithelial layer is normal in step S402, a principal component analysis is performed on the three-dimensional coordinate group representing the retinal pigment epithelial layer boundary 1005, and a third representing the variation in the z-axis direction. You may determine by the magnitude | size of a main component being more than a threshold value. Furthermore, frequency analysis by Fourier transform may be performed, and determination may be made based on a predetermined frequency region intensity. Note that these processes may be performed only on the retinal pigment epithelium layer boundary 1005 in the vicinity of the fovea where the abnormality is likely to occur.

<ステップS403>
続いて、ステップS403において、例えば画像処理部250は、ステップS402の処理で得られた判定結果に基づいて、「網膜色素上皮層の正常時処理」を行うか否かを判断する。
<Step S403>
Subsequently, in step S403, for example, the image processing unit 250 determines whether or not to perform “normal processing of the retinal pigment epithelium layer” based on the determination result obtained in the processing of step S402.

ステップS403の判断の結果、「網膜色素上皮層の正常時処理」を行う場合(即ち、ステップS402の処理で得られた判定結果が、網膜色素上皮層が正常である場合)には、ステップS404に進む。一方、ステップS403の判断の結果、「網膜色素上皮層の正常時処理」を行わない場合(即ち、ステップS402の処理で得られた判定結果が、網膜色素上皮層が正常でない(異常である)場合)には、ステップS405に進む。   As a result of the determination in step S403, when “normal processing of the retinal pigment epithelium layer” is performed (that is, when the determination result obtained in the processing of step S402 is that the retinal pigment epithelium layer is normal), step S404 is performed. Proceed to On the other hand, as a result of the determination in step S403, when “normal processing of the retinal pigment epithelium layer” is not performed (that is, the determination result obtained in the processing of step S402 indicates that the retinal pigment epithelium layer is not normal (abnormal). In the case), the process proceeds to step S405.

<ステップS404>
ステップS404に進むと、画像処理部250は、「網膜色素上皮層の正常時処理」に係る解析処理を実行する。このステップS404の詳細な処理は、基本的には、第1の実施形態におけるステップS106の詳細な処理(図5)と同様である。ただし、本実施形態では、図5のステップS201における層の境界検出処理は実行しない。
<Step S404>
In step S404, the image processing unit 250 executes analysis processing related to “normal processing of the retinal pigment epithelium layer”. The detailed process of step S404 is basically the same as the detailed process (FIG. 5) of step S106 in the first embodiment. However, in this embodiment, the layer boundary detection process in step S201 of FIG. 5 is not executed.

<ステップS405>
一方、ステップS405に進むと、画像処理部250は、「網膜色素上皮層の異常時処理」に係る解析処理を実行する。このステップS405の詳細な処理は、基本的には、第1の実施形態におけるステップS107の詳細な処理(図6)と同様である。ただし、本実施形態では、図6のステップS301における層の境界検出処理は実行しない。
<Step S405>
On the other hand, when the processing proceeds to step S405, the image processing unit 250 executes an analysis process related to the “retinal pigment epithelium layer abnormality process”. The detailed process of step S405 is basically the same as the detailed process (FIG. 6) of step S107 in the first embodiment. However, in this embodiment, the layer boundary detection process in step S301 in FIG. 6 is not executed.

そして、ステップS404或いはステップS405の処理が終了すると、ステップS108に進み、第1の実施形態における図4のステップS108以降の処理が行われる。   Then, when the process of step S404 or step S405 ends, the process proceeds to step S108, and the processes after step S108 of FIG. 4 in the first embodiment are performed.

以上説明した第2の実施形態によれば、被写体(被検眼)の網膜色素上皮層が正常であるか否かを画像処理装置110で判定するので、第1の実施形態における効果に加えて、正常である場合にはそのデータを正常時データとして自動的に保存することができる。これにより、網膜色素上皮層が異常な場合には、保存さている正常時データに基づいて正常構造を推定し、その状態(形状の乱れ)を定量的に評価することができる。   According to the second embodiment described above, since the image processing device 110 determines whether or not the retinal pigment epithelium layer of the subject (eye to be examined) is normal, in addition to the effects in the first embodiment, If it is normal, the data can be automatically saved as normal data. As a result, when the retinal pigment epithelium layer is abnormal, it is possible to estimate the normal structure based on the stored normal data and quantitatively evaluate the state (shape disturbance).

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
第3の実施形態は、上述した第1及び第2の実施形態の変形例に係る形態である。以下に、各変形例を説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
The third embodiment is a form according to a modified example of the first and second embodiments described above. Below, each modification is demonstrated.

−変形例1−
上述した各実施形態では、図6のステップS303の処理において、最小二乗法やM推定を用いて所定の層の正常構造を推定するものであった。しかしながら、正常構造を推定する方法は、これに限定されるものではない。例えば、(1)式のεiが予め定めた閾値以下となる点(インライア)の数を評価基準として、それを最大化するような変換行列を求める構成としてもよい。また、図6のステップS303の処理では、検出された網膜色素上皮層境界1005と正常時データの全点を用いて正常構造の推定を行っていたが、使用する点を適当な間隔で間引いてもよい。また、3次元の点群同士のあてはめ処理を行う公知のいずれの手法を用いてもよい。
-Modification 1-
In each of the above-described embodiments, the normal structure of a predetermined layer is estimated using the least square method or M estimation in the process of step S303 in FIG. However, the method for estimating the normal structure is not limited to this. For example, the number of points (inliers) at which ε i in Equation (1) is equal to or less than a predetermined threshold may be used as an evaluation criterion, and a transformation matrix that maximizes the number may be used. In the process of step S303 in FIG. 6, the normal structure is estimated using the detected retinal pigment epithelium layer boundary 1005 and all the normal data points, but the points to be used are thinned out at appropriate intervals. Also good. Any known technique for performing a fitting process between three-dimensional point groups may be used.

また、正常構造推定部252において、現断層画像上で検出されている網膜色素上皮層境界1005を正常範囲と異常範囲とに分類し、異常範囲を除外した正常範囲における網膜色素上皮層境界1005に対してのみ、上記のあてはめ処理を行ってもよい。この際、正常構造推定部252における異常範囲の検出は、例えば、網膜色素上皮層境界1005の局所的な曲率に基づいて行う。即ち、正常構造推定部252は、網膜色素上皮層境界1005の局所的な曲率を計算し、曲率の変化率が閾値以上の部分とそれに挟まれる部分は、異常範囲であると判定して処理を行う。   In addition, the normal structure estimation unit 252 classifies the retinal pigment epithelium layer boundary 1005 detected on the current tomographic image into a normal range and an abnormal range, and sets the retinal pigment epithelium layer boundary 1005 in the normal range excluding the abnormal range. Only the above-described fitting process may be performed. At this time, the detection of the abnormal range in the normal structure estimation unit 252 is performed based on, for example, the local curvature of the retinal pigment epithelium layer boundary 1005. In other words, the normal structure estimation unit 252 calculates the local curvature of the retinal pigment epithelium layer boundary 1005, determines that the portion where the curvature change rate is greater than or equal to the threshold and the portion sandwiched between them is an abnormal range. Do.

なお、正常時データに施す座標変換は、(1)式で表されるような形状全体に対する一律的な変換に限定されるものではなく、局所的な形状変形を伴う変換を許容してもよい。例えば、正常時データと異なる形状となることに対してペナルティ項を設定し(換言すると、正常時データと異なる形状となることをある程度の範囲で許容し)、その上で、フリーフォームデフォーメーションによるあてはめ処理を行う構成としてもよい。   Note that the coordinate transformation applied to the normal data is not limited to the uniform transformation for the entire shape as expressed by the equation (1), and transformation with local shape deformation may be allowed. . For example, a penalty term is set for a shape different from normal data (in other words, a shape different from normal data is allowed within a certain range), and then freeform deformation is applied. It is good also as a structure which performs a fitting process.

−変形例2−
上述した各実施形態では、網膜色素上皮層境界の正常時データを、この境界を表す3次元座標の集合によって表していた。しかしながら、正常時データの記述方法はこれに限定されるものではない。例えば、xy平面上の幾つかのサンプリング点における境界のz座標を正常時データとして保持するようにしてもよい。また、面を表現する関数によりこの3次元座標の集合を近似して、当該関数のパラメータを正常時データとして保持するようにしてもよい。この場合、図6のステップS303におけるあてはめ処理を行う前に、当該関数にxy平面の各座標を代入することで、正常時データを表す3次元座標の集合を生成すればよい。或いは、点群を関数にあてはめるための座標変換を推定する公知のいずれの手法を用いて当該あてはめ処理を行ってもよい。
-Modification 2-
In each of the embodiments described above, normal data of the retinal pigment epithelium layer boundary is represented by a set of three-dimensional coordinates representing the boundary. However, the normal data description method is not limited to this. For example, the z-coordinates of boundaries at several sampling points on the xy plane may be held as normal data. Further, the set of three-dimensional coordinates may be approximated by a function representing a surface, and the parameters of the function may be held as normal data. In this case, before performing the fitting process in step S303 in FIG. 6, a set of three-dimensional coordinates representing normal data may be generated by substituting the coordinates of the xy plane into the function. Or you may perform the said fitting process using any well-known method of estimating the coordinate transformation for fitting a point cloud to a function.

−変形例3−
上述した各実施形態では、図5のステップS204において、検出した網膜色素上皮層境界1005をその正常時データとして保存するか否かの指示を外部から取得していた。そして、その指示に従って、検出結果を被写体(被検眼)の正常時データとして保存していた。しかしながら、検出結果を正常時データとして保存するか否かの判断方法は、これに限定されるものではない。例えば、当該被写体(被検眼)の正常時データがデータサーバ130に登録されていない場合には、指示に依らずに検出結果を正常時データとして保存する構成であってもよい。また、当該被写体(被検眼)の正常時データがデータサーバ130に登録されているか否かに関らず、常に最新の検出結果を正常時データとして保存する構成であってもよい。
-Modification 3-
In each of the above-described embodiments, in step S204 in FIG. 5, an instruction as to whether or not to save the detected retinal pigment epithelium layer boundary 1005 as normal data is acquired from the outside. Then, according to the instruction, the detection result is stored as normal data of the subject (eye to be examined). However, the method for determining whether or not to save the detection result as normal data is not limited to this. For example, when normal data of the subject (eye to be examined) is not registered in the data server 130, the detection result may be stored as normal data without depending on an instruction. Further, the latest detection result may be always stored as normal data regardless of whether normal data of the subject (eye to be examined) is registered in the data server 130 or not.

また、過去に登録された正常時データを撮影日時と共に複数保持しておいて、使用する日時における正常時データをそれらの情報から生成する構成としてもよい。また、例えば、正常時データに3次元的な位置合わせを施しておいて、撮像日時と使用日時に基づいた外挿処理等によって正常時データを生成してもよい。   Alternatively, a plurality of normal time data registered in the past may be held together with the shooting date and time, and normal time data at the date and time of use may be generated from the information. Further, for example, the normal time data may be generated by performing three-dimensional alignment on the normal time data and performing extrapolation processing based on the imaging date and time and the use date and time.

−変形例4−
上述した各実施形態では、黄斑部の中心窩を利用して断層画像と正常時データとの初期位置合わせを行っていた。しかしながら、それ以外の方法を用いて初期位置合わせを行ってもよい。例えば、検出した網膜色素上皮層境界1005と正常時データのそれぞれの重心を求めて、その重心が一致するようにすることにより、大まかな位置合わせを行う構成であってもよい。
-Modification 4-
In each of the above-described embodiments, the initial alignment between the tomographic image and the normal data is performed using the fovea of the macular portion. However, initial alignment may be performed using other methods. For example, a rough alignment may be performed by obtaining the respective centroids of the detected retinal pigment epithelium layer boundary 1005 and the normal data so that the centroids coincide with each other.

−変形例5−
上述した各実施形態では、取得した3次元の断層画像全体に対して解析処理を行っていた。しかしながら、3次元の断層画像から注目すべき断面を選択して、選択した2次元断層画像に対して処理を行う構成であってもよい。例えば、予め定めた眼底の特定部位(例えば中心窩)を含む断面に対して処理を行ってもよい。この場合、検出される層の境界、正常構造、正常時データ等は、いずれも当該断面上における2次元のデータとなる。そして、図6のステップS303の処理における変換行列Aとして、当該断面内における2次元の剛体変換を表す3×3の行列を推定すればよい。
-Modification 5-
In each of the above-described embodiments, analysis processing is performed on the entire acquired three-dimensional tomographic image. However, a configuration in which a notable cross section is selected from a three-dimensional tomographic image and processing is performed on the selected two-dimensional tomographic image may be employed. For example, the process may be performed on a cross section including a predetermined specific part (for example, fovea) of the fundus. In this case, the detected layer boundary, normal structure, normal data, and the like are all two-dimensional data on the cross section. And what is necessary is just to estimate the 3 * 3 matrix showing the two-dimensional rigid body transformation in the said cross section as the transformation matrix A in the process of step S303 of FIG.

−変形例6−
上述した各実施形態では、網膜色素上皮層1001とその下部の層との境界を検出し、その正常構造を推定することで、網膜色素上皮層の形状の乱れを定量化していた。しかしながら、網膜色素上皮層1001とその上部の層との境界を検出し、その正常構造を推定する構成であってもよい。また、網膜色素上皮層1001全体を処理の対象としてもよい。また、形状の乱れを定量化する層は、網膜色素上皮層1001に限定されるものではなく、疾病に対して同様に振る舞う周辺の層を処理の対象としてもよい。即ち、加齢黄斑変性等の疾病により形状が凹凸に変化する層であれば、いずれの層やその境界を検出し、その正常構造を推定して、形状の乱れを定量化してもよい。
-Modification 6
In each of the above-described embodiments, the disorder of the shape of the retinal pigment epithelium layer is quantified by detecting the boundary between the retinal pigment epithelium layer 1001 and its lower layer and estimating its normal structure. However, the configuration may be such that the boundary between the retinal pigment epithelium layer 1001 and the upper layer thereof is detected and the normal structure is estimated. Further, the entire retinal pigment epithelium layer 1001 may be the target of processing. Further, the layer for quantifying the disorder of shape is not limited to the retinal pigment epithelium layer 1001, and a peripheral layer that behaves similarly to a disease may be the target of processing. That is, as long as it is a layer whose shape changes to unevenness due to a disease such as age-related macular degeneration, any layer or its boundary may be detected to estimate its normal structure and quantify the shape disturbance.

−変形例7−
上述した各実施形態では、網膜色素上皮層境界1005が疾病のために変形してしまっている場合に、その正常構造を推定するために、被写体(被検眼)に対して過去に測定した正常時データを用いている。しかしながら、血管や白斑などの影響により網膜色素上皮層境界1005が断層画像上において明確に観測できない(画像特徴が得られない)部分がある場合に、その検出を補助する目的で被写体(被検眼)の正常時データを利用することも可能である。
-Modification 7-
In each of the embodiments described above, when the retinal pigment epithelium layer boundary 1005 has been deformed due to a disease, in order to estimate the normal structure, the normal time measured in the past with respect to the subject (eye to be examined) Data is used. However, if there is a portion where the retinal pigment epithelium layer boundary 1005 cannot be clearly observed on a tomographic image (image characteristics cannot be obtained) due to the influence of blood vessels, vitiligo, etc., the subject (eye to be examined) for the purpose of assisting the detection It is also possible to use normal data.

例えば、層検出部251が検出した網膜色素上皮層境界1005に欠落部分があった場合を考える。このとき、この欠落部分を有する網膜色素上皮層境界1005に対して正常時データのあてはめ処理(図6のステップS303)を行うことにより、当該欠落部分の層境界を推定することができる。   For example, consider a case where there is a missing portion in the retinal pigment epithelium layer boundary 1005 detected by the layer detection unit 251. At this time, the layer boundary of the missing portion can be estimated by performing normal data fitting processing (step S303 in FIG. 6) on the retinal pigment epithelium layer boundary 1005 having the missing portion.

或いは、層検出部251による網膜色素上皮層境界1005の検出処理そのものを、断層画像に対する正常時データのあてはめ処理によって行ってもよい。また、網膜色素上皮層境界1005の形状は正常時データに類似するという制約条件を加味しながら、網膜色素上皮層境界1005の検出処理を行ってもよい。例えば、検出された網膜色素上皮層境界1005の形状が正常時データからかけ離れることに対するペナルティ項を付加した形で、動的輪郭法による検出を行ってもよい。   Alternatively, the detection process itself of the retinal pigment epithelium layer boundary 1005 by the layer detection unit 251 may be performed by a normal time data fitting process for a tomographic image. Further, the detection process of the retinal pigment epithelium layer boundary 1005 may be performed in consideration of the constraint that the shape of the retinal pigment epithelium layer boundary 1005 is similar to the normal data. For example, the detection by the dynamic contour method may be performed in a form in which a penalty term for the shape of the detected retinal pigment epithelium layer boundary 1005 being far from normal data is added.

−変形例8−
上述した各実施形態では、断層画像撮像装置120は、画像処理装置110に必ずしも接続されていなくてもよい。例えば、処理対象である断層画像が既に撮像された状態でデータサーバ130に保管されており、これを読み込んで処理する構成であってもよい。この場合、画像取得部220は、データサーバ130に対して被写体(被検眼)の断層画像の送信を要求し、データサーバ130から送信される断層画像を取得する。そして、層検出部251で層の境界検出を行い、定量化部253で定量化処理を行う。
-Modification 8-
In each of the above-described embodiments, the tomographic imaging apparatus 120 does not necessarily have to be connected to the image processing apparatus 110. For example, a configuration may be adopted in which a tomographic image to be processed is already captured in the data server 130 and is read and processed. In this case, the image acquisition unit 220 requests the data server 130 to transmit a tomographic image of the subject (eye to be examined), and acquires the tomographic image transmitted from the data server 130. Then, the layer detection unit 251 performs layer boundary detection, and the quantification unit 253 performs quantification processing.

一方で、データサーバ130は、画像処理装置110に必ずしも接続されていなくてもよく、画像処理装置110の外部記憶装置114がその役割を果たす構成であってもよい。   On the other hand, the data server 130 does not necessarily have to be connected to the image processing apparatus 110, and the external storage device 114 of the image processing apparatus 110 may play a role.

(その他の実施形態)
前述した本発明の各実施形態に係る画像処理装置110を構成する図3及び図8の各構成部(各手段)、並びに、図4〜図6及び図9の各ステップは、CPU(111)が外部記憶装置(114)に記憶されているプログラムを実行することによって実現できる。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
(Other embodiments)
3 and FIG. 8 constituting the image processing apparatus 110 according to each embodiment of the present invention described above, and each step of FIG. 4 to FIG. 6 and FIG. Can be realized by executing a program stored in the external storage device (114). This program and a computer-readable recording medium storing the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した各実施形態の機能を実現するソフトウェアのプログラム(実施形態では図4〜図6及び図9に示すフローチャートに対応したプログラム)を、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   In the present invention, a software program for realizing the functions of the above-described embodiments (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 4 to 6 and 9) is directly or remotely transmitted to a system or apparatus. Includes supplies. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that each of the above-described embodiments is merely a specific example for carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. . That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

110 画像処理装置110
210 被写体情報取得部
220 画像取得部
230 指示取得部
240 記憶部
250 画像処理部
251 層検出部
252 正常構造推定部
253 定量化部
260 表示部
270 結果出力部
110 Image processing apparatus 110
210 Subject information acquisition unit 220 Image acquisition unit 230 Instruction acquisition unit 240 Storage unit 250 Image processing unit 251 Layer detection unit 252 Normal structure estimation unit 253 Quantification unit 260 Display unit 270 Result output unit

Claims (14)

被写体の断層画像を取得する画像取得手段と、
前記被写体を構成する所定の層の正常時データを取得する被写体情報取得手段と、
前記断層画像から前記所定の層を検出する層検出手段と、
前記層検出手段による前記所定の層の検出結果と、前記被写体情報取得手段で取得された当該所定の層の正常時データとを用いて、前記所定の層の正常構造を推定する正常構造推定手段と
を有することを特徴とする画像処理装置。
Image acquisition means for acquiring a tomographic image of the subject;
Subject information acquisition means for acquiring normal time data of a predetermined layer constituting the subject;
Layer detecting means for detecting the predetermined layer from the tomographic image;
Normal structure estimation means for estimating the normal structure of the predetermined layer using the detection result of the predetermined layer by the layer detection means and normal data of the predetermined layer acquired by the subject information acquisition means And an image processing apparatus.
前記層検出手段による前記所定の層の検出結果に基づいて、当該所定の層の状態が正常であるか否かを判定する状態判定手段を更に有し、
前記正常構造推定手段は、前記状態判定手段において前記所定の層の状態が正常でないと判定された場合に、当該所定の層の正常構造を推定することを特徴とする請求項1に記載の画像処理装置。
Based on the detection result of the predetermined layer by the layer detection unit, further includes a state determination unit that determines whether or not the state of the predetermined layer is normal,
The image according to claim 1, wherein the normal structure estimation unit estimates a normal structure of the predetermined layer when the state determination unit determines that the state of the predetermined layer is not normal. Processing equipment.
前記状態判定手段において前記所定の層の状態が正常であると判定された場合に、前記被写体の正常時データとして前記層検出手段による前記所定の層の検出結果を出力する出力手段を更に有すること特徴とする請求項2に記載の画像処理装置。   When the state determining unit determines that the state of the predetermined layer is normal, the apparatus further includes an output unit that outputs the detection result of the predetermined layer by the layer detecting unit as normal data of the subject. The image processing apparatus according to claim 2. 前記層検出手段による前記所定の層の検出結果を前記被写体の正常時データとして保存するか否かの指示を取得する指示取得手段を更に有し、
前記出力手段は、前記指示取得手段が前記保存する指示を取得した場合に、前記被写体の正常時データとして前記層検出手段による前記所定の層の検出結果を出力することを特徴とする請求項3に記載の画像処理装置。
Further comprising instruction acquisition means for acquiring an instruction as to whether or not to store the detection result of the predetermined layer by the layer detection means as normal data of the subject;
The output unit outputs the detection result of the predetermined layer by the layer detection unit as normal data of the subject when the instruction acquisition unit acquires the instruction to save. An image processing apparatus according to 1.
前記層検出手段による前記所定の層の検出結果と、前記正常構造推定手段で推定された当該所定の層の正常構造との差異に基づいて、当該所定の層の状態を定量化する定量化手段を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   Quantifying means for quantifying the state of the predetermined layer based on the difference between the detection result of the predetermined layer by the layer detecting means and the normal structure of the predetermined layer estimated by the normal structure estimating means The image processing apparatus according to claim 1, further comprising: 前記定量化手段は、前記差異に基づく厚みの分布、面積、体積、濃度の特徴のいずれかによって、前記所定の層の状態を定量化することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the quantification unit quantifies the state of the predetermined layer based on any one of thickness distribution, area, volume, and concentration characteristics based on the difference. . 被写体の断層画像を取得する画像取得手段と、
前記被写体を構成する所定の層の正常時データを取得する被写体情報取得手段と、
前記被写体情報取得手段で取得された前記所定の層の正常時データを利用して、前記断層画像から前記所定の層を検出する層検出手段と
を有することを特徴とする画像処理装置。
Image acquisition means for acquiring a tomographic image of the subject;
Subject information acquisition means for acquiring normal time data of a predetermined layer constituting the subject;
An image processing apparatus comprising: layer detection means for detecting the predetermined layer from the tomographic image using normal data of the predetermined layer acquired by the subject information acquisition means.
前記被写体は、被検眼であることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the subject is an eye to be examined. 前記所定の層は、網膜色素上皮層、当該網膜色素上皮層とその下部の層との境界、当該網膜色素上皮層とその上部の層との境界のいずれかであることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The predetermined layer is any one of a retinal pigment epithelium layer, a boundary between the retinal pigment epithelium layer and a lower layer thereof, and a boundary between the retinal pigment epithelium layer and an upper layer thereof. The image processing apparatus according to any one of 1 to 8. 被写体の断層画像の処理を行う画像処理装置の制御方法であって、
前記被写体の断層画像を取得する画像取得ステップと、
前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、
前記断層画像から前記所定の層を検出する層検出ステップと、
前記層検出ステップによる前記所定の層の検出結果と、前記被写体情報取得ステップで取得された当該所定の層の正常時データとを用いて、前記所定の層の正常構造を推定する正常構造推定ステップと
を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus for processing a tomographic image of a subject,
An image acquisition step of acquiring a tomographic image of the subject;
Subject information obtaining step for obtaining normal data of a predetermined layer constituting the subject;
A layer detection step of detecting the predetermined layer from the tomographic image;
Normal structure estimation step for estimating the normal structure of the predetermined layer using the detection result of the predetermined layer by the layer detection step and normal data of the predetermined layer acquired by the subject information acquisition step And a control method for an image processing apparatus.
被写体の断層画像の処理を行う画像処理装置の制御方法であって、
被写体の断層画像を取得する画像取得ステップと、
前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、
前記被写体情報取得ステップで取得された前記所定の層の正常時データを利用して、前記断層画像から前記所定の層を検出する層検出ステップと
を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus for processing a tomographic image of a subject,
An image acquisition step of acquiring a tomographic image of the subject;
Subject information obtaining step for obtaining normal data of a predetermined layer constituting the subject;
And a layer detection step of detecting the predetermined layer from the tomographic image using normal data of the predetermined layer acquired in the subject information acquisition step. .
被写体の断層画像の処理を行う画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、
前記被写体の断層画像を取得する画像取得ステップと、
前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、
前記断層画像から前記所定の層を検出する層検出ステップと、
前記層検出ステップによる前記所定の層の検出結果と、前記被写体情報取得ステップで取得された当該所定の層の正常時データとを用いて、前記所定の層の正常構造を推定する正常構造推定ステップと
をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a control method of an image processing apparatus for processing a tomographic image of a subject,
An image acquisition step of acquiring a tomographic image of the subject;
Subject information obtaining step for obtaining normal data of a predetermined layer constituting the subject;
A layer detection step of detecting the predetermined layer from the tomographic image;
Normal structure estimation step for estimating the normal structure of the predetermined layer using the detection result of the predetermined layer by the layer detection step and normal data of the predetermined layer acquired by the subject information acquisition step A program that causes a computer to execute and.
被写体の断層画像の処理を行う画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、
被写体の断層画像を取得する画像取得ステップと、
前記被写体を構成する所定の層の正常時データを取得する被写体情報取得ステップと、
前記被写体情報取得ステップで取得された前記所定の層の正常時データを利用して、前記断層画像から前記所定の層を検出する層検出ステップと
をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a control method of an image processing apparatus for processing a tomographic image of a subject,
An image acquisition step of acquiring a tomographic image of the subject;
Subject information obtaining step for obtaining normal data of a predetermined layer constituting the subject;
A program for causing a computer to execute a layer detection step of detecting the predetermined layer from the tomographic image using normal data of the predetermined layer acquired in the subject information acquisition step.
請求項12または13に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 12 or 13.
JP2009048520A 2009-03-02 2009-03-02 Image processing apparatus, image processing method, and program Expired - Fee Related JP5478914B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009048520A JP5478914B2 (en) 2009-03-02 2009-03-02 Image processing apparatus, image processing method, and program
US12/714,798 US9700210B2 (en) 2009-03-02 2010-03-01 Image processing apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048520A JP5478914B2 (en) 2009-03-02 2009-03-02 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2010200920A true JP2010200920A (en) 2010-09-16
JP2010200920A5 JP2010200920A5 (en) 2012-11-29
JP5478914B2 JP5478914B2 (en) 2014-04-23

Family

ID=42963039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048520A Expired - Fee Related JP5478914B2 (en) 2009-03-02 2009-03-02 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5478914B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147977A (en) * 2011-01-20 2012-08-09 Canon Inc Optical coherence tomographic imaging method and apparatus
JP2012147976A (en) * 2011-01-20 2012-08-09 Canon Inc Optical coherence tomographic imaging method and apparatus
JP2013153880A (en) * 2012-01-27 2013-08-15 Canon Inc Image processing system, processing method, and program
KR20140029255A (en) * 2012-08-30 2014-03-10 캐논 가부시끼가이샤 Image processing apparatus and image processing method
JP2016520350A (en) * 2013-04-11 2016-07-14 ノバルティス アーゲー Method and system for detecting ocular tissue structure and pathology
JP2018020192A (en) * 2017-10-06 2018-02-08 キヤノン株式会社 Image processing system, processing method, and program
JP2019115827A (en) * 2019-04-26 2019-07-18 キヤノン株式会社 Image processing system, processing method and program
US10872237B2 (en) 2012-01-27 2020-12-22 Canon Kabushiki Kaisha Image processing system, processing method, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7142389B1 (en) 2021-10-05 2022-09-27 メイク株式会社 capacitive level switch

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022045A1 (en) * 2004-08-26 2006-03-02 National University Corporation Nagoya University Optical interference tomograph
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008073099A (en) * 2006-09-19 2008-04-03 Topcon Corp Fundus observation apparatus, fundus image display device, and fundus observation program
JP2008206684A (en) * 2007-02-26 2008-09-11 Topcon Corp Fundus oculi observation device, fundus oculi image processing device and program
JP2009507537A (en) * 2005-09-09 2009-02-26 カール ツァイス メディテック アクチエンゲゼルシャフト A method for processing biological image data to reveal more meaningful anatomical features of diseased tissue
JP2009061203A (en) * 2007-09-10 2009-03-26 Univ Of Tokyo Fundus observation apparatus, and fundus image processing device and program
JP2009089792A (en) * 2007-10-04 2009-04-30 Topcon Corp Fundus oculi observation device and fundus oculi image processing device
WO2010044184A1 (en) * 2008-10-17 2010-04-22 キヤノン株式会社 Image processing apparatus for ophthalmic tomogram, and image processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006022045A1 (en) * 2004-08-26 2006-03-02 National University Corporation Nagoya University Optical interference tomograph
JP2009507537A (en) * 2005-09-09 2009-02-26 カール ツァイス メディテック アクチエンゲゼルシャフト A method for processing biological image data to reveal more meaningful anatomical features of diseased tissue
JP2007325831A (en) * 2006-06-09 2007-12-20 Topcon Corp Fundus observation apparatus, ophthalmologic image processing apparatus, and ophthalmologic image processing program
JP2008073099A (en) * 2006-09-19 2008-04-03 Topcon Corp Fundus observation apparatus, fundus image display device, and fundus observation program
JP2008206684A (en) * 2007-02-26 2008-09-11 Topcon Corp Fundus oculi observation device, fundus oculi image processing device and program
JP2009061203A (en) * 2007-09-10 2009-03-26 Univ Of Tokyo Fundus observation apparatus, and fundus image processing device and program
JP2009089792A (en) * 2007-10-04 2009-04-30 Topcon Corp Fundus oculi observation device and fundus oculi image processing device
WO2010044184A1 (en) * 2008-10-17 2010-04-22 キヤノン株式会社 Image processing apparatus for ophthalmic tomogram, and image processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147977A (en) * 2011-01-20 2012-08-09 Canon Inc Optical coherence tomographic imaging method and apparatus
JP2012147976A (en) * 2011-01-20 2012-08-09 Canon Inc Optical coherence tomographic imaging method and apparatus
JP2013153880A (en) * 2012-01-27 2013-08-15 Canon Inc Image processing system, processing method, and program
US10872237B2 (en) 2012-01-27 2020-12-22 Canon Kabushiki Kaisha Image processing system, processing method, and storage medium
KR20140029255A (en) * 2012-08-30 2014-03-10 캐논 가부시끼가이샤 Image processing apparatus and image processing method
KR101581310B1 (en) 2012-08-30 2015-12-31 캐논 가부시끼가이샤 Image processing apparatus and image processing method
JP2016520350A (en) * 2013-04-11 2016-07-14 ノバルティス アーゲー Method and system for detecting ocular tissue structure and pathology
US9955865B2 (en) 2013-04-11 2018-05-01 Novartis Ag Method and system to detect ophthalmic tissue structure and pathologies
JP2018020192A (en) * 2017-10-06 2018-02-08 キヤノン株式会社 Image processing system, processing method, and program
JP2019115827A (en) * 2019-04-26 2019-07-18 キヤノン株式会社 Image processing system, processing method and program

Also Published As

Publication number Publication date
JP5478914B2 (en) 2014-04-23

Similar Documents

Publication Publication Date Title
JP5478914B2 (en) Image processing apparatus, image processing method, and program
US9053536B2 (en) Image processing apparatus and image processing method for a tomogram of an eye region
JP5904711B2 (en) Image processing apparatus, image processing method, and program
EP2453790B1 (en) Image processing apparatus, image processing method, and program
US9700210B2 (en) Image processing apparatus and method for controlling the same
JP5955163B2 (en) Image processing apparatus and image processing method
KR20130100384A (en) Image processing apparatus, control method thereof, and computer program
JP5723093B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP5473358B2 (en) Image processing apparatus, image processing method, and program
JP5017486B2 (en) Image processing apparatus and image processing method
JP5241937B2 (en) Image processing apparatus and image processing method
JP5677492B2 (en) Image processing apparatus and image processing method
JP5236094B2 (en) Image processing apparatus and image processing method
JP6239021B2 (en) Image processing apparatus, image processing method, and program
JP6611776B2 (en) Image processing apparatus, method of operating image processing apparatus, and program
JP5677502B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R151 Written notification of patent or utility model registration

Ref document number: 5478914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees