JP5634587B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5634587B2
JP5634587B2 JP2013225503A JP2013225503A JP5634587B2 JP 5634587 B2 JP5634587 B2 JP 5634587B2 JP 2013225503 A JP2013225503 A JP 2013225503A JP 2013225503 A JP2013225503 A JP 2013225503A JP 5634587 B2 JP5634587 B2 JP 5634587B2
Authority
JP
Japan
Prior art keywords
image
dimensional tomographic
dimensional
layer
fundus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013225503A
Other languages
Japanese (ja)
Other versions
JP2014014725A (en
Inventor
好彦 岩瀬
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013225503A priority Critical patent/JP5634587B2/en
Publication of JP2014014725A publication Critical patent/JP2014014725A/en
Application granted granted Critical
Publication of JP5634587B2 publication Critical patent/JP5634587B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、眼部における断層画像の高画質化に関する技術である。   The present invention relates to a technique relating to high image quality of a tomographic image in an eye part.

光干渉断層計(OCT;Optical Coherence Tomography)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。   An ophthalmic tomographic imaging apparatus such as an optical coherence tomography (OCT) can observe the state inside the retinal layer three-dimensionally. This tomographic imaging apparatus has attracted attention in recent years because it is useful for more accurately diagnosing diseases.

眼科の診断においては、網膜層全体の状態を把握するためにボリューム画像と、低画質な断層画像には写らない層を把握するための高画質な二次元断層画像とが用いられる場合がある。   In ophthalmologic diagnosis, there are cases where a volume image is used to grasp the state of the entire retinal layer and a high-quality two-dimensional tomographic image is used to grasp a layer that does not appear in a low-quality tomographic image.

OCTで得られる断層画像の画質は、網膜に入射される近赤外光の強度に依存する。このため、断層画像の画質を向上させるためには、網膜に照射する光の強度を上げる必要があるが、安全性の観点から、網膜に照射可能な光の強度には限界がある。このため、安全上、問題のない強度範囲で近赤外光の照射を行いつつ、高画質な断層画像を生成することが望まれている。このような要求に対して、撮影した二次元の断層画像群を、互いに重ね合わせることにより、ノイズの少ない断面画像を生成する技術が開示されている(特許文献1参照)。   The image quality of a tomographic image obtained by OCT depends on the intensity of near infrared light incident on the retina. For this reason, in order to improve the image quality of a tomographic image, it is necessary to increase the intensity of light irradiated to the retina, but from the viewpoint of safety, there is a limit to the intensity of light that can be irradiated to the retina. For this reason, it is desired to generate a high-quality tomographic image while irradiating near-infrared light within a safe intensity range for safety. In response to such a requirement, a technique for generating a cross-sectional image with less noise by superimposing photographed two-dimensional tomographic image groups on each other is disclosed (see Patent Document 1).

一方、OCTで撮影した網膜の断層画像から各層の厚みを計測できれば、緑内障などの疾病の進行度や治療後の回復具合を定量的に診断することが可能となる。これらの層の厚みを定量的に計測するために、コンピュータを用いて断層画像から網膜の各層の境界を検出し、各層の厚みを計測する技術が開示されている(特許文献2参照)。   On the other hand, if the thickness of each layer can be measured from a tomographic image of the retina taken by OCT, it is possible to quantitatively diagnose the degree of progression of diseases such as glaucoma and the degree of recovery after treatment. In order to quantitatively measure the thickness of these layers, a technique is disclosed in which the boundary of each layer of the retina is detected from a tomographic image using a computer and the thickness of each layer is measured (see Patent Document 2).

特開2008−237238号公報JP 2008-237238 A 特開2007−325831号公報JP 2007-325831 A

しかし、特許文献1では、異なる走査線で撮像された画像から一つの画像を生成している。そのため、ノイズの低減と撮像位置の位置ずれがトレードオフの関係にある。また、眼はまばたきや固視微動などが起こるため、隣接画像同士が類似しているとは限らない。
そのため、隣接する画像同士の重ね合わせでは、医師(以下「術者」と呼ぶ場合もある)が最も見たい位置の画像が高画質で得られるとは限らない。また、コンピュータを用いて断層画像から網膜の各層の境界を検出し各層の厚みを計測する場合において、断層画像の層検出の高精度化も望まれている。
However, in Patent Document 1, one image is generated from images picked up by different scanning lines. Therefore, there is a trade-off relationship between noise reduction and image position misalignment. In addition, since the eyes blink or fixation micromotion occurs, adjacent images are not always similar to each other.
For this reason, when images adjacent to each other are overlapped, an image at a position most desired by a doctor (hereinafter sometimes referred to as an “operator”) is not always obtained with high image quality. In addition, in the case where the boundary of each layer of the retina is detected from the tomographic image using a computer and the thickness of each layer is measured, it is desired to increase the accuracy of the layer detection of the tomographic image.

本発明は上記課題に鑑みてなされたものであり、断層画像の画質を向上させることを目的とする。または、層検出の精度を向上させることを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to improve the image quality of a tomographic image. Alternatively, it is an object to improve the accuracy of layer detection.

上記の目的を達成するための、本発明の一態様による画像処理置は、
被検眼の眼底における深度方向の位置を調整する際に取得された前記眼底の複数の二次元断層画像のうち、前記複数の二次元断層画像よりも少ない枚数の二次元断層画像に基づいて、新たな二次元断層画像を生成する生成手段と、
前記新たな二次元断層画像における前記眼底の層を検出する第一の層検出手段と、
前記第一の層検出手段の検出結果に基づいて、前記複数の二次元断層画像が取得された後に取得された三次元画像を構成する複数の二次元断層画像のうち、少なくとも1つの二次元断層画像から前記眼底の層を検出する第二の層検出手段と、を有する。
また、上記の目的を達成するための、本発明の一態様による画像処理方法は、
被検眼の眼底における深度方向の位置を調整する際に取得された前記眼底の複数の二次元断層画像のうち、前記複数の二次元断層画像よりも少ない枚数の二次元断層画像に基づいて、新たな二次元断層画像を生成する生成工程と、
前記新たな二次元断層画像における前記眼底の層を検出する第一の層検出工程と、
前記第一の層検出工程における検出結果に基づいて、前記複数の二次元断層画像が取得された後に取得された三次元画像を構成する複数の二次元断層画像のうち、少なくとも1つの二次元断層画像から前記眼底の層を検出する第二の層検出工程と、を有する。
In order to achieve the above object, the image processing equipment according to an embodiment of the present invention,
Based on a smaller number of two-dimensional tomographic images than the plurality of two-dimensional tomographic images out of the plurality of two-dimensional tomographic images of the fundus acquired when adjusting the position in the depth direction on the fundus of the eye to be examined. Generating means for generating a simple two-dimensional tomographic image;
First layer detecting means for detecting the fundus layer in the new two-dimensional tomographic image;
Based on the detection result of the first layer detecting means, at least one two-dimensional tomographic image among a plurality of two-dimensional tomographic images constituting a three-dimensional image acquired after the plurality of two-dimensional tomographic images are acquired. Second layer detecting means for detecting the fundus layer from the image.
In order to achieve the above object, an image processing method according to one aspect of the present invention includes:
Based on a smaller number of two-dimensional tomographic images than the plurality of two-dimensional tomographic images out of the plurality of two-dimensional tomographic images of the fundus acquired when adjusting the position in the depth direction on the fundus of the eye to be examined. Generating a two-dimensional tomographic image,
A first layer detecting step of detecting the fundus layer in the new two-dimensional tomographic image;
Based on the detection result in the first layer detection step, at least one two-dimensional tomographic image among a plurality of two-dimensional tomographic images constituting a three-dimensional image acquired after the plurality of two-dimensional tomographic images are acquired. And a second layer detection step of detecting the fundus layer from the image.

本発明によれば、高画質な断層画像を得る事ができる。   According to the present invention, a high-quality tomographic image can be obtained.

画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 画像処理装置における断層画像撮影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tomographic imaging process in an image processing device. ボリューム画像と断層画像生成処理を説明するための図である。It is a figure for demonstrating a volume image and a tomographic image generation process. 撮影を行う範囲と撮影指示前後で撮影を行う位置を説明するための図である。It is a figure for demonstrating the range which performs imaging | photography, and the position which performs imaging | photography before and after an imaging | photography instruction | indication. 断層画像において網膜層の撮影位置設定を説明するための図である。It is a figure for demonstrating the imaging position setting of a retinal layer in a tomographic image. 撮影位置を設定するための走査線パターンの一例を示す図である。It is a figure which shows an example of the scanning line pattern for setting an imaging position. 画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 画像処理装置における断層画像撮影処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tomographic imaging process in an image processing device. 層検出結果を他の断層画像に適用する一例を示す図である。It is a figure which shows an example which applies a layer detection result to another tomographic image.

(実施例1)
以下、図面を参照しながら、本発明の第1の実施形態について説明する。なお、本実施形態に係る画像処理装置は、被検眼のボリューム画像を撮影するにあたり、網膜層の撮影位置を決めるために撮影している断層画像を用いて、ノイズを低減した二次元断層画像を生成することを特徴としている。なお、ボリューム画像とは、二次元断層画像の集合のことをいう。
Example 1
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. Note that the image processing apparatus according to the present embodiment uses a tomographic image captured to determine the imaging position of the retinal layer to capture a two-dimensional tomographic image with reduced noise. It is characterized by generating. The volume image means a set of two-dimensional tomographic images.

本実施形態によれば、1度の撮影で、高画質な二次元断層画像と、広範囲を撮影したボリューム画像とを取得することが可能となる。ここで、高画質とは一度の撮像と比較してS/N比が向上している画像をいう。または、診断に必要な情報量が増えている画像のことをいう。   According to the present embodiment, it is possible to acquire a high-quality two-dimensional tomographic image and a volume image obtained by photographing a wide area by one photographing. Here, high image quality refers to an image in which the S / N ratio is improved as compared with one-time imaging. Or it refers to an image in which the amount of information necessary for diagnosis is increasing.

以下、本実施形態に係る画像処理装置を備える画像処理システムについて、詳細を説明する。なお、本実施形態においては、通常の二次元断層画像から1高画質な二次元断層画像と、広範囲を撮影したボリューム画像とを1度の撮影で取得する場合について説明を行う。   Hereinafter, details of the image processing system including the image processing apparatus according to the present embodiment will be described. In the present embodiment, a case will be described in which one high-quality two-dimensional tomographic image and a volume image obtained by photographing a wide range are acquired from a normal two-dimensional tomographic image by one imaging.

図1は、本実施形態に係る画像処理装置110を備える画像処理システム100の構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置110が、インタフェースを介して断層画像撮影装置120と接続されることにより構成されている。   FIG. 1 is a diagram illustrating a configuration of an image processing system 100 including an image processing apparatus 110 according to the present embodiment. As shown in FIG. 1, the image processing system 100 is configured by connecting an image processing apparatus 110 to a tomographic imaging apparatus 120 via an interface.

断層画像撮影装置120は、眼部の断層画像を撮像する装置であり、例えばタイムドメイン方式のOCTやフーリエドメイン方式のOCTからなる。なお、断層画像撮影装置120は既知の装置であるため、詳細な説明は省略する。   The tomographic imaging apparatus 120 is an apparatus that captures a tomographic image of the eye, and includes, for example, a time domain OCT or a Fourier domain OCT. Since the tomographic imaging apparatus 120 is a known apparatus, detailed description thereof is omitted.

画像処理装置110は、画像取得部111、画像記憶部112、画像処理部113、表示制御部114、指示取得部115とを備える。   The image processing apparatus 110 includes an image acquisition unit 111, an image storage unit 112, an image processing unit 113, a display control unit 114, and an instruction acquisition unit 115.

画像取得部111は、断層画像撮影装置120により撮影された断層画像を取得し、画像記憶部112に格納する。画像記憶部112では、指示取得部115で取得した、操作者による撮影指示のタイミング前後の断層画像をそれぞれ区別して記憶しておく。画像処理部113では、画像記憶部112で区別して記憶している断層画像から、高画質な二次元断層画像と三次元の断層画像とを生成する。   The image acquisition unit 111 acquires a tomographic image captured by the tomographic image capturing apparatus 120 and stores it in the image storage unit 112. In the image storage unit 112, the tomographic images acquired by the instruction acquisition unit 115 and before and after the timing of the imaging instruction by the operator are distinguished and stored. The image processing unit 113 generates a high-quality two-dimensional tomographic image and a three-dimensional tomographic image from the tomographic images distinguished and stored in the image storage unit 112.

図3(a)に、断層画像撮影装置120で撮影した網膜の黄斑部ボリューム画像の模式図を示す。図3(a)において、T1〜Tkは黄斑部の二次元断層画像である。すなわち、ボリューム画像は異なる箇所を撮影した二次元断層画像の集合により形成される。
次に、図2を参照して本実施形態の画像処理装置110の処理手順を示す。
FIG. 3A shows a schematic diagram of a macular volume image of the retina imaged by the tomographic image imaging device 120. In FIG. 3A, T1 to Tk are two-dimensional tomographic images of the macula. That is, the volume image is formed by a set of two-dimensional tomographic images obtained by photographing different locations.
Next, a processing procedure of the image processing apparatus 110 according to this embodiment will be described with reference to FIG.

<ステップS201>
ステップS201では、網膜層を撮影するために、不図示の制御部により、被検眼の平面方向(図3(a)のx−y平面)と深度方向(図3(a)のz方向)の位置を調整する。ここで深度方向の位置を合わせるとは、断層像を得るためのコヒーレントゲートの位置を合わせることに相当する。
<Step S201>
In step S201, in order to image the retinal layer, a control unit (not shown) performs a planar direction (xy plane in FIG. 3A) and a depth direction (z direction in FIG. 3A) of the eye to be examined. Adjust the position. Here, matching the position in the depth direction corresponds to matching the position of the coherent gate for obtaining the tomographic image.

操作者が網膜層の位置合わせを行う間、断層画像撮影装置120は同一箇所を繰り返し走査し続け、同一箇所の二次元断層画像を不図示の表示部に表示する。操作者は、その二次元断層画像を見ながら平面方向と深度方向の位置を調整する。図5は、二次元断層画像中の所望の位置に網膜層を調整して撮影を行う様子を示している。縦軸は時間tを示し、不図示の制御部により網膜層の位置を調整することによって、断層画像のS/Nが高くなる。画像記憶部112では、指示取得部115が撮影開始の指示を取得する前後の断層画像をそれぞれ区別して記憶しておく。通常、医師(術者)は、表示部に映し出される二次元断層画像が所望の位置に落ち着いたら撮影の開始をはじめる。したがって、撮影を開始する前に撮影された画像は、撮影開始のタイミングに近づくにつれて所望の位置に近づいている。そして、所望の位置で落ち着いたら撮影を開始する。   While the operator aligns the retinal layer, the tomographic imaging apparatus 120 keeps scanning the same part repeatedly, and displays the two-dimensional tomographic image of the same part on a display unit (not shown). The operator adjusts the position in the plane direction and the depth direction while viewing the two-dimensional tomographic image. FIG. 5 shows a state in which imaging is performed by adjusting the retinal layer to a desired position in the two-dimensional tomographic image. The vertical axis represents time t, and the S / N of the tomographic image is increased by adjusting the position of the retinal layer by a control unit (not shown). In the image storage unit 112, the tomographic images before and after the instruction acquisition unit 115 acquires an instruction to start imaging are distinguished and stored. Usually, the doctor (surgeon) starts imaging when the two-dimensional tomographic image displayed on the display unit is settled at a desired position. Therefore, an image shot before shooting starts approaches a desired position as the shooting start timing approaches. And when it settles down in a desired position, imaging | photography will be started.

ここで、図4を用いて網膜層の撮影位置設定と断層画像取得について具体的に説明をする。   Here, the setting of the imaging position of the retinal layer and the tomographic image acquisition will be specifically described with reference to FIG.

図4(a)は、図3(a)のボリューム画像をx−y平面で見た図である。図4(a)において、Rはボリューム画像を撮影する範囲を示し、Lは、操作者が網膜層の位置合わせを行う間、断層画像撮影装置120が被検眼の同一箇所を繰り返し走査する位置を示している。撮影範囲Rの左横の数値は、二次元断層画像を撮影する位置の番号を示したものである。ここでは、ボリューム画像の縦解像度(y方向)を128、繰り返し撮影をする箇所を中心の64番目とする。そして、操作者はその繰り返し撮影をする断層画像を見ながら、網膜層の位置合わせをする場合を例として説明を行う。図4(b)は、撮影指示前後で撮影をするボリューム画像の位置の番号を示している。図4(b)において、横軸は時間tであり、t1のタイミングで指示取得部115が撮影指示を取得した場合を示している。指示取得部115が撮影指示を取得するまでは、断層画像撮影装置120は同じ位置(64)を撮影し続け、撮影指示を取得すると、断層画像撮影装置120は異なる位置(1〜128)を順番に撮影する。   FIG. 4A is a diagram of the volume image of FIG. 3A viewed in the xy plane. In FIG. 4A, R indicates a range for capturing a volume image, and L indicates a position where the tomographic imaging apparatus 120 repeatedly scans the same part of the eye to be inspected while the operator aligns the retinal layer. Show. The numerical value on the left side of the imaging range R indicates the number of the position where the two-dimensional tomographic image is captured. Here, it is assumed that the vertical resolution (y direction) of the volume image is 128, and the position where repeated shooting is performed is the 64th center. An example will be described in which the operator aligns the retinal layer while viewing the tomographic image that is repeatedly shot. FIG. 4B shows the position number of the volume image to be photographed before and after the photographing instruction. In FIG. 4B, the horizontal axis represents time t, and shows a case where the instruction acquisition unit 115 has acquired a shooting instruction at the timing t1. Until the instruction acquisition unit 115 acquires the imaging instruction, the tomographic imaging apparatus 120 continues to capture the same position (64). When the imaging instruction is acquired, the tomographic imaging apparatus 120 sequentially changes the different positions (1 to 128). Take a picture.

<ステップS202>
ステップS201で、不図示の制御部により網膜層を撮影するのに適した位置に調整を行った後、ステップS202で、不図示の撮影指示部により撮影開始を指示する。
<Step S202>
In step S201, the control unit (not shown) adjusts the position suitable for photographing the retinal layer, and in step S202, the photographing instruction unit (not shown) instructs the start of photographing.

<ステップS203>
ステップS203では、操作者が撮影指示(図4(b)t1のタイミング)をすると、不図示の制御部により、x−y平面を順番に走査して、128枚の二次元断層画像を撮影する。画像取得部111では、撮影指示前は被検眼の同一箇所を繰り返し撮影した断層画像を取得し、撮影指示後は被検眼の異なる箇所を撮影した断層画像を取得する。そのため、画像記憶部112では、撮影指示前と撮影指示後の二次元断層画像を区別して記憶しておく。ここで、画像記憶部112では、撮影指示前の画像を全て保持しておくのではなく、撮影指示のタイミングから遡った所定期間又は所定のN枚の画像(図4(b))を重ね合わせ候補画像として記憶しておくのが望ましい。これは、位置合わせを開始した直後の断層画像は所望の位置とは異なる場所を撮影しているためであり、撮影指示を行う直前の画像は、所望の位置とほぼ同じ位置を撮影しているためである。
<Step S203>
In step S203, when the operator gives an imaging instruction (timing at t1 in FIG. 4B), a control unit (not shown) sequentially scans the xy plane to capture 128 two-dimensional tomographic images. . The image acquisition unit 111 acquires a tomographic image obtained by repeatedly capturing the same part of the eye to be inspected before an imaging instruction, and acquires a tomographic image by imaging a different part of the eye to be inspected after the imaging instruction. Therefore, in the image storage unit 112, the two-dimensional tomographic images before and after the imaging instruction are distinguished and stored. Here, the image storage unit 112 does not hold all the images before the shooting instruction, but superimposes a predetermined period or a predetermined N images (FIG. 4B) retroactive from the timing of the shooting instruction. It is desirable to store them as candidate images. This is because the tomographic image immediately after the start of alignment is taken at a location different from the desired position, and the image immediately before the imaging instruction is taken is taken at almost the same position as the desired position. Because.

<ステップS204>
ステップS204では、画像処理部113が、画像記憶部112に記憶された断層画像を用いて、高画質な二次元断層画像と、広範囲を撮影したボリューム画像を生成する。始めに、重ね合わせ処理により、高画質な二次元断層画像を生成する処理について説明をする。
<Step S204>
In step S204, the image processing unit 113 uses the tomographic image stored in the image storage unit 112 to generate a high-quality two-dimensional tomographic image and a volume image obtained by photographing a wide range. First, a process for generating a high-quality two-dimensional tomographic image by the overlay process will be described.

画像選択部116は、画像記憶部112に記憶された撮影指示開始前のN枚の二次元断層画像から、所定の条件を満たす画像の選択を行う。まず、まばたきやケラレのおきている断層画像を重ね合わせ候補画像から除く。この場合、撮影中であれば画像記憶部112から候補画像を削除しておくとよりよい。不要な画像を減らし有用な画像をより残すことができるためである。また、所定の条件を満たす画像が少ない場合には、画像選択部116は、撮影指示のタイミングから遡った所定期間をのばすか、保存する画像の枚数を増やす。これにより、撮影時の画像に近い画像を選択する機会が増え、画質の向上につながる。   The image selection unit 116 selects an image satisfying a predetermined condition from the N two-dimensional tomographic images stored in the image storage unit 112 before the start of imaging instruction. First, tomographic images with blinking or vignetting are removed from the overlay candidate images. In this case, it is better to delete the candidate image from the image storage unit 112 during shooting. This is because unnecessary images can be reduced and more useful images can be left. If there are few images that satisfy the predetermined condition, the image selection unit 116 extends the predetermined period retroactive from the timing of the shooting instruction or increases the number of images to be stored. This increases the opportunity to select an image close to the image at the time of shooting, leading to an improvement in image quality.

これらの画像除去の方法としては、二次元断層画像のS/N比を計測し、閾値Th1以下の二次元断層画像は除去する。あるいは、閾値Th2で二値化を行い、閾値以上の面積が一定数以下の二次元断層画像を除去する。閾値は、断層画像撮影装置120の特性を基に事前に設定しておく。または、被検眼毎に判別分析法やP−Tile法などを用いて、動的に閾値を設定するようにしても良い。次に、基準画像を選択する。基準画像としては、撮影した最新の画像とする。撮影指示があった時には最新の画像は(図4(b)t1のタイミング)の画像となる。ただし、その瞬間の画像がまばたきなどにより除去されている場合には、重ね合わせ候補画像の中で最後に撮影された断層画像(例えば、t1−1に撮影された断層画像)を基準画像として用いる。これにより、撮影指示開始前に観察中の画像も高画質化することもできる。また、位置合わせの初期では重ねあわせを行わず、所定時間の経過に従い重ねあわせに用いる画像を増やすことでS/Nの向上と画像のボケの抑制との両立を図ることもできる。また、観察時には重ね合わせを行わずに、撮影指示開始後に重ね合わせを行ってもよい。   As these image removal methods, the S / N ratio of the two-dimensional tomographic image is measured, and the two-dimensional tomographic image below the threshold Th1 is removed. Alternatively, binarization is performed with the threshold Th2, and a two-dimensional tomographic image having an area equal to or larger than the threshold equal to or smaller than a certain number is removed. The threshold is set in advance based on the characteristics of the tomographic imaging apparatus 120. Alternatively, the threshold value may be dynamically set for each eye using a discriminant analysis method, a P-Tile method, or the like. Next, a reference image is selected. The reference image is the latest image taken. When a shooting instruction is given, the latest image is the image (timing t1 in FIG. 4B). However, when the image at that moment is removed by blinking or the like, the tomographic image taken last in the overlay candidate image (for example, the tomographic image taken at t1-1) is used as the reference image. . Thereby, it is possible to improve the image quality of the image being observed before the start of the photographing instruction. In addition, it is possible to achieve both improvement in S / N and suppression of image blur by increasing the number of images used for registration as a predetermined time elapses without performing registration in the initial stage of alignment. Further, the superposition may be performed after the start of the imaging instruction without performing superposition during observation.

次に、位置合わせ部117において、二次元断層画像同士の位置合わせを行う。位置合わせ処理としては、例えば、2つの断層画像の類似度を表す評価関数を事前に定義しておき、この評価関数の値が最も良くなるように断層画像を変形する。評価関数としては、例えば、画素値で評価する方法が挙げられる(例えば、相関係数を用いて評価を行う方法が挙げられる)。また、断層画像の変形処理としては、例えば、アフィン変換を用いて並進や回転を行ったり、拡大率を変化させたりする処理が挙げられる。重ね合わせ処理には、評価関数の値が閾値Th3以上の断層画像を用いる。すなわち、これらの処理によって、重ね合わせ候補画像N枚のうち、重ね合わせ画像としてM枚を選択する。   Next, the alignment unit 117 aligns the two-dimensional tomographic images. As the alignment processing, for example, an evaluation function representing the similarity between two tomographic images is defined in advance, and the tomographic image is deformed so that the value of this evaluation function becomes the best. As the evaluation function, for example, a method of evaluating with a pixel value can be cited (for example, a method of performing evaluation using a correlation coefficient can be cited). In addition, as the tomographic image deformation process, for example, a process of performing translation or rotation using affine transformation or changing an enlargement ratio can be cited. In the superimposition process, a tomographic image having an evaluation function value equal to or greater than the threshold Th3 is used. That is, by these processes, M images are selected as the superimposed images among the N overlapping candidate images.

なお、以下、複数断層画像での重ね合わせ処理においては、断層画像間の位置合わせ処理は既に完了しているものとする。   In the following description, it is assumed that the alignment process between tomographic images has already been completed in the overlay process with a plurality of tomographic images.

ここでは、同一断面における重ね合わせ枚数Mが2枚の場合について説明する。図3(b)は、複数の断層画像を処理し、1枚の断層画像を合成画像として生成する断層画像生成処理(異なる時刻に撮影された、異なる断層画像上に位置する走査線の加算平均処理)を説明するための図である。図3(c)は、各画素あたりM個(本実施例では2個)の画素を用いて加算平均処理を行うことにより生成された高画質な二次元断層画像(合成画像)である。つまり、図3(c)において、Aij”は対応する走査線について加算平均処理を行うことにより算出された新たな走査線である。   Here, a case where the number of overlapping sheets M in the same cross section is two will be described. FIG. 3B shows a tomographic image generation process in which a plurality of tomographic images are processed and a single tomographic image is generated as a synthesized image (addition average of scanning lines taken on different tomographic images taken at different times). It is a figure for demonstrating a process. FIG. 3C is a high-quality two-dimensional tomographic image (composite image) generated by performing the averaging process using M (two in this embodiment) pixels for each pixel. That is, in FIG. 3C, Aij ″ is a new scanning line calculated by performing the averaging process on the corresponding scanning line.

図3(b)において、Ti’とTi+1’とは、同一断面をそれぞれ異なる時刻に撮影した断層画像である。Aij’、A(i+1)j’は、断層画像Ti’とTi+1’におけるそれぞれの走査線(A−scan)を表している。画像生成部118は、Aij’、A(i+1)j’の走査線について加算平均処理を行うことにより、図3(c)におけるAij”を算出する。なお、高画質な二次元断層画像(合成画像)の生成処理は、加算平均処理に限定されるものではなく、中央値算出処理、重み付加算平均処理などを用いてもよい。   In FIG. 3B, Ti ′ and Ti + 1 ′ are tomographic images obtained by photographing the same cross section at different times. Aij ′ and A (i + 1) j ′ represent respective scanning lines (A-scan) in the tomographic images Ti ′ and Ti + 1 ′. The image generation unit 118 calculates Aij ″ in FIG. 3C by performing an averaging process on the scanning lines Aij ′ and A (i + 1) j ′. Note that a high-quality two-dimensional tomographic image (synthesized) The (image) generation process is not limited to the averaging process, and a median calculation process, a weighted averaging process, or the like may be used.

次に、画像生成部118は、画像記憶部112に記憶されている撮影指示後の複数の二元断層画像から図3(a)に示すボリューム画像を生成する。   Next, the image generation unit 118 generates a volume image shown in FIG. 3A from a plurality of binary tomographic images after the imaging instruction stored in the image storage unit 112.

<ステップS205>
ステップS205では、表示制御部114は、ステップS204で生成したボリューム画像と高画質な二次元断層画像の少なくともいずれかを不図示の表示部に表示する。
<Step S205>
In step S205, the display control unit 114 displays at least one of the volume image generated in step S204 and the high-quality two-dimensional tomographic image on a display unit (not shown).

以上の説明から明らかなように、本実施形態では、網膜層の撮影位置を決めるために撮影している断層画像を用いて、高画質な二次元断層画像を生成するとともに、広範囲を撮影したボリューム画像を生成する構成とした。   As is clear from the above description, in this embodiment, a high-quality two-dimensional tomographic image is generated using a tomographic image taken to determine the photographing position of the retinal layer, and a volume obtained by photographing a wide range. An image is generated.

この結果、撮影時間を増やすことなく、高画質な二次元断層画像と、広範囲を撮影したボリューム画像を一度の撮影で取得する事が出来るため、被検者と撮影者の負荷を軽減することが出来る。また、位置合わせに用いる画像は医師(術者)が観察しなが撮影しているため、位置合わせの終了が近づくにつれて同一場所の二次元画像が取得される。このため、位置ずれの少ない画像を重ね合わせることができ高画質化につながる。   As a result, it is possible to acquire high-quality two-dimensional tomographic images and volume images that capture a wide area without increasing the imaging time, thereby reducing the burden on the subject and the photographer. I can do it. Further, since the image used for alignment is taken while the doctor (surgeon) observes, a two-dimensional image of the same place is acquired as the end of alignment approaches. For this reason, it is possible to superimpose images with little misalignment, leading to high image quality.

さらに、位置合わせに用いた二次元画像から選択した画像を用いることができるため、さらに高画質化が可能である。   Furthermore, since an image selected from the two-dimensional image used for alignment can be used, higher image quality can be achieved.

なお本実施形態では、ボリューム画像と、1枚の高画質な二次元断層画像を生成する方法について説明したが、本発明はこれに限らない。例えば、図6(a)、(b)に示すように、網膜層の位置合わせを行うための走査パターンが複数あっても良い。図6において、Rはボリューム画像を撮影する範囲を示し、L1〜L6は、操作者が網膜層の位置合わせを行う間、断層画像撮影装置120が被検眼の同一箇所を繰り返し走査する位置を示している。   In the present embodiment, a method for generating a volume image and one high-quality two-dimensional tomographic image has been described. However, the present invention is not limited to this. For example, as shown in FIGS. 6A and 6B, there may be a plurality of scanning patterns for aligning the retinal layer. In FIG. 6, R indicates a range for capturing a volume image, and L1 to L6 indicate positions where the tomographic imaging apparatus 120 repeatedly scans the same part of the eye to be inspected while the operator aligns the retinal layer. ing.

画像記憶部112では、撮影指示前の二次元断層画像を各走査位置(L1〜L6)で区別して記憶しておき、それぞれの位置で上述した処理を行うことによって、複数の高画質な二次元断層画像を取得することが可能となる。   In the image storage unit 112, a two-dimensional tomographic image before an imaging instruction is stored by being distinguished at each scanning position (L1 to L6), and the above-described processing is performed at each position, whereby a plurality of high-quality two-dimensional two-dimensional images are obtained. A tomographic image can be acquired.

(実施例2)
上記第1の実施形態では、網膜層の撮影位置を決めるために撮影している断層画像を用いて、高画質な二次元断層画像を生成するとともに、広範囲を撮影したボリューム画像を生成した。本実施形態では、上記で生成した高画質な二次元断層画像を用いて網膜層のセグメンテーションを行い、その結果を用いて、ボリューム画像における網膜層をセグメンテーションすることを特徴としている。
(Example 2)
In the first embodiment, a high-quality two-dimensional tomographic image is generated using a tomographic image captured to determine the imaging position of the retinal layer, and a volume image capturing a wide range is generated. The present embodiment is characterized in that segmentation of the retinal layer is performed using the high-quality two-dimensional tomographic image generated above, and the retinal layer in the volume image is segmented using the result.

本実施形態によれば、高画質な二次元断層画像でセグメンテーションを行った結果を初期値(あるいはリファレンス)とし、ボリューム画像のセグメンテーションを行う。それにより、ボリューム画像のセグメンテーションを高精度に行う事が可能となる。   According to this embodiment, the segmentation of the volume image is performed using the result of segmentation with a high-quality two-dimensional tomographic image as an initial value (or reference). As a result, the volume image can be segmented with high accuracy.

図7は、本実施形態に係る画像処理装置710を備える画像処理システム700の構成を示す図である。図7に示すように、画像処理装置710は、画像取得部111、画像記憶部112、画像処理部713、表示制御部714、指示取得部115とを備える。このうち、画像処理部713、表示制御部714以外は、上記第1の実施形態と同様の機能を有するため、ここでは説明を省略する。   FIG. 7 is a diagram illustrating a configuration of an image processing system 700 including the image processing apparatus 710 according to the present embodiment. As illustrated in FIG. 7, the image processing apparatus 710 includes an image acquisition unit 111, an image storage unit 112, an image processing unit 713, a display control unit 714, and an instruction acquisition unit 115. Among these, since functions other than the image processing unit 713 and the display control unit 714 have the same functions as those of the first embodiment, description thereof is omitted here.

画像処理部713において、第一の層検出部719は、高画質な二次元断層画像から網膜層を検出し、第二の層検出部720は、ボリューム画像から網膜層を検出する。位置合わせ部717は、高画質な二次元断層画像で層検出した結果を、ボリューム画像と位置合わせをする処理を行う。   In the image processing unit 713, the first layer detection unit 719 detects a retinal layer from a high-quality two-dimensional tomographic image, and the second layer detection unit 720 detects a retinal layer from the volume image. The alignment unit 717 performs processing for aligning the result of layer detection with a high-quality two-dimensional tomographic image with the volume image.

以下、図8、図9を参照して本実施形態の画像処理装置710の処理手順を示す。なお、ステップS805、ステップS806以外は、第1実施形態のステップS201〜ステップS204と同様なので説明は省略する。   Hereinafter, the processing procedure of the image processing apparatus 710 of this embodiment will be described with reference to FIGS. 8 and 9. Since steps other than step S805 and step S806 are the same as steps S201 to S204 of the first embodiment, description thereof will be omitted.

<ステップS805>
ステップS805では、初めに高画質な二次元断層画像から網膜層を検出する。
<Step S805>
In step S805, a retinal layer is first detected from a high-quality two-dimensional tomographic image.

まず、第一の層検出部719は、二次元断層画像に対して平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、エッジ検出フィルタ処理を行い断層画像からエッジ成分を検出し、層の境界に相当するエッジを抽出する。低画質な断層画像と比較して、高画質な二次元断層画像はノイズ成分が抑制され、網膜層内の信号成分が強調されている。そのため、層境界に相当するエッジ成分を精度良く抽出することが出来る。第一の層検出部719は、エッジ検出をした二次元断層画像から背景領域を特定し、背景領域の輝度値特徴を二次元断層画像から抽出する。そして、次に、エッジ成分のピーク値と、ピーク間の輝度値特徴を用いることで、各層の境界を判定する。   First, the first layer detection unit 719 performs smoothing filter processing on the two-dimensional tomographic image to remove noise components. Then, edge detection filter processing is performed to detect edge components from the tomographic image, and edges corresponding to layer boundaries are extracted. Compared to a low-quality tomographic image, the high-quality two-dimensional tomographic image has a reduced noise component and an enhanced signal component in the retinal layer. Therefore, the edge component corresponding to the layer boundary can be extracted with high accuracy. The first layer detection unit 719 identifies a background region from the two-dimensional tomographic image from which edge detection has been performed, and extracts a luminance value feature of the background region from the two-dimensional tomographic image. Then, the boundary of each layer is determined by using the peak value of the edge component and the luminance value feature between the peaks.

例えば、第一の層検出部719は、硝子体側から眼底の深度方向にエッジを探索し、エッジ成分のピークと、その上下の輝度特徴と、背景の輝度特徴から、硝子体と網膜層との境界を判定する。さらに、第一の層検出部719は、眼底の深度方向にエッジを探索し、エッジ成分のピークと、ピーク間の輝度特徴と、背景の輝度特徴を参照して、網膜色素上皮層境界を判定する。以上の処理によって、層の境界を検出することができる。その様子を図9(a)に示す。図9(a)は、高画質な二次元断層画像Ti”から検出した網膜層の各境界(1〜6)を示したものである。ボリューム画像で層検出を行う際に、図9(a)で示す層境界の結果を参照する。   For example, the first layer detection unit 719 searches for an edge in the depth direction of the fundus from the vitreous body side, and determines the vitreous body and the retinal layer from the peak of the edge component, the upper and lower luminance characteristics, and the luminance characteristics of the background. Determine the boundary. Further, the first layer detection unit 719 searches for an edge in the depth direction of the fundus and determines the boundary of the retinal pigment epithelium by referring to the edge component peak, the luminance characteristic between the peaks, and the luminance characteristic of the background. To do. Through the above processing, the layer boundary can be detected. This is shown in FIG. FIG. 9A shows the boundaries (1 to 6) of the retinal layer detected from the high-quality two-dimensional tomographic image Ti ″. When performing layer detection with a volume image, FIG. Refer to the result of the layer boundary indicated by

二次元断層画像で求めた層検出結果をボリューム画像に適用するために、位置合わせ部717は位置合わせ処理を行う。図9(b)を用いて、この位置合わせ処理について説明を行う。図9(b)は高画質な二次元断層画像Ti”とボリューム画像の中心を撮影した断層画像Tk/2を示している。本実施例において、高画質な二次元断層画像Ti”は、ボリューム画像を撮影する前に、ボリューム画像の中心に相当する位置を撮影していた断層画像群から生成したものである。しかし、眼は固視微動などによりわずかに動くため、ボリューム画像の中心付近数枚の断層画像と位置合わせを行い、最適な位置を選択する。
位置合わせの方法は、実施例1のステップS204で示した方法を用いるため、ここでは説明を省略する。ボリューム画像の中心付近数枚の断層画像で最も評価値が高くなる断層画像に、二次元断層画像の網膜層検出結果(図9(b)1〜6)を重ね合わせる。
In order to apply the layer detection result obtained from the two-dimensional tomographic image to the volume image, the alignment unit 717 performs alignment processing. This alignment process will be described with reference to FIG. FIG. 9B shows a high-quality two-dimensional tomographic image Ti ″ and a tomographic image Tk / 2 obtained by capturing the center of the volume image. In this embodiment, the high-quality two-dimensional tomographic image Ti ″ is a volume. The image is generated from a group of tomographic images in which a position corresponding to the center of the volume image was captured before the image was captured. However, since the eye slightly moves due to fixation fixation or the like, the position is aligned with several tomographic images near the center of the volume image, and an optimal position is selected.
Since the alignment method uses the method shown in step S204 of the first embodiment, description thereof is omitted here. The retinal layer detection results (FIG. 9 (b) 1 to 6) of the two-dimensional tomographic image are superimposed on the tomographic image having the highest evaluation value among several tomographic images near the center of the volume image.

次に、第二の層検出部720は、ボリューム画像から網膜層を検出する。まず、第二の層検出部720は、ボリューム画像に対して平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、エッジ検出フィルタ処理を行い断層画像からエッジ成分を検出し、層の境界に相当するエッジを抽出する。次に、第一の層検出部719で検出した網膜層の各境界(図9(b)1〜6)を初期値として、上下方向でエッジを探索し、ボリューム画像中の1枚の二次元断層画像において網膜層を検出する。あるいは、第一の層検出部719で検出した網膜層の各境界を初期値として、動的輪郭法(SnakesやLevelSetなど)を適用して、ボリューム画像中の1枚の二次元断層画像において網膜層を検出する。高画質な二次元断層画像と比べ画質が良くないボリューム画像中の1枚の二次元断層画像において、精度良く網膜層を検出することが出来る。それにより、ボリューム画像から各層領域ごとの特徴量や背景領域の特徴量(輝度値の平均、分散、標準偏差など)を抽出することが出来る。第二の層検出部720は、そこで求めた特徴量を用いて、三次元の全ての断層画像から網膜層検出を行う。   Next, the second layer detection unit 720 detects the retinal layer from the volume image. First, the second layer detection unit 720 performs a smoothing filter process on the volume image to remove noise components. Then, edge detection filter processing is performed to detect edge components from the tomographic image, and edges corresponding to layer boundaries are extracted. Next, using the respective boundaries of the retinal layer (FIG. 9 (b) 1 to 6) detected by the first layer detection unit 719 as an initial value, an edge is searched in the vertical direction, and one two-dimensional image in the volume image A retinal layer is detected in a tomographic image. Alternatively, with each boundary of the retinal layer detected by the first layer detection unit 719 as an initial value, a dynamic contour method (Snakes, LevelSet, etc.) is applied, and the retina is detected in one two-dimensional tomographic image in the volume image. Detect layer. The retinal layer can be detected with high accuracy in one two-dimensional tomographic image in a volume image that has poor image quality compared to a high-quality two-dimensional tomographic image. Thereby, it is possible to extract the feature amount for each layer region and the feature amount of the background region (average luminance value, variance, standard deviation, etc.) from the volume image. The second layer detection unit 720 performs retinal layer detection from all three-dimensional tomographic images using the feature values obtained there.

例えば、第二の層検出部720は、初期値で求めた断層画像以外の断層画像において、硝子体側から眼底の深度方向にエッジを探索する。そして、エッジ成分のピークと、その上下の輝度特徴と、ボリューム画像中の1枚の二次元断層画像で求めた背景の輝度特徴を参照し、硝子体と網膜層との境界を判定する。   For example, the second layer detection unit 720 searches for an edge in the depth direction of the fundus from the vitreous body side in a tomographic image other than the tomographic image obtained as the initial value. Then, the boundary between the vitreous body and the retinal layer is determined by referring to the peak of the edge component, the luminance characteristics above and below it, and the luminance characteristic of the background obtained from one two-dimensional tomographic image in the volume image.

あるいは、第二の層検出部720がボリューム画像から網膜層を検出する方法として、GraphCutのようなグラフ理論を用いた手法で層の境界を検出してもよい。GraphCutでは初期値としてseedが必要なため、第一の層検出部719で求めた網膜層検出結果をボリューム画像に適応した、網膜層領域内部をGraphCutの初期値(seed)として用いる。画像の各ピクセルに対応したノードと、sinkとsourceと呼ばれるターミナルを設定し、ノード間を結ぶエッジ(n−link)と、ターミナルとノードを結ぶエッジ(t−link)を設定する。GraphCutの初期値として、あらかじめ物体領域O(Object seed)と背景領域B(Background seed)となるピクセルを設定する。この場合、第一の層検出部719で求めた層領域をボリューム画像に適応した層領域内のピクセルをO、その他の領域をBとする。そして、これらのエッジに対して重みを与えて作成したグラフに対して、最小カットを求めることにより、層を検出することができる。   Alternatively, as a method for the second layer detection unit 720 to detect the retinal layer from the volume image, a layer boundary may be detected by a method using graph theory such as GraphCut. Since GraphCut requires seed as an initial value, the retinal layer detection result obtained by the first layer detection unit 719 is applied to the volume image, and the inside of the retinal layer region is used as the initial value (seed) of GraphCut. A node corresponding to each pixel of the image and a terminal called sink and source are set, and an edge (n-link) connecting the nodes and an edge (t-link) connecting the terminals and the nodes are set. As the initial value of GraphCut, pixels that are to be the object region O (Object seed) and the background region B (Background seed) are set in advance. In this case, the layer area obtained by the first layer detection unit 719 is set to O, and the other area is set to B in the layer area adapted to the volume image. A layer can be detected by obtaining a minimum cut for a graph created by giving weights to these edges.

第一の層検出部719の結果を適応した断層画像と隣接する断層画像では、空間情報を利用して網膜層を検出する。隣接する断層画像間の位置合わせが済んでいるボリューム画像において、隣接する断層画像同士に撮影されている網膜層形状の類似度は高い。そのため、第一の層検出部719の結果を適応した断層画像の網膜層検出結果を、隣接する断層画像に適応することが出来る。   In the tomographic image adjacent to the tomographic image to which the result of the first layer detection unit 719 is applied, the retinal layer is detected using spatial information. In a volume image in which the alignment between adjacent tomographic images has been completed, the similarity between the retinal layer shapes photographed between adjacent tomographic images is high. Therefore, the retinal layer detection result of the tomographic image to which the result of the first layer detection unit 719 is adapted can be applied to the adjacent tomographic image.

第一の層検出部719の結果を適応した断層画像で、物体と背景の境界から距離が離れるピクセルでは、対応する隣接断層画像のピクセルにおいても、物体と背景が入れ替わる可能性は低い。すなわち、例えば第一の層検出部719の結果を適応した断層画像のピクセルが背景である場合、対応する隣接断層画像のピクセルは背景である可能性が高い。そのため、隣接断層画像の対応するピクセルにおいて、背景であるという情報を用いてt−linkのコストを設定する。また、第一の層検出部719の結果を適応した断層画像で、物体と背景の境界付近のピクセルでは、対応する隣接断層画像のピクセルは物体と背景のどちらになるか分からない。そのため、背景か物体である可能性が同程度に起こりうるという情報を用いて、対応する隣接断層画像のピクセルにおいてt−linkのコストを設定する。   In a tomographic image to which the result of the first layer detection unit 719 is applied, in a pixel whose distance is away from the boundary between the object and the background, the possibility that the object and the background are interchanged is low even in the pixel of the corresponding adjacent tomographic image. That is, for example, when the pixel of the tomographic image to which the result of the first layer detection unit 719 is applied is the background, the pixel of the corresponding adjacent tomographic image is highly likely to be the background. Therefore, the t-link cost is set using information indicating that the pixel is the background in the corresponding pixel of the adjacent tomographic image. In addition, in the tomographic image to which the result of the first layer detecting unit 719 is applied, it is not known whether the pixel of the corresponding adjacent tomographic image is the object or the background in the pixels near the boundary between the object and the background. Therefore, the cost of t-link is set in the pixel of the corresponding adjacent tomographic image using information that the possibility of being the background or the object can occur to the same extent.

以上の処理を三次元の全ての断層画像に適応して、網膜層検出を行う。   The above processing is applied to all three-dimensional tomographic images to perform retinal layer detection.

<ステップS806>
ステップS806では、表示制御部714は、ステップS804で作成したボリューム画像と高画質な二次元断層画像の少なくともいずれかを表示すると共に、ステップS805で検出した層境界を不図示の表示部に表示する。表示方法としては、断層画像上に層境界を重畳表示する。あるいは、断層画像と並べてグラフとして表示しても良い。さらには、層検出結果から任意の層の厚みを計測し、計測結果を表示しても良い。
<Step S806>
In step S806, the display control unit 714 displays at least one of the volume image created in step S804 and the high-quality two-dimensional tomographic image, and displays the layer boundary detected in step S805 on a display unit (not shown). . As a display method, the layer boundary is superimposed and displayed on the tomographic image. Alternatively, it may be displayed along with the tomographic image as a graph. Furthermore, the thickness of an arbitrary layer may be measured from the layer detection result, and the measurement result may be displayed.

以上で述べた構成によれば、ボリューム画像と共に高画質な二次元断層画像を同時に得る構成である。そのため、ボリューム画像のセグメンテーションを行う際に、高画質な二次元断層画像でセグメンテーションを行い、その検出結果を初期値とし、ボリューム画像をセグメンテーションする。それにより、ボリューム画像のセグメンテーションを高精度に行う事が可能となる。また、上述したようにボリューム画像の撮影開始をする前に、位置合わせのために撮像した二次元断層画像をセグメンテーションに用いている。したがって、ボリューム画像と二次元撮像画像の位置の相関が高いためより高精度にボリューム画像のセグメンテーションを行うことができる。さらに、位置合わせに用いた二次元断層画像は、術者が観察したい位置を反映している、したがって、ボリューム画像のセグメンテーションにも術者の意図を反映できるものである。   According to the configuration described above, a high-quality two-dimensional tomographic image is obtained simultaneously with the volume image. Therefore, when performing segmentation of a volume image, segmentation is performed with a high-quality two-dimensional tomographic image, and the detection result is set as an initial value, and the volume image is segmented. As a result, the volume image can be segmented with high accuracy. In addition, as described above, a two-dimensional tomographic image captured for alignment is used for segmentation before the start of volume image capturing. Therefore, since the correlation between the position of the volume image and the two-dimensional captured image is high, the volume image can be segmented with higher accuracy. Furthermore, the two-dimensional tomographic image used for alignment reflects the position that the operator wants to observe, and therefore the operator's intention can also be reflected in the segmentation of the volume image.

なお、本実施形態において、高画質な二次元断層画像は、網膜層の撮影位置決めのために撮影している断層画像を用いて作成した画像について説明したが、本発明はこれに限らない。例えば、撮影指示後に同一箇所を複数撮影して得た断層画像から生成した高画質な二次元断層画像を参照して層検出を適応しても良い。あるいは、走査間隔を小さく(解像度を高く)して生成した高画質な二次元断層画像を参照して層検出を適応しても良い。さらには、異なる時刻に撮影された高画質な二次元断層画像を参照して層検出を適応しても良い。すなわち、ボリューム画像よりも高画質な断層画像が得られる構成であれば、本実施形態を適用する事が出来る。   In the present embodiment, the high-quality two-dimensional tomographic image has been described as an image created using a tomographic image photographed for photographing and positioning of the retinal layer, but the present invention is not limited to this. For example, layer detection may be applied with reference to a high-quality two-dimensional tomographic image generated from a tomographic image obtained by photographing a plurality of the same locations after an imaging instruction. Alternatively, layer detection may be applied with reference to a high-quality two-dimensional tomographic image generated by reducing the scanning interval (higher resolution). Furthermore, layer detection may be applied with reference to high-quality two-dimensional tomographic images taken at different times. That is, the present embodiment can be applied to any configuration that can obtain a tomographic image with higher image quality than a volume image.

(その他の実施形態)
上記のそれぞれの実施形態は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施形態は画像処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。
(Other embodiments)
Each of the above embodiments implements the present invention as an image processing apparatus. However, the embodiment of the present invention is not limited only to the image processing apparatus. The present invention can also be realized as software that runs on a computer. The CPU of the image processing apparatus controls the entire computer using computer programs and data stored in RAM and ROM. In addition, the execution of software corresponding to each unit of the image processing apparatus is controlled to realize the function of each unit.

110 画像処理装置
120 断層画像撮影装置
112 画像記憶部
113 画像処理部
114 表示制御部
115 指示取得部
116 画像選択部
117 位置合わせ部
118 画像生成部
719 第一の層検出部
720 第二の層検出部
DESCRIPTION OF SYMBOLS 110 Image processing apparatus 120 Tomographic imaging apparatus 112 Image memory | storage part 113 Image processing part 114 Display control part 115 Instruction acquisition part 116 Image selection part 117 Positioning part 118 Image generation part 719 First layer detection part 720 Second layer detection Part

Claims (16)

被検眼の眼底における深度方向の位置を調整する際に取得された前記眼底の複数の二次元断層画像のうち、前記複数の二次元断層画像よりも少ない枚数の二次元断層画像に基づいて、新たな二次元断層画像を生成する生成手段と、
前記新たな二次元断層画像における前記眼底の層を検出する第一の層検出手段と、
前記第一の層検出手段の検出結果に基づいて、前記複数の二次元断層画像が取得された後に取得された三次元画像を構成する複数の二次元断層画像のうち、少なくとも1つの二次元断層画像から前記眼底の層を検出する第二の層検出手段と、
を有することを特徴とする画像処理装置。
Based on a smaller number of two-dimensional tomographic images than the plurality of two-dimensional tomographic images out of the plurality of two-dimensional tomographic images of the fundus acquired when adjusting the position in the depth direction on the fundus of the eye to be examined. Generating means for generating a simple two-dimensional tomographic image;
First layer detecting means for detecting the fundus layer in the new two-dimensional tomographic image;
Based on the detection result of the first layer detecting means, at least one two-dimensional tomographic image among a plurality of two-dimensional tomographic images constituting a three-dimensional image acquired after the plurality of two-dimensional tomographic images are acquired. Second layer detecting means for detecting the fundus layer from an image;
An image processing apparatus comprising:
前記第二の層検出手段が、前記第一の層検出手段の検出結果に基づいて、前記三次元画像を構成する複数の二次元断層画像のうち、前記新たな二次元断層画像が取得された位置に対応する位置で取得された第一の二次元断層画像に隣接する第二の二次元断層画像から前記眼底の層を検出することを特徴とする請求項1に記載の画像処理装置。   The second layer detection means has acquired the new two-dimensional tomographic image among a plurality of two-dimensional tomographic images constituting the three-dimensional image based on the detection result of the first layer detection means. The image processing apparatus according to claim 1, wherein the fundus layer is detected from a second two-dimensional tomographic image adjacent to the first two-dimensional tomographic image acquired at a position corresponding to the position. 前記第二の層検出手段が、
前記第一の層検出手段の検出結果に基づいて、前記三次元画像を構成する複数の二次元断層画像のうち、前記第一の二次元断層画像から前記眼底の層を検出し、
前記検出した結果に基づいて、前記第二の二次元断層画像から前記眼底の層を検出することを特徴とする請求項2に記載の画像処理装置。
The second layer detecting means is
Based on the detection result of the first layer detecting means, among the plurality of two-dimensional tomographic images constituting the three-dimensional image, the layer of the fundus is detected from the first two-dimensional tomographic image,
The image processing apparatus according to claim 2, wherein the fundus layer is detected from the second two-dimensional tomographic image based on the detection result.
前記三次元画像を構成する複数の二次元断層画像のうち、前記新たな二次元断層画像が取得された位置に対応する位置で取得された二次元断層画像を表示手段に表示させ、前記新たな二次元断層画像から検出した層を該表示した二次元断層画像に重ねて表示させる表示制御手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   Of the plurality of two-dimensional tomographic images constituting the three-dimensional image, the two-dimensional tomographic image acquired at a position corresponding to the position at which the new two-dimensional tomographic image is acquired is displayed on the display means, and the new The image processing apparatus according to claim 1, further comprising display control means for displaying a layer detected from the two-dimensional tomographic image so as to overlap the displayed two-dimensional tomographic image. 前記複数の二次元断層画像よりも少ない枚数の二次元断層画像を選択する選択手段を更に有し、
前記生成手段は、前記選択された複数の二次元断層画像を重ね合わせ処理して前記新たな二次元断層画像を生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
A selection means for selecting a smaller number of two-dimensional tomographic images than the plurality of two-dimensional tomographic images;
5. The image according to claim 1, wherein the generation unit generates the new two-dimensional tomographic image by superimposing the plurality of selected two-dimensional tomographic images. 6. Processing equipment.
前記選択手段が、前記複数の二次元断層画像のうち画質評価値が閾値以上である二次元断層画像を選択することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the selection unit selects a two-dimensional tomographic image having an image quality evaluation value equal to or greater than a threshold value from the plurality of two-dimensional tomographic images. 前記複数の二次元断層画像は、前記眼底の三次元画像を取得する指示前に前記眼底における平面方向の略同一の位置で取得された画像であり、
前記三次元画像は、前記眼底の三次元画像を取得する指示後に前記眼底のおける平面方向の異なる位置で取得された複数の二次元断層画像から構成された画像であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The plurality of two-dimensional tomographic images are images acquired at substantially the same position in the planar direction on the fundus before instructing to acquire a three-dimensional image of the fundus.
The three-dimensional image is an image composed of a plurality of two-dimensional tomographic images acquired at different positions in a planar direction on the fundus after an instruction to acquire the three-dimensional image of the fundus. The image processing apparatus according to any one of 1 to 6.
前記眼底の三次元画像を取得する指示直前の二次元断層画像の深度方向の位置に、前記複数の二次元断層画像のうち前記指示直前の二次元断層画像の他の二次元断層画像の深度方向の位置を合わせる位置合わせ手段を更に有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。   The depth direction of another two-dimensional tomographic image of the two-dimensional tomographic image immediately before the instruction among the plurality of two-dimensional tomographic images at a position in the depth direction of the two-dimensional tomographic image immediately before the instruction to acquire the three-dimensional image of the fundus The image processing apparatus according to claim 1, further comprising alignment means for aligning the positions of the image processing apparatus. 前記眼底を撮影する撮影装置と通信可能に接続され、前記深度方向の位置を調整する際に前記撮影装置により前記眼底を撮影して得た前記眼底の複数の二次元断層画像を取得する取得手段を更に有することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   An acquisition unit that is communicably connected to an imaging device that images the fundus and acquires a plurality of two-dimensional tomographic images of the fundus obtained by imaging the fundus using the imaging device when adjusting the position in the depth direction. The image processing apparatus according to claim 1, further comprising: コンピュータを、請求項1乃至9のいずれか1項に記載の画像処理装置の各手段として実行させるためのプログラム。   A program for causing a computer to execute as each unit of the image processing apparatus according to any one of claims 1 to 9. 被検眼の眼底における深度方向の位置を調整する際に取得された前記眼底の複数の二次元断層画像のうち、前記複数の二次元断層画像よりも少ない枚数の二次元断層画像に基づいて、新たな二次元断層画像を生成する生成工程と、
前記新たな二次元断層画像における前記眼底の層を検出する第一の層検出工程と、
前記第一の層検出工程における検出結果に基づいて、前記複数の二次元断層画像が取得された後に取得された三次元画像を構成する複数の二次元断層画像のうち、少なくとも1つの二次元断層画像から前記眼底の層を検出する第二の層検出工程と、
を有することを特徴とする画像処理方法。
Based on a smaller number of two-dimensional tomographic images than the plurality of two-dimensional tomographic images out of the plurality of two-dimensional tomographic images of the fundus acquired when adjusting the position in the depth direction on the fundus of the eye to be examined. Generating a two-dimensional tomographic image,
A first layer detecting step of detecting the fundus layer in the new two-dimensional tomographic image;
Based on the detection result in the first layer detection step, at least one two-dimensional tomographic image among a plurality of two-dimensional tomographic images constituting a three-dimensional image acquired after the plurality of two-dimensional tomographic images are acquired. A second layer detection step of detecting the fundus layer from an image;
An image processing method comprising:
前記第二の層検出工程において、前記第一の層検出手段の検出結果に基づいて、前記三次元画像を構成する複数の二次元断層画像のうち、前記新たな二次元断層画像が取得された位置に対応する位置で取得された第一の二次元断層画像に隣接する第二の二次元断層画像から前記眼底の層を検出することを特徴とする請求項11に記載の画像処理方法。   In the second layer detection step, the new two-dimensional tomographic image is acquired from a plurality of two-dimensional tomographic images constituting the three-dimensional image based on the detection result of the first layer detecting unit. The image processing method according to claim 11, wherein the fundus layer is detected from a second two-dimensional tomographic image adjacent to the first two-dimensional tomographic image acquired at a position corresponding to the position. 前記第二の層検出工程において、
前記第一の層検出工程における検出結果に基づいて、前記三次元画像を構成する複数の二次元断層画像のうち、前記第一の二次元断層画像から前記眼底の層を検出し、
前記検出した結果に基づいて、前記第二の二次元断層画像から前記眼底の層を検出することを特徴とする請求項12に記載の画像処理方法。
In the second layer detection step,
Based on the detection result in the first layer detection step, out of a plurality of two-dimensional tomographic images constituting the three-dimensional image, the layer of the fundus is detected from the first two-dimensional tomographic image,
The image processing method according to claim 12, wherein the fundus layer is detected from the second two-dimensional tomographic image based on the detection result.
前記三次元画像を構成する複数の二次元断層画像のうち、前記新たな二次元断層画像が取得された位置に対応する位置で取得された二次元断層画像を表示手段に表示させ、前記新たな二次元断層画像から検出した層を該表示した二次元断層画像に重ねて表示させる工程を更に有することを特徴とする請求項11乃至13のいずれか1項に記載の画像処理方法。   Of the plurality of two-dimensional tomographic images constituting the three-dimensional image, the two-dimensional tomographic image acquired at a position corresponding to the position at which the new two-dimensional tomographic image is acquired is displayed on the display means, and the new The image processing method according to claim 11, further comprising a step of displaying a layer detected from a two-dimensional tomographic image so as to overlap the displayed two-dimensional tomographic image. 前記複数の二次元断層画像よりも少ない枚数の二次元断層画像を選択する選択工程を更に有し、
前記生成工程において、前記選択された複数の二次元断層画像を重ね合わせ処理して前記新たな二次元断層画像を生成することを特徴とする請求項11乃至14のいずれか1項に記載の画像処理方法。
A selection step of selecting a smaller number of two-dimensional tomographic images than the plurality of two-dimensional tomographic images;
The image according to any one of claims 11 to 14, wherein, in the generation step, the new two-dimensional tomographic image is generated by overlaying the selected two-dimensional tomographic images. Processing method.
前記選択工程において、前記複数の二次元断層画像のうち画質評価値が閾値以上である二次元断層画像を選択することを特徴とする請求項15に記載の画像処理方法。   The image processing method according to claim 15, wherein in the selection step, a two-dimensional tomographic image having an image quality evaluation value equal to or greater than a threshold value is selected from the plurality of two-dimensional tomographic images.
JP2013225503A 2013-10-30 2013-10-30 Image processing apparatus, image processing method, and program Expired - Fee Related JP5634587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013225503A JP5634587B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013225503A JP5634587B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009278949A Division JP5404358B2 (en) 2009-12-08 2009-12-08 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014014725A JP2014014725A (en) 2014-01-30
JP5634587B2 true JP5634587B2 (en) 2014-12-03

Family

ID=50109916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013225503A Expired - Fee Related JP5634587B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5634587B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9928602B2 (en) * 2015-12-11 2018-03-27 Novartis Ag Fast and automated segmentation of layered image with heuristic graph search
KR102534762B1 (en) * 2020-03-30 2023-05-19 주식회사 뷰웍스 Method and appararus for generating synthetic 2d image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5095167B2 (en) * 2006-09-19 2012-12-12 株式会社トプコン Fundus observation apparatus, fundus image display apparatus, and fundus observation program
JP4996918B2 (en) * 2006-12-26 2012-08-08 株式会社トプコン Optical image measurement device and program for controlling optical image measurement device
JP5523658B2 (en) * 2007-03-23 2014-06-18 株式会社トプコン Optical image measuring device
JP5192250B2 (en) * 2008-02-04 2013-05-08 株式会社トプコン Fundus observation device
JP5355994B2 (en) * 2008-11-05 2013-11-27 株式会社ニデック Ophthalmic imaging equipment
JP2010197180A (en) * 2009-02-25 2010-09-09 Kowa Co Optical image measuring device
JP5543171B2 (en) * 2009-10-27 2014-07-09 株式会社トプコン Optical image measuring device

Also Published As

Publication number Publication date
JP2014014725A (en) 2014-01-30

Similar Documents

Publication Publication Date Title
JP5404358B2 (en) Image processing apparatus, image processing method, and program
JP6039156B2 (en) Image processing apparatus, image processing method, and program
JP5025715B2 (en) Tomographic imaging apparatus, image processing apparatus, image processing system, control method and program for image processing apparatus
JP5955163B2 (en) Image processing apparatus and image processing method
US20110137157A1 (en) Image processing apparatus and image processing method
US8699774B2 (en) Image processing apparatus, control method thereof, and program
US8870377B2 (en) Image processing apparatus, image processing apparatus control method, ophthalmologic apparatus, ophthalmologic apparatus control method, ophthalmologic system, and storage medium
US10165939B2 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP6230262B2 (en) Image processing apparatus and image processing method
JP2017104343A (en) Image processing apparatus, image processing method and program
JP2015160105A (en) Image processing device, image processing method and program
JP6128841B2 (en) Image processing device
US10573007B2 (en) Image processing apparatus, image processing method, and image processing program
WO2015167005A1 (en) Image-processing device, image-processing method and image-processing program
JP5634587B2 (en) Image processing apparatus, image processing method, and program
JP6243957B2 (en) Image processing apparatus, ophthalmic system, control method for image processing apparatus, and image processing program
JP2018057828A (en) Image processing apparatus and image processing method
JP6526154B2 (en) Image processing apparatus, ophthalmologic system, control method of image processing apparatus, and image processing program
JP5631361B2 (en) Image processing apparatus, image processing method, and program
JP6720267B2 (en) Image processing apparatus, image processing method, and program
JP6419115B2 (en) Image processing apparatus, image processing method, and program
JP2017119226A (en) Image processing apparatus, image processing method, and image processing program
JP6506518B2 (en) Ophthalmic apparatus and control method thereof
JP2020093125A (en) Image processing device, image processing method and program
JP2018089304A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141014

R151 Written notification of patent or utility model registration

Ref document number: 5634587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees