JP6720267B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6720267B2
JP6720267B2 JP2018192764A JP2018192764A JP6720267B2 JP 6720267 B2 JP6720267 B2 JP 6720267B2 JP 2018192764 A JP2018192764 A JP 2018192764A JP 2018192764 A JP2018192764 A JP 2018192764A JP 6720267 B2 JP6720267 B2 JP 6720267B2
Authority
JP
Japan
Prior art keywords
image
scan
alignment
partial region
tomographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018192764A
Other languages
Japanese (ja)
Other versions
JP2019000727A5 (en
JP2019000727A (en
Inventor
好彦 岩瀬
好彦 岩瀬
片山 昭宏
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018192764A priority Critical patent/JP6720267B2/en
Publication of JP2019000727A publication Critical patent/JP2019000727A/en
Publication of JP2019000727A5 publication Critical patent/JP2019000727A5/ja
Application granted granted Critical
Publication of JP6720267B2 publication Critical patent/JP6720267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、眼部における断層画像の高画質化に関する技術である。 The present invention is a technique relating to improving the quality of a tomographic image in an eye part.

光干渉断層計(Optical Coherence Tomography、以下「OCT」と呼ぶ)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。 A tomographic image capturing device of an eye such as an optical coherence tomography (hereinafter referred to as “OCT”) is capable of three-dimensionally observing a state inside a retinal layer. This tomographic imaging apparatus has been attracting attention in recent years because it is useful for more accurate diagnosis of diseases.

眼科の診断においては、網膜層全体の状態を把握するためにボリューム画像と、低画質な断層画像には写らない層を把握するための高画質な二次元断層画像とが用いられる場合がある。なお、ボリューム画像とは二次元断層画像の集合のことをいう。 In ophthalmological diagnosis, a volume image and a high-quality two-dimensional tomographic image for recognizing a layer that is not included in a low-quality tomographic image may be used in order to understand the state of the entire retinal layer. The volume image is a set of two-dimensional tomographic images.

OCTで得られる断層画像の画質は、網膜に入射される近赤外光の強度に依存する。このため、断層画像の画質を向上させるためには、網膜に照射する光の強度を上げる必要があるが、安全性の観点から、網膜に照射可能な光の強度には限界がある。このため、安全上、問題のない強度範囲で近赤外光の照射を行いつつ、高画質な断層画像を生成することが望まれている。このような要求に対して、撮影した二次元の断層画像群を、互いに重ね合わせることにより、ノイズの少ない断面画像を生成する技術が開示されている(特許文献1参照)。 The image quality of a tomographic image obtained by OCT depends on the intensity of near infrared light incident on the retina. For this reason, in order to improve the image quality of the tomographic image, it is necessary to increase the intensity of the light irradiating the retina, but from the viewpoint of safety, there is a limit to the intensity of the light irradiating the retina. For this reason, it is desired to generate a high-quality tomographic image while irradiating the near-infrared light in an intensity range where there is no problem for safety. In response to such a demand, a technique is disclosed in which captured two-dimensional tomographic image groups are superimposed on each other to generate a cross-sectional image with less noise (see Patent Document 1).

特開2008−237238号公報JP 2008-237238A

しかし、特許文献1では、単に複数の断層画像全体を加算平均しているだけである。このため、加算した断層画像間の相関が低い場合には、診断情報の低減が大きくなる場合がある。特に、眼は固視微動などが起こるため、隣接する画像の全領域が類似しているとは限らない。 However, in Patent Document 1, all the plurality of tomographic images are simply averaged. Therefore, when the correlation between the added tomographic images is low, the reduction of the diagnostic information may be large. In particular, the eye may suffer from involuntary eye movements, so that not all areas of adjacent images are similar.

本発明は上記課題に鑑みてなされたものであり、断層画像の画質を向上させることを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to improve the image quality of a tomographic image.

上記の目的を達成するための、本発明の一態様による画像処理装置は、以下の構成を備える。 An image processing apparatus according to an aspect of the present invention for achieving the above object has the following configuration.

即ち、同一位置を複数回走査するように制御されたOCT(Optical Coherence Tomography)の測定光に基づいて得られた被検眼の眼底の複数の断層画像それぞれに含まれる層境界に基づいて、前記複数の断層画像の位置合わせを行う第1位置合わせ手段と、
前記第1位置合わせ手段による位置合わせの後に、Aスキャン方向に対して直交する方向に所定の幅を有する前記断層画像の一部の領域である部分領域を用いて他の断層画像に対する前記部分領域の類似度を取得し、前記他の断層画像に対する前記部分領域よりも狭い幅であるAスキャン画像の位置合わせを前記部分領域の類似度の取得結果を用いて行うことにより、Aスキャン画像単位で位置合わせを行う第2位置合わせ手段と、
前記第2位置合わせ手段による位置合わせの後に、前記複数の断層画像から1の断層画像を生成する生成手段と、を備える。
That is, the plurality of tomographic images of the fundus of the eye to be inspected, which are obtained based on the measurement light of OCT (Optical Coherence Tomography) controlled to scan the same position a plurality of times, are included in the plurality of tomographic images. First alignment means for aligning the tomographic images of
After the alignment by the first alignment means, the partial region which is a partial region of the tomographic image having a predetermined width in the direction orthogonal to the A-scan direction is used and the partial region for another tomographic image. of similarity acquired by performing positioning of the a-scan image which is narrower than the partial region with respect to the other tomographic image using the acquired result of the similarity of the partial region, with a-scan image unit Second alignment means for aligning;
Generating means for generating one tomographic image from the plurality of tomographic images after the alignment by the second aligning means.

本発明によれば、断層画像の画質を向上させることができる。 According to the present invention, the image quality of a tomographic image can be improved.

画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 画像処理装置における断層画像撮影処理の流れを示すフローチャートである。It is a flow chart which shows the flow of the tomographic image photography processing in an image processing device. 重ね合わせ画像生成処理を説明するための図である。It is a figure for demonstrating an overlay image generation process. 重ね合わせ領域を説明するための図である。It is a figure for explaining a superposition field. 重ね合わせの判定処理を説明するための図である。It is a figure for demonstrating the determination process of superposition. 画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 画像処理装置における断層画像撮影処理の流れを示すフローチャートである。It is a flow chart which shows the flow of the tomographic image photography processing in an image processing device. 重ね合わせ領域を説明するための図である。It is a figure for explaining a superposition field.

(実施例1)
以下、図面を参照しながら、本実施形態に係る画像処理装置を備える画像処理システムについて説明する。
(Example 1)
Hereinafter, an image processing system including the image processing apparatus according to the present embodiment will be described with reference to the drawings.

図1は、本実施形態に係る画像処理装置110を備える画像処理システム100の構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置110が、インタフェースを介して断層画像撮影装置120と接続されることにより構成されている。 FIG. 1 is a diagram showing a configuration of an image processing system 100 including an image processing apparatus 110 according to this embodiment. As shown in FIG. 1, the image processing system 100 is configured by connecting an image processing apparatus 110 to a tomographic image capturing apparatus 120 via an interface.

断層画像撮影装置120は、眼部の断層画像を撮影する装置であり、例えばタイムドメイン方式のOCTやフーリエドメイン方式のOCTからなる。なお、断層画像撮影装置120は既知の装置であるため、詳細な説明は省略する。 The tomographic image capturing apparatus 120 is an apparatus that captures a tomographic image of an eye portion, and includes, for example, a time domain OCT or a Fourier domain OCT. Since the tomographic image capturing apparatus 120 is a known apparatus, detailed description will be omitted.

画像処理装置110は、取得部111、記憶部112、画像処理部113、表示制御部114とを備える。 The image processing device 110 includes an acquisition unit 111, a storage unit 112, an image processing unit 113, and a display control unit 114.

取得部111は、断層画像撮影装置120により撮影された断層画像を取得し、記憶部112に格納する。画像処理部113では、記憶部112で記憶している断層画像から、新たな二次元断層画像を生成する。表示制御部114は処理後の画像を図示しないモニタに表示するための制御をする。 The acquisition unit 111 acquires the tomographic image captured by the tomographic image capturing apparatus 120 and stores the tomographic image in the storage unit 112. The image processing unit 113 generates a new two-dimensional tomographic image from the tomographic image stored in the storage unit 112. The display control unit 114 controls to display the processed image on a monitor (not shown).

複数箇所を順次走査してもよいが、特に画質の向上がある例示として、図3(a)に、断層画像撮影装置120でほぼ同一箇所を繰り返し走査し続けて撮影した例における黄斑部の二次元断層画像群の模式図を示す。ここで二次元断層画像を撮像するために測定光を走査する方向を主走査方向とよぶ。主走査方向に直交する方向を副走査方向とよぶこととする。 Although a plurality of points may be sequentially scanned, as an example in which the image quality is particularly improved, in FIG. The schematic diagram of a three-dimensional tomographic image group is shown. Here, the direction in which the measurement light is scanned to capture a two-dimensional tomographic image is called the main scanning direction. The direction orthogonal to the main scanning direction will be referred to as the sub-scanning direction.

また、一般に、断層画像撮影装置120では測定光を副走査方向にずらしながら主走査方向の撮像を行う。つまり、本発明は、副走査方向にずらす場合にも適応できるものである。
図3(a)において、x、zは座標軸、tは時間軸を表している。T〜Tは異なる時点に撮影した黄斑部の二次元断層画像である。すなわち、二次元断層画像群はほぼ同一箇所を撮影した二次元断層画像の集合により形成される。
In general, the tomographic image capturing apparatus 120 captures an image in the main scanning direction while shifting the measurement light in the sub scanning direction. That is, the present invention can be applied to the case of shifting in the sub-scanning direction.
In FIG. 3A, x and z represent coordinate axes, and t represents a time axis. T 1 to T n are two-dimensional tomographic images of the macula taken at different times. That is, the two-dimensional tomographic image group is formed by a set of two-dimensional tomographic images obtained by photographing almost the same portion.

ここで、高画質化とはS/N比を向上させることを意味するものとする。 Here, improving the image quality means improving the S/N ratio.

また、画質の向上とは、S/N比の向上を意味するものとする。 Further, improvement of image quality means improvement of S/N ratio.

次に、図2(a)、図2(b)のフローチャートを参照して本実施形態の画像処理装置110の処理手順を示す。 Next, the processing procedure of the image processing apparatus 110 of the present embodiment will be described with reference to the flowcharts of FIGS. 2(a) and 2(b).

<ステップS201>
ステップS201では、網膜層を撮影するために、不図示の制御部により、断層画像撮影装置120を制御する。まず、測定光が照射される方向である深度方向(図3(a)のz方向)とz方向と直交する平面方向(図3(a)のx方向)との位置を調整する。ここで深度方向の位置を合わせるとは、断層像を得るためのコヒーレントゲートの位置を合わせることに相当する。
<Step S201>
In step S201, the tomographic imaging apparatus 120 is controlled by a control unit (not shown) in order to image the retinal layer. First, the positions of the depth direction (z direction in FIG. 3A), which is the direction in which the measurement light is irradiated, and the plane direction (x direction in FIG. 3A) orthogonal to the z direction are adjusted. Here, matching the position in the depth direction corresponds to matching the position of the coherent gate for obtaining the tomographic image.

<ステップS202>
ステップS201で、不図示の制御部により網膜層を撮影するのに適した位置に調整を行った後、ステップS202で、不図示の撮影指示部により撮影開始を指示する。
<Step S202>
In step S201, the control unit (not shown) adjusts the position of the retinal layer to a position suitable for imaging, and then in step S202, the imaging instruction unit (not shown) instructs the start of imaging.

<ステップS203>
ステップS203では、操作者が撮影指示をすると、不図示の制御部により、ほぼ同一箇所を繰り返し走査し、複数の二次元断層画像を撮影する。
<Step S203>
In step S203, when the operator gives a photographing instruction, the control unit (not shown) repeatedly scans substantially the same portion to photograph a plurality of two-dimensional tomographic images.

なお、不図示の制御部は、副走査方向に移動する間隔を調整する機能も有する。 The control unit (not shown) also has a function of adjusting the interval of movement in the sub-scanning direction.

<ステップS204>
ステップS204では、画像処理部113が、記憶部112に記憶された二次元断層画像群を用いて、新たな二次元断層画像を生成する。高画質化した二次元断層画像の生成処理について、図2(b)を参照して説明する。
<Step S204>
In step S204, the image processing unit 113 generates a new two-dimensional tomographic image using the two-dimensional tomographic image group stored in the storage unit 112. The process of generating a high-quality two-dimensional tomographic image will be described with reference to FIG.

<ステップS210>
ステップS210では、第一の位置合わせ部115において、二次元断層画像同士の位置合わせを行う。位置合わせ処理としては、例えば、2つの二次元断層画像の類似性を示す評価関数を事前に定義しておき、この評価関数の値が最も良くなるように断層画像を変形する。評価関数としては、画素値で評価する方法が挙げられる(例えば、式(1)の相関係数を用いて評価を行う方法が挙げられる)。また、画像の変形処理としては、アフィン変換を用いて並進や回転を行ったり、拡大率を変化させたりする処理が挙げられる。位置合わせ処理として、特徴点ベースで位置を合わせてもよい。例えば、二次元断層画像から各網膜層や病変などの特徴部を抽出する。内境界膜、神経線維層、視細胞内節外節接合部、網膜色素上皮層は輝度値が高く、層の境界はコントラストが高いため、これらの層や特徴部の検出結果を利用して位置合わせを行う。
<Step S210>
In step S210, the first alignment unit 115 aligns the two-dimensional tomographic images. As the alignment processing, for example, an evaluation function indicating the similarity between two two-dimensional tomographic images is defined in advance, and the tomographic image is deformed so that the value of this evaluation function becomes the best. Examples of the evaluation function include a method of evaluating with a pixel value (for example, a method of performing evaluation using the correlation coefficient of Expression (1)). Further, as the image transformation process, a process of performing translation or rotation by using an affine transformation or changing an enlargement ratio can be cited. As the positioning process, the positions may be matched on the basis of feature points. For example, a feature such as each retinal layer or lesion is extracted from the two-dimensional tomographic image. The inner limiting membrane, nerve fiber layer, photoreceptor inner segment/outer segment junction, and retinal pigment epithelium layer have high brightness values, and the layer boundaries have high contrast. Make a match.

したがって、二次元断層画像を変形させながら評価関数が最大となる位置変形パラメータを計算し、二次元断層画像間の位置を合わせる。重ね合わせのための二次元断層画像の枚数がN枚であった場合、基準となる二次元断層画像に対してN−1枚の二次元断層画像の位置合わせ処理を行う。 Therefore, the position deformation parameter that maximizes the evaluation function is calculated while deforming the two-dimensional tomographic images, and the positions of the two-dimensional tomographic images are matched. When the number of two-dimensional tomographic images for superposition is N, the N-1 two-dimensional tomographic images are aligned with respect to the reference two-dimensional tomographic image.

<ステップS211>
ステップS211では、判定部117において、対応するAスキャン画像毎に重ね合わせを行うAスキャン画像を判定する。この処理について図4を用いて説明を行う。T’とTi+1’は、異なる時点で撮像された二次元断層画像で、ステップS210において位置合わせを行ったものである。Aij’、A(i+1)j’は、位置合わせ後のT’とTi+1’において、それぞれ対応するAスキャン画像を表している。なお、本発明におけるAスキャン画像は、図4において、z軸方向に並行な1本の画素列のことをAスキャン画像としている。
<Step S211>
In step S211, the determination unit 117 determines an A-scan image to be superimposed for each corresponding A-scan image. This process will be described with reference to FIG. T i ′ and T i+1 ′ are two-dimensional tomographic images taken at different times, and are aligned in step S210. A ij ′ and A (i+1)j ′ represent the A scan images corresponding to T i ′ and T i+1 ′ after the alignment, respectively. Note that, in the A-scan image in the present invention, one pixel column parallel to the z-axis direction in FIG. 4 is referred to as an A-scan image.

Aスキャン画像は測定光の入射方向に合致した画像であり、同一箇所から得られた個々のAスキャン画像はほぼ同一の画像情報を有する。このため、眼の固視微動により二次元断層像全体では類似性が低い場合でも、異なる二次元断層像のAスキャン画像において相互に類似性が高いデータが存在する場合がある。 The A-scan image is an image that matches the incident direction of the measurement light, and the individual A-scan images obtained from the same location have substantially the same image information. Therefore, even if the entire two-dimensional tomographic image has low similarity due to the eye's involuntary eye movement, there may be data having high similarities in the A-scan images of different two-dimensional tomographic images.

同一の斜線の領域Rij’、R(i+1)j’はAij’、A(i+1)j’を中心にx軸方向に+−αの領域を表している。算出部116では、Aスキャン画像を中心とした画像領域Rij’、R(i+1)j’において、Aスキャン画像間の類似度を算出する。重ね合わせ判定を行うための基準領域をRij’とした場合、R1j’〜 Rnj’の全ての対応する領域間で類似度の計算を算出部116が行う。ここで、Aスキャン画像間の類似性を示す評価関数として相関係数を用いた場合の式を数1に示す。 The same diagonally shaded areas R ij ′ and R (i+1) j ′ represent +-α areas in the x-axis direction around A ij ′ and A (i+1) j ′. The calculator 116 calculates the similarity between the A-scan images in the image regions R ij ′ and R (i+1)j ′ centered on the A-scan images. When R ij ′ is the reference region for performing the overlay determination, the calculation unit 116 calculates the degree of similarity between all corresponding regions of R 1j ′ to R nj ′. Here, the equation when the correlation coefficient is used as the evaluation function indicating the similarity between the A scan images is shown in Equation 1.

図4の場合において、領域Rij’をf(x,y)、R(i+1)j’をg(x,y)とする。 In the case of FIG. 4, the region R ij ′ is f(x, y) and R (i+1) j ′ is g (x, y).

は、それぞれ領域f(x,y)と領域g(x,y)の平均を表す。 Represents the average of the area f(x, y) and the area g(x, y), respectively.

判定部117では、領域毎に重ね合わせに用いる領域を選択する。判定部の処理について図5を用いて説明をする。図5は領域間の類似度を算出部116が計算した結果の例を示している。 The determination unit 117 selects a region to be used for superposition for each region. The processing of the determination unit will be described with reference to FIG. FIG. 5 shows an example of the result of calculation of the similarity between regions by the calculation unit 116.

横軸は、撮影した二次元断層画像の番号1〜Nである。縦軸は、基準領域と他の二次元断層画像における領域との類似度を表している。図5(a)は、閾値Thを設定し、所定値以上の類似度となる領域を選択する場合の例である。図5(b)は、図5(a)を類似度順にソートしたものであり、類似度の上位M枚を選択する例である。図5(c)は、類似度順にソート処理し、ソート処理後の類似度の変化率を線グラフで表している。ここでは、類似度の変化率が著しく低下する前の画像を選択する場合の例である。つまり、ソート処理後の類似度の変化率が所定値を示すところの類似度を求め、求めた類似度以上の値の領域を選択する。 The horizontal axis represents the numbers 1 to N of the two-dimensional tomographic images taken. The vertical axis represents the degree of similarity between the reference area and the area in another two-dimensional tomographic image. FIG. 5A shows an example in which the threshold value Th is set and a region having a similarity equal to or higher than a predetermined value is selected. FIG. 5B is a diagram in which FIG. 5A is sorted in order of similarity, and is an example in which the top M sheets of similarity are selected. In FIG. 5C, the sorting process is performed in the order of the similarity, and the change rate of the similarity after the sorting process is represented by a line graph. Here, an example is shown in which an image before the rate of change of the similarity is significantly reduced is selected. That is, the similarity at which the rate of change of the similarity after the sorting process shows a predetermined value is obtained, and a region having a value equal to or higher than the obtained similarity is selected.

また、ソート処理せずに類似度間の変化率を見る。類似度が所定値よりも低下した場合に評価値の計算を算出部116が止める。評価値が所定値以上でかつ計算を止める前の画像を選択する。 Also, the rate of change between similarities is checked without sorting. The calculation unit 116 stops the calculation of the evaluation value when the similarity is lower than the predetermined value. An image whose evaluation value is equal to or greater than a predetermined value and before calculation is stopped is selected.

(a)の閾値の場合は、評価値の悪いものは重ね合わせに用いないので、評価値の良い領域のみ重ね合わせることが出来る。 In the case of the threshold value of (a), those having a bad evaluation value are not used for superposition, and therefore only the regions having a good evaluation value can be superposed.

これは、副走査方向の単位時間あたりの移動距離が小さい場合に好適である。組織構造の変化は少ないが、特異的な眼の動きや、瞬きにより生じた組織構造が大きく異なる領域の画像を選択しない効果を有するからである。 This is suitable when the moving distance per unit time in the sub-scanning direction is small. This is because there is little change in the tissue structure, but it has the effect of not selecting an image of a region in which the tissue structure caused by a specific eye movement or blinking greatly differs.

(b)の固定枚数としてM枚選択する場合は、画像単位での重ね合わせ平均化処理を行うデータ数にバラツキがなくなる。各Aスキャン画像単位での重ね合わせ平均化処理を行うデータ数にもバラツキがなくなるものである。ノイズの低減化の程度が揃えられるので、画質を同程度にする場合にはより好適である。 When M is selected as the fixed number in (b), there is no variation in the number of data for which the overlay averaging process is performed in image units. There is no variation in the number of data items for which the overlay averaging process is performed for each A-scan image unit. Since the degree of noise reduction can be made uniform, it is more suitable when the image quality is the same.

(c)の変化率を見る場合は、病気などで全体的に画質が悪く全体的に類似度が低くなる場合においても、類似する領域同士を選択することが出来るといった特徴がある。 When looking at the change rate of (c), even if the image quality is poor overall and the degree of similarity is low due to illness or the like, it is possible to select similar regions.

(d)の方法は、副走査方向の単位時間あたりの移動距離が大きくなる場合にも好適である。副走査方向のずれが所定値を超えると網膜の組織構造が異なってくるので、不必要に評価値を算出部116が計算するのを押さえることがでるためである。即ち、変化率を見る事で組織構造の変化もわかることになる。 The method (d) is also suitable when the movement distance per unit time in the sub-scanning direction becomes large. This is because if the displacement in the sub-scanning direction exceeds a predetermined value, the tissue structure of the retina changes, and it is possible to prevent the calculation unit 116 from unnecessarily calculating the evaluation value. In other words, by looking at the rate of change, changes in organizational structure can be understood.

以上において、各領域において、評価値に基づいて重ね合わせを行う領域を選択している。そのため、固視微動などにより二次元断層画像内で網膜層が変形している場合や、まばたきやケラレなどにより、部分的に画質が低下している領域は重ね合わせに用いないので新たに生成した画像は高画質化される。 In the above, in each area, the area to be superposed is selected based on the evaluation value. Therefore, if the retinal layer is deformed in the two-dimensional tomographic image due to involuntary eye movement, or if the image quality is partially degraded due to blinking, vignetting, etc., it is not used for superposition and is newly generated. The image quality is improved.

また、副走査方向の単位時間あたりの移動距離に応じて上記の(a)〜(d)を判定部117は組み合わせる処理を行う。例えば、移動距離が所定値未満の場合には(a)又は(b)の処理を用い、距離が所定値を超える場合には(c)または(d)の処理を行う。(a)と(d)の組合せでは速度を重視した処理を行え、(b)と(d)の組合せでは、画質を重視した処理が行える。 Further, the determination unit 117 performs a process of combining the above (a) to (d) according to the moving distance per unit time in the sub-scanning direction. For example, if the movement distance is less than the predetermined value, the process (a) or (b) is used, and if the distance exceeds the predetermined value, the process (c) or (d) is performed. With the combination of (a) and (d), speed-oriented processing can be performed, and with the combination of (b) and (d), image-quality-oriented processing can be performed.

<ステップS212>
ステップS212では、生成部118が重ね合わせ処理を行う。ここでは、Aスキャン画像が2つの場合の重ね合わせについて説明をする。図3(b)は、二次元断層画像をAスキャン画像毎に処理し、1枚の二次元断層画像を合成画像として生成する処理を説明するための図である。つまり、異なる時点で撮像された、異なる二次元断層画像上に位置するAスキャン画像の加算平均処理を例として説明する。図3(c)は、各画素あたりM個(本例では2個)の画素を用いて加算平均処理を行うことにより生成された高画質化された二次元断層画像である。つまり、図3(c)において、Aij”は対応するAスキャン画像について加算平均処理を行うことにより算出された新たなAスキャン画像である。
<Step S212>
In step S212, the generation unit 118 performs superposition processing. Here, superposition in the case of two A-scan images will be described. FIG. 3B is a diagram for explaining a process of processing a two-dimensional tomographic image for each A scan image and generating one two-dimensional tomographic image as a composite image. That is, the averaging process of the A-scan images located on different two-dimensional tomographic images captured at different times will be described as an example. FIG. 3C is a high-quality two-dimensional tomographic image generated by performing the averaging process using M (two in this example) pixels for each pixel. That is, in FIG. 3C, A ij ″ is a new A scan image calculated by performing the averaging process on the corresponding A scan image.

図3(b)において、T’とTi+1’とは、同一断面をそれぞれ異なる時点で撮像した二次元断層画像である。Aij’、A(i+1)j’は、断層画像T’とTi+1’におけるそれぞれのAスキャン画像を表している。生成部118は、Aij’、A(i+1)j’のAスキャン画像について加算平均処理を行うことにより、図3(c)におけるAij”を算出する。なお、高画質な二次元断層画像(合成画像)の生成処理は、加算平均処理に限定されるものではなく、中央値算出処理、重み付加算平均処理などを用いてもよい。これらの処理を、基準画像T’のAスキャン画像(Ai1’からAim’まで)全てにおいて行う。例えば、重み付加加算平均処理では前述の類似度を加算の重みに用いる。 In FIG. 3B, T i ′ and T i+1 ′ are two-dimensional tomographic images obtained by imaging the same cross section at different times. A ij ′ and A (i+1)j ′ represent respective A scan images in the tomographic images T i ′ and T i+1 ′. The generation unit 118 calculates A ij ″ in FIG. 3C by performing the averaging process on the A scan images A ij ′ and A (i+1) j ′. The high-quality two-dimensional tomographic image The generation process of the (composite image) is not limited to the averaging process, but may be a median value calculating process, a weighted averaging process, etc. These processes are performed by the A scan of the reference image T i ′. This is performed for all the images (from A i1 ′ to A im ′) For example, in the weighted addition averaging process, the above-described similarity is used as the weight of addition.

なお、本実施形態において、類似度を計算する領域はRij’とし、重ね合わせ処理は、Aij’で行う場合(Aスキャン画像単位)について説明を行ったが、本発明はこれに限らない。例えば、類似度を計算した領域単位で重ね合わせ処理を行っても良い。また、二次元断層画像で重ね合わせ処理を行ってよい。さらには、αを0(α=0の場合、Rij’=Aij’)として、Aスキャン画像単位で類似度を計算して判定を行い、重ね合わせをしても良い。 In the present embodiment, the region for calculating the degree of similarity is set to R ij ′, and the overlapping process is performed on A ij ′ (A scan image unit), but the present invention is not limited to this. .. For example, the superimposing process may be performed in units of areas in which the degree of similarity is calculated. In addition, the superimposing process may be performed on the two-dimensional tomographic image. Further, α may be set to 0 (in the case of α=0, R ij ′=A ij ′), the similarity may be calculated for each A scan image unit to make a determination, and superimposition may be performed.

<ステップS205>
ステップS205では、表示制御部114は、ステップS204で生成した高画質な二次元断層画像を不図示の表示部に表示する。また、断層画像撮影装置120の測定光の走査範囲を固定して、ほぼ同一の網膜の領域を走査する例を説明したが、網膜全体を順次走査しても本発明を適用できることは上述したとおりである。
<Step S205>
In step S205, the display control unit 114 displays the high-quality two-dimensional tomographic image generated in step S204 on a display unit (not shown). Also, an example has been described in which the scanning range of the measurement light of the tomographic image capturing apparatus 120 is fixed and substantially the same retina region is scanned, but the present invention can be applied even if the entire retina is sequentially scanned, as described above. Is.

以上の説明から明らかなように、本実施形態では、位置合わせを行った複数の二次元断層画像において、対応するAスキャン画像と周辺の領域を用いて領域間の類似度を計算し、各領域単位で重ね合わせ処理に用いる領域の判定を行った。それにより、画像全体では位置が合っているが、固視微動などにより、二次元断層画像内の網膜層が変形している場合においても、部分領域単位で重ね合わせ処理に用いる領域の判定を行うので、高画質化された二次元断層画像を生成することができる。 As is clear from the above description, in the present embodiment, in a plurality of aligned two-dimensional tomographic images, the similarity between the regions is calculated using the corresponding A scan image and the surrounding region, and each region is calculated. The area used for the overlaying process was determined in units. As a result, even if the position of the entire image is correct, even if the retinal layer in the two-dimensional tomographic image is deformed due to fixational eye movements, the region used for the overlay processing is determined in units of partial regions. Therefore, it is possible to generate a high-quality two-dimensional tomographic image.

本実施形態によれば、固視微動などにより、二次元断層画像内の網膜層が変形している場合においても高画質な二次元断層画像を取得することが可能となる。ここで、高画質な画像とは一度の撮影と比較してS/N比が向上している画像をいう。または、診断に必要な情報量が増えている画像のことをいう。 According to the present embodiment, it is possible to obtain a high-quality two-dimensional tomographic image even when the retinal layer in the two-dimensional tomographic image is deformed due to a slight eye movement. Here, the high-quality image refers to an image having an improved S/N ratio as compared with one shot. Alternatively, it refers to an image in which the amount of information necessary for diagnosis is increasing.

(実施例2)
上記第1の実施形態では、位置合わせを行った二次元断層画像において、対応するAスキャン画像と周辺の領域を用いて領域間の類似度を計算し、各領域単位で重ね合わせ処理に用いる領域の判定を行った。本実施形態では、位置合わせを行った二次元断層画像において、Aスキャン画像と周辺の領域を用いて、近傍領域において評価値が高くなる領域を探索し、重ね合わせ処理を行うことを特徴としている。本実施形態によれば、大局的な特徴を用いて全体的に位置合わせを行い、さらに局所的な特徴を用いて位置合わせを行った後に、重ね合わせ処理を行う。
(Example 2)
In the first embodiment, in a two-dimensional tomographic image that has been aligned, the similarity between the regions is calculated using the corresponding A-scan image and the surrounding region, and the region used for the overlay processing in each region unit. Was judged. The present embodiment is characterized in that, in a two-dimensional tomographic image that has been aligned, the A-scan image and the peripheral region are used to search for a region having a higher evaluation value in a neighboring region, and superimpose processing is performed. .. According to this embodiment, the overall feature is used for the alignment, and the local feature is used for the alignment, and then the overlay process is performed.

図6は、本実施形態に係る画像処理装置610を備える画像処理システム600の構成を示す図である。図6に示すように、画像処理装置610は、取得部111、記憶部112、画像処理部613、表示制御部114とを備える。このうち、画像処理部613以外は、上記第1の実施形態と同様の機能を有するため、ここでは説明を省略する。 FIG. 6 is a diagram showing a configuration of an image processing system 600 including an image processing device 610 according to this embodiment. As shown in FIG. 6, the image processing device 610 includes an acquisition unit 111, a storage unit 112, an image processing unit 613, and a display control unit 114. Of these, the functions other than the image processing unit 613 have the same functions as those in the above-described first embodiment, and therefore description thereof is omitted here.

画像処理部613において、第二の位置合わせ部619は、Aスキャン画像と周囲の領域を用いて局所的な位置合わせを行う。 In the image processing unit 613, the second alignment unit 619 performs local alignment using the A scan image and the surrounding area.

以下、図7、図8を参照して本実施形態の画像処理装置610の処理手順を示す。なお、ステップS704以外は、第1実施形態のステップS201〜ステップS203とステップS205と同様なので説明は省略する。 Hereinafter, the processing procedure of the image processing apparatus 610 according to the present embodiment will be described with reference to FIGS. 7 and 8. Note that the steps other than step S704 are the same as steps S201 to S203 and step S205 of the first embodiment, and therefore description thereof will be omitted.

<ステップS704>
ステップS704では、画像処理部613が、大局的な位置合わせと局所的な位置合わせを行い、画像重ね合わせ処理を行うことで、高画質な二次元断層画像を生成する。高画質な二次元断層画像生成処理について、図7(b)を参照して説明する。
<Step S704>
In step S704, the image processing unit 613 performs global alignment and local alignment, and performs image overlay processing to generate a high-quality two-dimensional tomographic image. The high-quality two-dimensional tomographic image generation process will be described with reference to FIG.

<ステップS710>
ステップS710では、第一の位置合わせ部115において、二次元断層画像同士の位置合わせを行う。この処理は、第1実施形態のステップS210と同様なので、説明は省略する。
<Step S710>
In step S710, the first alignment unit 115 aligns the two-dimensional tomographic images. This processing is the same as step S210 of the first embodiment, so description will be omitted.

<ステップS711>
ステップS710で大局的な位置合わせを行った二次元断層画像において、対応するAスキャン画像単位で位置合わせを行うことにより、局所的な位置合わせを行う。この処理について図8(a)を用いて説明を行う。T’とTi+1’は、同一断面を異なる時点で撮像した画像で、ステップS710において位置合わせを行った二次元断層画像である。Aij’はT’におけるAスキャン画像を表している。斜線の領域Rij”はAij’を中心にx軸方向に+−αの範囲を表している。R(i+1)j”は、Ti+1’においてRij”に対応する矩形領域を表しており、S(i+1)j’は、R(i+1)j”の矩形領域を動かす探索範囲を表している。基準Aスキャン画像をAij’とし、類似度を計算する領域をRij”とする場合、探索範囲S(i+1)j’内において、R(i+1)j”の矩形領域を走査して、算出部116が評価値を計算する。
<Step S711>
In the two-dimensional tomographic image that has been globally aligned in step S710, local alignment is performed by performing alignment in units of corresponding A scan images. This process will be described with reference to FIG. T i ′ and T i+1 ′ are images of the same cross section taken at different times, and are two-dimensional tomographic images that have been aligned in step S710. A ij ′ represents the A scan image at T i ′. A shaded area R ij ″ represents a range of +−α in the x-axis direction around A ij ′. R (i+1) j ″ represents a rectangular area corresponding to R ij ″ at T i+1 ′. S (i+1)j ′ represents a search range for moving the rectangular area of R (i+1)j ″. When the reference A-scan image is A ij ′ and the area for calculating the similarity is R ij ″, the rectangular area of R (i+1)j ″ is scanned and calculated within the search range S (i+1)j ′. The unit 116 calculates the evaluation value.

評価値は、Rij”とR(i+1)j”で画素値の相関を算出部116が計算して判定部117が評価を行う。あるいは、網膜層境界を検出することで層厚を検出し、その層厚を用いて類似度の評価値を算出部116が計算する。層厚を用いて類似度を評価する場合を図8(b)に示す。図8(b)は、探索範囲S(i+1)j’内における網膜層境界(内境界膜L、網膜色素上皮層L)と、網膜層境界から求めた層厚1〜3を表している。矩形領域R(i+1)j”において各Aスキャン画像上の層厚を求める。そして、Rij”とR(i+1)j”内の層厚同士を比較することで評価値を算出部116が計算する。層厚を計算するのに用いる層は上記に限定されるものではなく、神経線維層、視細胞内節外節接合部など、他の層境界を用いて層厚を比較しても良い。 The evaluation value is R ij ″ and R (i+1) j ″, and the calculation unit 116 calculates the correlation between the pixel values, and the determination unit 117 performs the evaluation. Alternatively, the layer thickness is detected by detecting the retinal layer boundary, and the calculation unit 116 calculates the evaluation value of the similarity using the layer thickness. FIG. 8B shows a case where the similarity is evaluated using the layer thickness. FIG. 8B shows the retinal layer boundaries (inner limiting membrane L 1 and retinal pigment epithelium layer L 2 ) within the search range S (i+1)j ′ and the layer thicknesses 1 to 3 obtained from the retinal layer boundaries. There is. The layer thickness on each A-scan image is calculated in the rectangular region R (i+1)j ″. Then, the evaluation value is calculated by the calculation unit 116 by comparing the layer thicknesses in R ij ″ and R (i+1)j ″. The layer used to calculate the layer thickness is not limited to the above, and the layer thickness may be compared using other layer boundaries such as nerve fiber layer and photoreceptor inner segment outer segment junction. ..

なお、本実施形態において、判定部117による重ね合わせ判定の処理を省略したが、Aスキャン画像単位の位置合わせを行った後に、実施例1と同様に類似度により重ね合わせを行うか否かの判定を行うようにしても良い。 In the present embodiment, the process of the overlay determination by the determination unit 117 is omitted. However, after performing the alignment in units of A scan images, whether the overlay is performed based on the similarity as in the first embodiment. You may make it judge.

<ステップS712>
ステップS712では、生成部118において、対応するAスキャン画像同士の重ね合わせ処理を行う。生成部118では、ステップS711において、評価値が最大となる位置の矩形領域R(i+1)j”の中心に位置するAスキャン画像と、基準画像のAスキャン画像Aij’との重ね合わせ処理を行う。
<Step S712>
In step S712, the generation unit 118 performs a process of overlapping the corresponding A-scan images. In step S711, the generation unit 118 performs a process of superimposing the A-scan image located at the center of the rectangular region R (i+1)j ″ having the maximum evaluation value and the A-scan image A ij ′ of the reference image. To do.

なお、本実施形態においてRij”は、Aスキャン画像位置を中心に+−αの範囲を矩形領域として設定した。この設定方法として、αは固定値ではなく、二次元断層画像に写っている網膜層の画像特徴に応じて動的に変更するようにしても良い。領域設定の例を図8(c)に示す。例えば、網膜層の形状が平面的であるような場合には、αの範囲を広く設定する(R(i+1)j”)。網膜層の形状が湾曲している、二次元断層画像中に特徴的な箇所(垂直、水平エッジが多数存在)がある場合には、αの範囲を狭く設定する(R(i+1)k”)。領域範囲の設定は、画像特徴から症例毎に変更しても良いし、1枚の二次元断層画像内においてAスキャン画像単位で変更しても良い。 Note that in the present embodiment, R ij ″ is set as a rectangular area within a range of +−α centered on the A scan image position. As this setting method, α is not a fixed value but is reflected in a two-dimensional tomographic image. 8(c) shows an example of region setting, for example, when the shape of the retinal layer is flat, α Is set wide (R (i+1)j ″). If the two-dimensional tomographic image has a curved shape of the retinal layer and there are characteristic points (there are many vertical and horizontal edges), the range of α is set narrow (R (i+1)k ″). The setting of the area range may be changed for each case from the image characteristics, or may be changed for each A-scan image in one two-dimensional tomographic image.

以上の説明から明らかなように、本実施形態では、位置合わせを行った二次元断層画像において、Aスキャン画像と周辺の領域を用いて、近傍領域において評価値が高くなる領域を探索し、重ね合わせ処理を行った。それにより、画像全体では位置が合っているが、固視微動などにより、二次元断層画像内の網膜層が変形している場合においても、局所単位で位置合わせ処理を行うので、高画質な二次元断層画像を生成することができる。 As is clear from the above description, in the present embodiment, in the aligned two-dimensional tomographic image, the A-scan image and the peripheral region are used to search for a region having a higher evaluation value in the neighboring region, and the overlapping region is searched. A matching process was performed. As a result, even if the position of the entire image is matched, even if the retinal layer in the two-dimensional tomographic image is deformed due to fixational eye movements, etc., the alignment processing is performed in local units, resulting in high image quality. It is possible to generate a three-dimensional tomographic image.

(その他の実施形態)
上記のそれぞれの実施形態は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施形態は画像処理装置のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。
(Other embodiments)
Each of the above embodiments implements the present invention as an image processing apparatus. However, the embodiment of the present invention is not limited to the image processing apparatus. The present invention can also be realized as software that operates on a computer. The CPU of the image processing apparatus controls the entire computer using computer programs and data stored in the RAM and ROM. In addition, the execution of software corresponding to each unit of the image processing apparatus is controlled to realize the function of each unit.

110 画像処理装置
120 断層画像撮影装置
112 記憶部
113 画像処理部
114 表示制御部
115 第一の位置合わせ部
116 算出部
117 判定部
118 生成部
619 第二の位置合わせ部
110 image processing device 120 tomographic image capturing device 112 storage unit 113 image processing unit 114 display control unit 115 first alignment unit 116 calculation unit 117 determination unit 118 generation unit 619 second alignment unit

Claims (9)

同一位置を複数回走査するように制御されたOCT(Optical Coherence Tomography)の測定光に基づいて得られた被検眼の眼底の複数の断層画像それぞれに含まれる層境界に基づいて、前記複数の断層画像の位置合わせを行う第1位置合わせ手段と、
前記第1位置合わせ手段による位置合わせの後に、Aスキャン方向に対して直交する方向に所定の幅を有する前記断層画像の一部の領域である部分領域を用いて他の断層画像に対する前記部分領域の類似度を取得し、前記他の断層画像に対する前記部分領域よりも狭い幅であるAスキャン画像の位置合わせを前記部分領域の類似度の取得結果を用いて行うことにより、Aスキャン画像単位で位置合わせを行う第2位置合わせ手段と、
前記第2位置合わせ手段による位置合わせの後に、前記複数の断層画像から1の断層画像を生成する生成手段と、
を備えることを特徴とする画像処理装置。
Based on the layer boundaries included in each of the tomographic images of the fundus of the eye to be inspected obtained based on the measurement light of OCT (Optical Coherence Tomography) controlled to scan the same position multiple times, the plurality of tomographic images First alignment means for aligning images,
After the alignment by the first alignment means, the partial region which is a partial region of the tomographic image having a predetermined width in the direction orthogonal to the A-scan direction is used and the partial region for another tomographic image. of similarity acquired by performing positioning of the a-scan image which is narrower than the partial region with respect to the other tomographic image using the acquired result of the similarity of the partial region, with a-scan image unit Second alignment means for aligning;
Generating means for generating one tomographic image from the plurality of tomographic images after the alignment by the second aligning means,
An image processing apparatus comprising:
前記第2位置合わせ手段は、前記他の断層画像に対する前記部分領域の相関に基づいて、前記類似度を取得することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the second alignment unit acquires the similarity based on a correlation of the partial region with the other tomographic image. 前記部分領域の前記Aスキャン方向に対して直交する方向における大きさは、可変であることを特徴とする請求項1または請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein a size of the partial region in a direction orthogonal to the A scan direction is variable. 前記部分領域の前記Aスキャン方向に対して直交する方向における大きさは、前記断層画像における網膜層の画像特徴に応じて変更されることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The size of the partial region in a direction orthogonal to the A scan direction is changed according to image characteristics of a retinal layer in the tomographic image. The image processing device described. 前記部分領域の前記Aスキャン方向に対して直交する方向における大きさは、前記断層画像における網膜層の形状が他の領域よりも湾曲している特徴的な箇所の方が該他の領域よりも該大きさが小さくなるように設定されることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 Regarding the size of the partial region in the direction orthogonal to the A-scan direction, the characteristic portion in which the shape of the retinal layer in the tomographic image is curved more than other regions is larger than the other regions. The image processing apparatus according to any one of claims 1 to 4, wherein the size is set to be small. 前記部分領域は位置合わせ対象のAスキャン画像を中心として所定の幅を持った領域であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The partial region image processing apparatus according to any one of claims 1 to 5, characterized in that a region having a predetermined width around the A-scan image of the alignment target. 請求項1乃至のいずれか1項に記載の画像処理装置と、
前記眼底における同一位置を前記OCTの測定光で複数回走査するように制御する制御手段を有する断層画像撮影装置と、
を備えることを特徴とするシステム。
An image processing apparatus according to any one of claims 1 to 6 ,
A tomographic imaging apparatus having control means for controlling the same position on the fundus so as to scan the measurement light of the OCT a plurality of times;
A system comprising:
プロセッサにより、同一位置を複数回走査するように制御されたOCT(Optical Coherence Tomography)の測定光に基づいて得られた被検眼の眼底の複数の断層画像それぞれに含まれる層境界に基づいて、前記複数の断層画像の位置合わせを行う第1位置合わせ工程と、
プロセッサにより、前記第1位置合わせ工程における位置合わせの後に、前記複数の断層画像それぞれにおけるAスキャン方向に対して直交する方向に所定の幅を有する前記断層画像の一部の領域である部分領域を用いて他の断層画像に対する前記部分領域の類似度を取得し、前記他の断層画像に対する前記部分領域よりも狭い幅であるAスキャン画像の位置合わせを前記部分領域の類似度の取得結果を用いて行うことにより、Aスキャン画像単位で位置合わせを行う第2位置合わせ工程と、
プロセッサにより、前記第2位置合わせ工程における位置合わせの後に、前記複数の断層画像から1の断層画像を生成する生成工程と、
を含むことを特徴とする画像処理方法。
Based on a layer boundary included in each of a plurality of tomographic images of the fundus of the eye to be inspected, which is obtained based on measurement light of OCT (Optical Coherence Tomography) controlled to scan the same position a plurality of times by the processor, A first alignment step of aligning a plurality of tomographic images,
After the alignment in the first alignment step, the processor determines a partial region which is a partial region of the tomographic image having a predetermined width in a direction orthogonal to the A scan direction in each of the plurality of tomographic images. The similarity of the partial region with respect to another tomographic image is acquired by using the A-scan image having a width narrower than that of the partial region with respect to the other tomographic image , and the acquisition result of the similarity of the partial region is used. And a second alignment step for performing alignment in units of A scan images ,
A generation step of generating, by the processor, one tomographic image from the plurality of tomographic images after the alignment in the second alignment step;
An image processing method comprising:
請求項に記載の画像処理方法をコンピュータに実行させるプログラム。 A program that causes a computer to execute the image processing method according to claim 8 .
JP2018192764A 2018-10-11 2018-10-11 Image processing apparatus, image processing method, and program Active JP6720267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192764A JP6720267B2 (en) 2018-10-11 2018-10-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192764A JP6720267B2 (en) 2018-10-11 2018-10-11 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016141601A Division JP6419115B2 (en) 2016-07-19 2016-07-19 Image processing apparatus, image processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020043939A Division JP2020093125A (en) 2020-03-13 2020-03-13 Image processing device, image processing method and program

Publications (3)

Publication Number Publication Date
JP2019000727A JP2019000727A (en) 2019-01-10
JP2019000727A5 JP2019000727A5 (en) 2019-02-28
JP6720267B2 true JP6720267B2 (en) 2020-07-08

Family

ID=65004535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192764A Active JP6720267B2 (en) 2018-10-11 2018-10-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6720267B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001291087A (en) * 2000-04-07 2001-10-19 Fuji Photo Film Co Ltd Method and device for positioning image
DE102005034332A1 (en) * 2005-07-22 2007-01-25 Carl Zeiss Meditec Ag Apparatus and method for observation, documentation and / or diagnosis of the ocular fundus
JP4850495B2 (en) * 2005-10-12 2012-01-11 株式会社トプコン Fundus observation apparatus and fundus observation program
EP1978394A1 (en) * 2007-04-06 2008-10-08 Global Bionic Optics Pty Ltd. Optical system for increasing depth of field
JP5199031B2 (en) * 2008-11-05 2013-05-15 株式会社ニデック Ophthalmic imaging equipment

Also Published As

Publication number Publication date
JP2019000727A (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6039156B2 (en) Image processing apparatus, image processing method, and program
EP3073894B1 (en) Corrected 3d imaging
JP5025715B2 (en) Tomographic imaging apparatus, image processing apparatus, image processing system, control method and program for image processing apparatus
JP5404358B2 (en) Image processing apparatus, image processing method, and program
CN112367915A (en) Medical image processing apparatus, medical image processing method, and program
KR101894808B1 (en) Ophthalmologic apparatus and ophthalmologic apparatus control method
JP6608138B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP7297628B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP6207225B2 (en) Image processing apparatus and image processing method
JP2017104343A (en) Image processing apparatus, image processing method and program
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP7027076B2 (en) Image processing equipment, alignment method and program
JP6720267B2 (en) Image processing apparatus, image processing method, and program
JP7439990B2 (en) Medical image processing device, medical image processing program, and medical image processing method
JP5634587B2 (en) Image processing apparatus, image processing method, and program
JP6419115B2 (en) Image processing apparatus, image processing method, and program
JP2019047841A (en) Image processing device, image processing method, and program
JP2020093125A (en) Image processing device, image processing method and program
JP5631361B2 (en) Image processing apparatus, image processing method, and program
WO2015129718A1 (en) Image processing device, image processing method and image processing program
JP2021069667A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200617

R151 Written notification of patent or utility model registration

Ref document number: 6720267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151