JP2018089304A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2018089304A
JP2018089304A JP2016237683A JP2016237683A JP2018089304A JP 2018089304 A JP2018089304 A JP 2018089304A JP 2016237683 A JP2016237683 A JP 2016237683A JP 2016237683 A JP2016237683 A JP 2016237683A JP 2018089304 A JP2018089304 A JP 2018089304A
Authority
JP
Japan
Prior art keywords
image
profile
image processing
scan
layer boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016237683A
Other languages
Japanese (ja)
Inventor
ピオトロフスキー クシシュトフ
Piotrovskii Krzysztof
ピオトロフスキー クシシュトフ
ズコウスキー カミール
Zukowski Kamil
ズコウスキー カミール
ザプロトニー ピョトル
Szprotni Piotr
ザプロトニー ピョトル
ミューライゼン クシシュトフ
Muehleisen Krzysztof
ミューライゼン クシシュトフ
川瀬 大輔
Daisuke Kawase
大輔 川瀬
治 嵯峨野
Osamu Sagano
治 嵯峨野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016237683A priority Critical patent/JP2018089304A/en
Publication of JP2018089304A publication Critical patent/JP2018089304A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that can acquire an appropriate layer boundary from a tomographic image of the ocular fundus.SOLUTION: An image processing device includes detection means for detecting a layer boundary from a tomographic image of the ocular fundus, determination means for determining whether or not folding is generated in the tomographic image, and correction means for correcting a layer boundary detected by the detection means of a part where folding is generated when it is determined by the determination means that folding is generated.SELECTED DRAWING: Figure 8

Description

本明細書の開示は、画像処理装置、画像処理方法およびプログラムに関する。   The present disclosure relates to an image processing apparatus, an image processing method, and a program.

OCT(Optical Coherence Tomography)撮像装置においては、測定光の光路長と参照光の光路長とが一致する位置(以下、コヒーレンスゲート位置という)に近い部位ほど、高感度に描写できる。しかし、眼底は湾曲した形状をしているため、眼底をOCT装置で撮影した場合、撮影部位の一部がコヒーレンスゲート位置を跨ぐ場合がある。コヒーレンスゲート位置を跨いだ網膜の部位は、取得した断層画像において、コヒーレンスゲート位置に対して折返した状態で描出されることが知られている(特許文献1)。コヒーレンスゲート位置に対して折返した状態で描出された画像を折り返し画像という。   In an OCT (Optical Coherence Tomography) imaging apparatus, a portion closer to a position where the optical path length of the measurement light and the optical path length of the reference light coincide (hereinafter referred to as a coherence gate position) can be described with higher sensitivity. However, since the fundus has a curved shape, when the fundus is imaged by the OCT apparatus, a part of the imaging region may straddle the coherence gate position. It is known that a portion of the retina straddling the coherence gate position is depicted in a state of being folded with respect to the coherence gate position in the acquired tomographic image (Patent Document 1). An image drawn in a folded state with respect to the coherence gate position is called a folded image.

特開2014―176566号公報JP 2014-176666 A

折返し画像が含まれる断層画像では正常に描出された網膜と反転して描出された網膜とが混在することとなるため、適切な層境界を断層画像から抽出できない虞がある。   In a tomographic image including a folded image, a retina that is normally drawn and a retina that is drawn in an inverted manner are mixed, so that an appropriate layer boundary may not be extracted from the tomographic image.

本明細書の開示は、適切な層境界を得ることを目的の一つとする。なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本開示の他の目的の1つとして位置付けることができる。   The disclosure of this specification is aimed at obtaining an appropriate layer boundary. In addition, the present invention is not limited to the above-described object, and other effects of the present disclosure can also be achieved by the functions and effects derived from each configuration shown in the embodiments for carrying out the invention described below, which cannot be obtained by conventional techniques. It can be positioned as one of

開示の画像処理装置は、眼底の断層画像から層境界を検出する検出手段と、前記断層画像に折返しが発生しているか否かを判定する判定手段と、前記判定手段により前記折り返しが発生していると判定された場合、前記折り返しが発生している部分の前記検出手段により検出された層境界を補正する補正手段と、を備える。   The disclosed image processing apparatus includes: a detecting unit that detects a layer boundary from a tomographic image of the fundus; a determining unit that determines whether or not the tomographic image is folded; and the determining unit that generates the folding. And a correcting unit that corrects a layer boundary detected by the detecting unit in a portion where the folding is generated.

本明細書の開示によれば、適切な層境界を取得することが可能となる。   According to the disclosure of the present specification, it is possible to obtain an appropriate layer boundary.

実施例1に係る画像処理システムの構成の一例を示した図である。1 is a diagram illustrating an example of a configuration of an image processing system according to Embodiment 1. FIG. 実施例1に係る画像処理装置の表示画面の一例を示した図である。FIG. 3 is a diagram illustrating an example of a display screen of the image processing apparatus according to the first embodiment. 実施例1に係るEn−Face画像の生成方法の一例を示した図である。6 is a diagram illustrating an example of an En-Face image generation method according to Embodiment 1. FIG. 実施例1に係る画像処理装置の構成の一例を示した図である。1 is a diagram illustrating an example of a configuration of an image processing apparatus according to a first embodiment. 実施例1に係る画像処理装置の動作の一例を示したフローチャートである。3 is a flowchart illustrating an example of the operation of the image processing apparatus according to the first embodiment. 実施例1に係る画像処理装置の折返し判定部の動作の一例を示したフローチャートである。6 is a flowchart illustrating an example of an operation of a turn-back determination unit of the image processing apparatus according to the first embodiment. 実施例1に係る画像処理装置の折返し領域判定方法の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a folded region determination method of the image processing apparatus according to the first embodiment. 実施例1に係る画像処理装置により層境界が補正した一例を示した図である。FIG. 3 is a diagram illustrating an example in which a layer boundary is corrected by the image processing apparatus according to the first embodiment. 実施例2に係る画像処理装置の折返し判定部の動作の一例を示したフローチャートである。10 is a flowchart illustrating an example of an operation of a turn-back determination unit of the image processing apparatus according to the second embodiment. 実施例2に係る画像処理装置の折返し判定の一例を示した図である。FIG. 10 is a diagram illustrating an example of folding determination of the image processing apparatus according to the second embodiment. 実施例3に係る画像処理装置の構成の一例を示した図である。FIG. 10 is a diagram illustrating an example of a configuration of an image processing apparatus according to a third embodiment. 実施例4に係る画像処理装置の表示画面の一例を示した図である。FIG. 10 is a diagram illustrating an example of a display screen of an image processing apparatus according to a fourth embodiment. 実施例4に係る画像処理装置の層境界補正の一例を示した図である。FIG. 10 is a diagram illustrating an example of layer boundary correction of the image processing apparatus according to the fourth embodiment.

以下、図面を参照して実施例を説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない構成要素、部材、処理の一部は省略して表示する場合がある。   Embodiments will be described below with reference to the drawings. The same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate. In addition, in the drawings, some components, members, and processes that are not important for explanation may be omitted and displayed.

<実施例1>
図1は、実施例1に係る画像処理システムの構成の一例を示す図である。実施例1に係る画像処理システムはOCT撮影装置201と画像処理装置209とを含む。
<Example 1>
FIG. 1 is a diagram illustrating an example of the configuration of the image processing system according to the first embodiment. The image processing system according to the first embodiment includes an OCT imaging apparatus 201 and an image processing apparatus 209.

OCT撮影装置201は、被検眼のたとえば眼底表面に対して指定された二次元の計測範囲および計測深度情報をもとに、被検眼の断層画像を示す信号を取得する。OCT撮影装置201は、例えばSpectral−Domain OCT(SD−OCT)である。図1に示すように、OCT撮影装置201は、光源202、ハーフミラー203、ガルバノミラー204、対物レンズ205、参照ミラー206、回折格子207およびラインセンサ208を備える。   The OCT imaging apparatus 201 acquires a signal indicating a tomographic image of the eye to be inspected based on the two-dimensional measurement range and measurement depth information designated for the fundus surface of the eye to be inspected. The OCT imaging apparatus 201 is, for example, Spectral-Domain OCT (SD-OCT). As shown in FIG. 1, the OCT imaging apparatus 201 includes a light source 202, a half mirror 203, a galvanometer mirror 204, an objective lens 205, a reference mirror 206, a diffraction grating 207, and a line sensor 208.

光源202から出射した低コヒーレンス光は、ハーフミラー203で信号光と参照光に分割される。測定光は、ガルバノミラー204および対物レンズ205を介して被検眼Eへ入射する。なお、被検眼の走査位置の変更は、ガルバノミラー204を動かすことで実現可能である。被検眼へ入射した信号光は、被検眼で反射、散乱されたのち、逆の光路をたどってハーフミラー203へ戻る。参照光は、参照ミラー206で反射、散乱されたのち、逆の光路をたどってハーフミラー203へ戻る。ハーフミラー203は、信号光および参照光の戻り光を重畳して干渉光を生成する。回折格子207は、干渉光を波長λ1〜λnの波長成分に分光する。ラインセンサ208は、分光された干渉光を波長成分ごとに検出する。ラインセンサ208は検出結果に応じた信号を出力する。   The low coherence light emitted from the light source 202 is divided into signal light and reference light by the half mirror 203. The measurement light enters the eye E through the galvanometer mirror 204 and the objective lens 205. Note that the scan position of the eye to be examined can be changed by moving the galvanometer mirror 204. The signal light incident on the eye to be examined is reflected and scattered by the eye to be examined, and then returns to the half mirror 203 along the reverse optical path. The reference light is reflected and scattered by the reference mirror 206, and then returns to the half mirror 203 along the reverse optical path. The half mirror 203 generates interference light by superimposing the return light of the signal light and the reference light. The diffraction grating 207 splits the interference light into wavelength components having wavelengths λ1 to λn. The line sensor 208 detects the separated interference light for each wavelength component. The line sensor 208 outputs a signal corresponding to the detection result.

画像処理装置209は、例えばコンピュータである。画像処理装置209は、ラインセンサ208からの出力信号をもとにフーリエ変換を利用して例えば被検眼の眼底の断層画像を生成する。なお、断層画像の生成方法は公知の手法により実現可能であるため詳細な説明は省略する。   The image processing apparatus 209 is, for example, a computer. The image processing apparatus 209 generates, for example, a tomographic image of the fundus of the eye to be examined based on an output signal from the line sensor 208 using Fourier transform. Note that since the tomographic image generation method can be realized by a known method, a detailed description thereof will be omitted.

なお、被検眼の任意の点について測定光を照射することを、本明細書ではAスキャンと呼び、Aスキャンで生成した断層画像をAスキャン画像と呼ぶ。さらに、任意の線に沿って信号光を被検眼へ断続的に照射することをBスキャンと呼び、Bスキャンで取得した断層画像をBスキャン画像と呼ぶ。   Note that irradiating measurement light to an arbitrary point of the eye to be examined is referred to as an A scan in this specification, and a tomographic image generated by the A scan is referred to as an A scan image. Furthermore, intermittently irradiating the eye to be examined with signal light along an arbitrary line is called a B scan, and a tomographic image acquired by the B scan is called a B scan image.

画像処理装置209は、被検眼の複数部位のBスキャン画像を取得することで、被検眼の三次元画像を構築することができる。Bスキャンの方向は、特定部位に対して放射状にスキャンするラジアルスキャンでも、一定方向にスキャンする水平スキャンや垂直スキャンでもよい。   The image processing apparatus 209 can construct a three-dimensional image of the eye to be examined by acquiring B scan images of a plurality of parts of the eye to be examined. The direction of the B scan may be a radial scan that scans a specific portion in a radial manner, or a horizontal scan or a vertical scan that scans in a certain direction.

画像処理装置209は、三次元画像から、例えば深さ方向(Z方向)の二つの任意の基準面に基づいて平面に投影した二次元画像であるEn−Face画像を生成する場合がある。図2は画像処理装置209により生成されたBスキャン画像とEn−Face画像との一例である。En−Face画像は基準面120aと基準面120bとに挟まれる範囲をZ方向に投影した画像である。   The image processing apparatus 209 may generate an En-Face image that is a two-dimensional image projected on a plane based on two arbitrary reference planes in the depth direction (Z direction), for example, from the three-dimensional image. FIG. 2 is an example of a B-scan image and an En-Face image generated by the image processing apparatus 209. The En-Face image is an image obtained by projecting a range between the reference plane 120a and the reference plane 120b in the Z direction.

画像処理装置209は、具体的には、図3に示すように、取得した複数のBスキャン画像30−1〜30−nから構築した不図示の三次元画像の特定の深さ範囲のみの情報を抽出し、XY平面に投影することでEn−Face画像310を生成する。なお、En−Face画像は公知の種々の方法を用いて生成可能であるため詳細な説明は省略する。   Specifically, as shown in FIG. 3, the image processing apparatus 209 has information on only a specific depth range of a three-dimensional image (not shown) constructed from a plurality of acquired B-scan images 30-1 to 30-n. And the En-Face image 310 is generated by projecting onto the XY plane. Since the En-Face image can be generated using various known methods, detailed description is omitted.

次に図4に基づいて、本実施例の画像処理装置209の構成の一例を説明する。画像処理装置209は、断層画像取得部401、折り返し判定部402、層境界検出部403、層境界補正部404、En−Face、画像生成部405および表示制御部410を備える。   Next, an example of the configuration of the image processing apparatus 209 according to the present exemplary embodiment will be described with reference to FIG. The image processing apparatus 209 includes a tomographic image acquisition unit 401, a folding determination unit 402, a layer boundary detection unit 403, a layer boundary correction unit 404, an En-Face, an image generation unit 405, and a display control unit 410.

なお、画像処理装置209は不図示のCPUおよびROMを含んでいる。このCPUがROMに記憶されたプログラムを実行することで上記の各部として機能する。   Note that the image processing apparatus 209 includes a CPU and a ROM (not shown). This CPU functions as each of the above units by executing a program stored in the ROM.

なお、画像処理装置209が備えるCPUおよびROMは1つであってもよいし複数であってもよい。すなわち、少なくとも1以上のプロセッサと少なくとも1つのメモリとが接続されており、少なくとも1以上のプロセッサが少なくとも1以上のメモリに記憶されたプログラムを実行した場合に画像処理装置209はで上記の各部として機能する。なお、処理装置はCPUに限定されるものではなく、GPU等であってもよい。   Note that the image processing apparatus 209 may include one or more CPUs and ROMs. That is, when at least one or more processors and at least one memory are connected, and at least one or more processors execute a program stored in at least one or more memories, the image processing apparatus 209 has the above-described units. Function. The processing device is not limited to the CPU, and may be a GPU or the like.

断層画像取得部401は、OCT撮影装置201で撮影した複数部位の断層画像を取得する。なお、断層画像取得部401は、ラインセンサ208の出力に基づいて断層画像を生成することで断層画像を取得してもよいし、既に生成された断層画像を不図示のデータベースから取得してもよい。   A tomographic image acquisition unit 401 acquires tomographic images of a plurality of parts imaged by the OCT imaging apparatus 201. The tomographic image acquisition unit 401 may acquire a tomographic image by generating a tomographic image based on the output of the line sensor 208, or may acquire an already generated tomographic image from a database (not shown). Good.

折返し判定部402は、断層画像において折り返しが起きているか否かを判定する。また、折返し判定部402は断層画像において折り返しが発生している領域を判定する。これらの判定を総称して折返しの判定という場合がある。折返し判定部402による処理の詳細は後述する。折返し判定部402は断層画像に折返しが発生しているか否かを判定する判定手段の一例に相当する。   The folding determination unit 402 determines whether folding has occurred in the tomographic image. Further, the folding determination unit 402 determines a region where folding has occurred in the tomographic image. These determinations may be collectively referred to as turn-back determinations. Details of the processing by the return determination unit 402 will be described later. The folding determination unit 402 corresponds to an example of a determination unit that determines whether folding has occurred in a tomographic image.

層境界検出部403は、取得した断層画像における層境界を検出する。なお、層境界の検出方法は断層画像の深さ方向に画素を探索した場合に輝度の変化が所定閾値よりも大きい部分を層境界とする等、周知の種々の手法で実現可能である。層境界検出部403は、眼底の断層画像から層境界を検出する検出手段の一例に相当する。   The layer boundary detection unit 403 detects a layer boundary in the acquired tomographic image. It should be noted that the layer boundary detection method can be realized by various known methods, for example, when a pixel is searched for in the depth direction of the tomographic image, a portion where the change in luminance is larger than a predetermined threshold is used as the layer boundary. The layer boundary detection unit 403 corresponds to an example of a detection unit that detects a layer boundary from a tomographic image of the fundus.

層境界補正部404は、折返し判定部402の判定結果に基づいて、層境界検出部0403の検出結果を補正する。具体的には、層境界補正部404は、折返し判定部402により断層画像に折返しが発生していると判定した場合、折返しが発生している部分における層境界の検出結果を補正する。層境界補正部404による補正方法の詳細については後述する。層境界補正部404は、判定手段により折り返しが発生していると判定された場合、折り返しが発生している部分の検出手段により検出された層境界を補正する補正手段の一例に相当する。   The layer boundary correction unit 404 corrects the detection result of the layer boundary detection unit 0403 based on the determination result of the folding determination unit 402. Specifically, the layer boundary correction unit 404 corrects the detection result of the layer boundary in the portion where the folding is generated when the folding determination unit 402 determines that the folding is generated in the tomographic image. Details of the correction method by the layer boundary correction unit 404 will be described later. The layer boundary correction unit 404 corresponds to an example of a correction unit that corrects the layer boundary detected by the detection unit of the portion where the return occurs when the determination unit determines that the return has occurred.

En−Face画像生成部405は、En−Face画像生成時の基準面となる任意の二つの面を三次元画像に設定し、設定した二つの基準面に囲まれた領域をもとにEn−Face画像を生成する。なお、基準面は層境界に沿った面でもよいし、平面であってもよい。例えば、En−Face画像生成部405は、二つの基準面に囲まれた領域の各位置において深さ方向における画素値の代表値を決定し、その代表値に基づいてEn−Face画像を生成する。ここで、代表値は、二つの基準面に囲まれた領域の深さ方向における画素の平均値、中央値または最大値などの値を含む。   The En-Face image generation unit 405 sets any two planes that serve as reference planes at the time of En-Face image generation as a three-dimensional image, and the En- A face image is generated. The reference plane may be a plane along the layer boundary or a plane. For example, the En-Face image generation unit 405 determines the representative value of the pixel value in the depth direction at each position in the region surrounded by the two reference planes, and generates an En-Face image based on the representative value. . Here, the representative value includes a value such as an average value, a median value, or a maximum value of pixels in a depth direction of a region surrounded by two reference planes.

表示制御部410は、画像処理装置209が取得した断層画像と、生成したEn−Face画像とを表示装置101に表示させる。   The display control unit 410 causes the display device 101 to display the tomographic image acquired by the image processing device 209 and the generated En-Face image.

表示装置101は、LCDディスプレイ等であり、各種の情報を表示する。例えば、表示装置101はBスキャン画像を表示領域110に、En−Face画像を表示領域111に表示する。基準面120aおよび基準面120bはBスキャン画像に設定されたEn−Face画像の生成範囲を示している。   The display device 101 is an LCD display or the like, and displays various types of information. For example, the display device 101 displays a B-scan image in the display area 110 and an En-Face image in the display area 111. The reference surface 120a and the reference surface 120b indicate the generation range of the En-Face image set for the B-scan image.

次に図5に基づいて、画像処理装置209の動作の一例を説明する。   Next, an example of the operation of the image processing apparatus 209 will be described with reference to FIG.

ステップS500で、断層画像取得部401は、断層画像として例えばBスキャン画像を取得する。本実施例では、例えばXZ方向のBスキャン画像を取得する。なお、断層画像取得部401は、ステップS500でYZ方向のBスキャンを取得することとしてもよいし、三次元画像を構成する複数のBスキャン画像を取得することとしてもよい。   In step S500, the tomographic image acquisition unit 401 acquires, for example, a B scan image as a tomographic image. In this embodiment, for example, a B-scan image in the XZ direction is acquired. Note that the tomographic image acquisition unit 401 may acquire a B-scan in the YZ direction in step S500, or may acquire a plurality of B-scan images constituting a three-dimensional image.

ステップS510で、折返し判定部402は、取得したBスキャン画像において、折返しの判定を行う。本ステップの動作の一例を図6に示すフローチャートに基づいて説明する。   In step S510, the return determination unit 402 determines the return in the acquired B-scan image. An example of the operation of this step will be described based on the flowchart shown in FIG.

ステップS5101とステップS5111とで、折返し判定部402は、断層画像取得部401で取得した断層画像から異なる二種類の勾配画像を生成する。本実施例では、折返し判定部402は、例えば数式1および数式2に示すPrewittフィルタを、取得した断層画像に個別に適用することで、異なる二種類の勾配画像を生成する。数式1に示すPrewittフィルタは、深さ方向の浅い位置から深い位置へ画素値を探索した場合に画素値が増加する部分(エッジ)を強調するフィルタである。また、数式2に示すPrewittフィルタは、深さ方向の深い位置から浅い位置へ画素値を探索した場合に画素値が増加する部分(エッジ)を強調するフィルタである。ここで、深さ方向の浅い位置から深い位置へ向かう方向は第1深度方向(または第2深度方向)の一例であり、深さ方向の深い位置から浅い位置へ向かう方向は第2深度方向(または第1深度方向)の一例である。数式1(または数式2)に示すPrewittフィルタは、第1深度方向における画素値の変化を強調する第1フィルタの一例であり、数式2(または数式1)に示すPrewittフィルタは、第2深度方向における画素値の変化を強調する第2フィルタの一例である。   In step S5101 and step S5111, the aliasing determination unit 402 generates two different types of gradient images from the tomographic image acquired by the tomographic image acquisition unit 401. In the present embodiment, the aliasing determination unit 402 generates two different types of gradient images by individually applying the Prewitt filter shown in, for example, Equation 1 and Equation 2 to the acquired tomographic image. The Prewitt filter shown in Formula 1 is a filter that emphasizes a portion (edge) where the pixel value increases when a pixel value is searched from a shallow position in the depth direction to a deep position. The Prewitt filter shown in Formula 2 is a filter that emphasizes a portion (edge) where the pixel value increases when the pixel value is searched from a deep position in the depth direction to a shallow position. Here, the direction from the shallow position in the depth direction to the deep position is an example of the first depth direction (or the second depth direction), and the direction from the deep position in the depth direction to the shallow position is the second depth direction ( Or it is an example of a 1st depth direction). The Prewitt filter shown in Equation 1 (or Equation 2) is an example of a first filter that emphasizes changes in pixel values in the first depth direction, and the Prewitt filter shown in Equation 2 (or Equation 1) is in the second depth direction. It is an example of the 2nd filter which emphasizes the change of the pixel value in.

Figure 2018089304
Figure 2018089304

Figure 2018089304
Figure 2018089304

なお、本実施例では、5×5のフィルタを使用したが、これに限定するものではない。折返し判定部402は、3×3のフィルタを使用してもよいし、取得した断層画像のサイズに応じて可変となるようにしてもよい。また、行列の各要素の値は上記の値に限定されるものではなく、境界を強調できるものであればよい。さらに、折返し判定部402は、本フィルタの適用前に、ノイズ低減を目的として、メディアンフィルタなどの既知のフィルタを断層画像に適用してもよい。さらに、折返し判定部402は、取得した断層画像を、あらかじめ深度方向のみリサイズしてもよい。例えば、折返し判定部402は、断層画像を深度方向に縮小する。例えば、折返し判定部402は、断層画像の深度方向のサイズを1/4にする。なお、サイズの変更量は上記の値に限定されるものではなく他の値にしてもよい。これにより、X方向の輪郭位置が検出しやすくなる。   In this embodiment, a 5 × 5 filter is used, but the present invention is not limited to this. The folding determination unit 402 may use a 3 × 3 filter, or may be variable according to the size of the acquired tomographic image. Further, the value of each element of the matrix is not limited to the above value, but may be anything that can emphasize the boundary. Furthermore, the aliasing determination unit 402 may apply a known filter such as a median filter to the tomographic image for the purpose of noise reduction before applying this filter. Further, the folding determination unit 402 may resize the acquired tomographic image only in the depth direction in advance. For example, the folding determination unit 402 reduces the tomographic image in the depth direction. For example, the folding determination unit 402 reduces the size of the tomographic image in the depth direction to ¼. Note that the amount of size change is not limited to the above value, but may be another value. This makes it easier to detect the contour position in the X direction.

ステップS5102とステップS5112とで、折返し判定部402は、ステップS5101とステップS5111とで生成した二つの勾配画像のそれぞれについて、深度方向の画素値の総和を算出する。これにより、X方向に一次元のデータのプロファイルを得る。図7に示す符号703、704は数式1、2を用いて得られたプロファイルの一例である。すなわち、折返し判定部402は、断層画像に対して第1フィルタ(または第2フィルタ)を適用した結果に基づいて前記第1プロファイル(または第2プロファイル)を取得する。   In steps S5102 and S5112, the aliasing determination unit 402 calculates the sum of the pixel values in the depth direction for each of the two gradient images generated in steps S5101 and S5111. Thus, a one-dimensional data profile is obtained in the X direction. Reference numerals 703 and 704 shown in FIG. 7 are examples of profiles obtained using Equations 1 and 2. In other words, the aliasing determination unit 402 acquires the first profile (or second profile) based on the result of applying the first filter (or second filter) to the tomographic image.

なお、図7に示すプロファイルは本実施形態の説明を容易にするために簡略化されている。プロファイル703およびプロファイル704は、断層画像から断層画像の第1深度方向における画素値の変化を示す第1プロファイルおよび断層画像の第1深度方向と対向する方向である第2深度方向における画素値の変化を示す第2プロファイルの一例に相当する。折返し判定部402は、この第1プロファイルおよび第2プロファイルを取得し、第1プロファイルと第2プロファイルとを比較することで折返しが発生しているか否かを判定する。図7におけるプロファイル703およびプロファイル704は横軸をX位置(各Aスキャン画像の位置)縦軸を画素値の総和としている。すなわち、第1プロファイルの一例であるプロファイル703(または704)は、Bスキャン画像を構成する複数のAスキャン画像それぞれにおける第1の深度方向における画素値の変化を示すプロファイルである。また、第2プロファイルの一例であるプロファイル704(または703)は、Bスキャン画像を構成する複数のAスキャン画像それぞれにおける第2の深度方向における画素値の変化を示すプロファイルである。より具体的には、本実施例では、折返し判定部402は、第1フィルタが適用された後のBスキャン画像を構成する複数のAスキャン画像それぞれにおける画素値の総和を第1プロファイルとして取得し、第2フィルタが適用された後のBスキャン画像を構成する複数のAスキャン画像それぞれにおける画素値の総和を前記第2プロファイルとして取得する。   Note that the profile shown in FIG. 7 is simplified for easy explanation of the present embodiment. A profile 703 and a profile 704 are a first profile indicating a change in pixel value in the first depth direction of the tomographic image from the tomographic image, and a change in pixel value in the second depth direction which is a direction opposite to the first depth direction of the tomographic image. This corresponds to an example of the second profile indicating. The return determination unit 402 acquires the first profile and the second profile, and determines whether or not a return has occurred by comparing the first profile and the second profile. In the profiles 703 and 704 in FIG. 7, the horizontal axis represents the X position (the position of each A-scan image), and the vertical axis represents the sum of pixel values. That is, the profile 703 (or 704), which is an example of the first profile, is a profile that indicates a change in pixel value in the first depth direction in each of a plurality of A scan images that constitute the B scan image. A profile 704 (or 703), which is an example of a second profile, is a profile that indicates changes in pixel values in the second depth direction in each of a plurality of A-scan images constituting the B-scan image. More specifically, in the present embodiment, the aliasing determination unit 402 acquires, as a first profile, the sum of pixel values in each of a plurality of A scan images that constitute the B scan image after the first filter is applied. The sum of the pixel values in each of the plurality of A-scan images constituting the B-scan image after the second filter is applied is acquired as the second profile.

なお、本実施例では、勾配画像の深度方向の画素値の総和を算出したが、これに限定するものではない。たとえば、勾配画像において、折返し判定部402は、画素値が閾値以上となる画素の数を各X位置(各Aスキャン画像の位置)で算出する構成にしてもよい。すなわち、折返し判定部402は、第1フィルタが適用された後のBスキャン画像を構成する複数のAスキャン画像それぞれにおける画素値のうち閾値を超える画素の数を第1プロファイルとして取得し、第2フィルタが適用された後のBスキャン画像を構成する複数のAスキャン画像それぞれにおける画素値のうち閾値を超える画素の数を第2プロファイルとして取得する。   In the present embodiment, the sum of the pixel values in the depth direction of the gradient image is calculated, but the present invention is not limited to this. For example, in the gradient image, the folding determination unit 402 may be configured to calculate the number of pixels whose pixel values are equal to or greater than a threshold value at each X position (the position of each A scan image). That is, the aliasing determination unit 402 acquires, as the first profile, the number of pixels that exceed the threshold value among the pixel values in each of the plurality of A scan images constituting the B scan image after the first filter is applied, and the second profile The number of pixels exceeding the threshold value among the pixel values in each of the plurality of A scan images constituting the B scan image after the filter is applied is acquired as the second profile.

閾値としては、たとえば、固定値または勾配画像内の最大画素値から算出する値を使用することができる。例えば、折返し判定部402は、生成された二つの勾配画像それぞれにおける最大画素値(maxA,maxB)を取得する。そして、折返し判定部402は、例えば、閾値T=min[20,max[maxA,maxB]/5]という数式に基づいて閾値は算出する。なお、数値は一例であり他の数値としてもよい。閾値を用いることにより、勾配が小さな領域においても折返しを精度よく判定することが可能となる。   As the threshold value, for example, a fixed value or a value calculated from the maximum pixel value in the gradient image can be used. For example, the folding determination unit 402 acquires the maximum pixel value (maxA, maxB) in each of the two generated gradient images. Then, the folding determination unit 402 calculates the threshold value based on, for example, a mathematical formula of threshold value T = min [20, max [maxA, maxB] / 5]. In addition, a numerical value is an example and it is good also as another numerical value. By using the threshold value, it is possible to accurately determine folding even in a region having a small gradient.

ステップS5121で、折返し判定部402は、図7に示す二つのプロファイル703,704を比較する。折返し判定部402は、比較した結果、二つのプロファイルに交差部がある場合は、その周辺で折返しが発生していると判定し、交差部がない場合は、折返しが発生していないと判定する。次に、折返し判定部402は、画像端から交差部までの距離701、702を算出し比較する。そして、折返し判定部402は、距離が短い方を折返し領域と判定する。図7に示す例では、距離702が含まれる断層画像の領域が折返しが発生している領域であると判定される。図7に示す二つのプロファイル703,704は数式1、2にそれぞれ対応している。そのため、折返しにより網膜が反転した領域(網膜の重なりのない領域)のプロファイル703(またはプロファイル704)は網膜が反転していない領域のプロファイル704(またはプロファイル703)と略同様の値となる。これは、プロファイル703,704はそれぞれ探索方向が真逆のPrewittフィルタを用いているためである。すなわち、プロファイル703とプロファイル704とは折返しが発生し折返した網膜と通常の網膜とが重なる領域を境に入れ替わることになる。従って、プロファイル703とプロファイル704とは折返しが発生した領域において交点を持つ。本実施例ではこの現象を利用して折返し領域を検出することとしている。すなわち、折返し判定部402は、第1プロファイルと第2プロファイルとの交点に基づいて折返しが発生しているか否かを判定する。   In step S5121, the return determination unit 402 compares the two profiles 703 and 704 shown in FIG. As a result of the comparison, if there is an intersection between the two profiles, the folding determination unit 402 determines that folding has occurred around the two profiles, and determines that no folding has occurred when there is no intersection. . Next, the folding determination unit 402 calculates and compares the distances 701 and 702 from the image end to the intersection. Then, the return determination unit 402 determines that the shorter distance is the return region. In the example illustrated in FIG. 7, it is determined that the area of the tomographic image including the distance 702 is an area where aliasing has occurred. Two profiles 703 and 704 shown in FIG. 7 correspond to Equations 1 and 2, respectively. For this reason, the profile 703 (or profile 704) of the region where the retina is inverted by folding (the region where the retinas do not overlap) has substantially the same value as the profile 704 (or profile 703) of the region where the retina is not inverted. This is because each of the profiles 703 and 704 uses a Prewitt filter whose search direction is the reverse. That is, the profile 703 and the profile 704 are turned over, and the region where the turned-up retina and the normal retina overlap is replaced by a boundary. Therefore, the profile 703 and the profile 704 have an intersection in the area where the aliasing occurs. In the present embodiment, this phenomenon is used to detect the folded area. That is, the folding determination unit 402 determines whether folding has occurred based on the intersection between the first profile and the second profile.

以上の処理により、取得した断層画像から折返しを判定することが可能となる。   By the above processing, it is possible to determine the return from the acquired tomographic image.

また、画素値が閾値以上となる画素数をプロファイルとした場合、X方向の関数であるfA(x),fB(x)を二つの勾配画像から得られたプロファイルとして、折返し判定部402は、例えば、fA(x)>max[10,fB(x)]の場合折返しが発生していると判定し、他の場合には折返しが発生していないと判定することとしてもよい。すなわち、画素値が閾値以上となる画素数をプロファイルとした場合においても、折返し判定部402は二つのプロファイルを比較することで、折返しを判定する。ステップS520で、層境界補正部404は、折返し判定の結果に基づいて、層境界検出部403が検出した層境界を補正する。折返しを考慮せずに層境界を検出した場合、図8(a)に示すように、検出した層境界が実際の層境界と異なる場合がある。図8(a)は、層境界検出部403による層境界の検出結果の一例を示している。例えば、深度方向の浅い位置から深い方向に画素を探索した場合に最初に画素値の変化が閾値以上ある位置を層境界として検出すると、図8(a)に示す層境界がILMの層境界として検出される。   Further, when the number of pixels whose pixel value is equal to or greater than the threshold is used as a profile, the aliasing determination unit 402 uses the functions in the X direction, fA (x) and fB (x), as profiles obtained from two gradient images. For example, when fA (x)> max [10, fB (x)], it may be determined that folding has occurred, and in other cases, it may be determined that folding has not occurred. That is, even when the number of pixels whose pixel value is equal to or greater than the threshold value is used as a profile, the folding determination unit 402 determines folding by comparing two profiles. In step S520, the layer boundary correction unit 404 corrects the layer boundary detected by the layer boundary detection unit 403 based on the result of the folding determination. When a layer boundary is detected without considering folding, the detected layer boundary may be different from the actual layer boundary as shown in FIG. FIG. 8A shows an example of a layer boundary detection result by the layer boundary detection unit 403. For example, when a pixel is searched in a deep direction from a shallow position in the depth direction, when a position where the change in the pixel value is equal to or greater than the threshold is first detected as a layer boundary, the layer boundary illustrated in FIG. Detected.

たとえば、図8(a)に示す層境界を基準面としてEn−Face画像生成部405がEn−Face画像を生成した場合、折返し領域はEn−Face画像においてたとえば帯状のアーティファクトとして観察される。例えば、ILMを基準に深度方向に所定距離オフセットした位置とILMとで挟まれた領域のEn−Face画像を生成する場合には、折返し領域には網膜が含まれないためEn−Face画像においてはアーティファクトとなってしまう。   For example, when the En-Face image generation unit 405 generates an En-Face image using the layer boundary shown in FIG. 8A as a reference plane, the folded region is observed as, for example, a band-shaped artifact in the En-Face image. For example, in the case of generating an En-Face image of an area sandwiched between a position offset by a predetermined distance in the depth direction with respect to the ILM and the ILM, the folded area does not include the retina. It becomes an artifact.

そこで、本実施例では、図8(b)に示すように、層境界補正部404は、ステップS510で折返しが発生していると判定した領域の層境界を、コヒーレンスゲート位置に層境界が存在するように補正する。但し、折返しが発生していると判定した領域の層境界をコヒーレンスゲート位置に完全に一致するように補正する必要はなく、補正前後において層境界がコヒーレンスゲート位置に近づくように補正されていればよい。なお、折返しが発生していない領域における層境界は層境界補正部404によっては補正されない。これにより、En−Face画像におけるアーティファクトとして観察される領域を低減することが可能となる。なお、層境界の検出には、既知の方法を使用することができる。たとえば、取得した断層画像の、各X位置の深度方向の輝度プロファイルに基づいて層境界を検出することができる。   Therefore, in this embodiment, as shown in FIG. 8B, the layer boundary correction unit 404 has a layer boundary at the coherence gate position in the region where it is determined that the aliasing has occurred in step S510. Correct as follows. However, it is not necessary to correct the layer boundary of the region where it is determined that folding has occurred so that the layer boundary completely coincides with the coherence gate position, and if the layer boundary is corrected so that it approaches the coherence gate position before and after the correction. Good. It should be noted that the layer boundary in the region where no aliasing occurs is not corrected by the layer boundary correction unit 404. Thereby, it is possible to reduce the area observed as an artifact in the En-Face image. A known method can be used for detecting the layer boundary. For example, the layer boundary can be detected based on the brightness profile in the depth direction of each X position of the acquired tomographic image.

ステップS530で、En−Face画像生成部405は、取得した断層画像、層境界検出部403により検出された層境界および補正された層境界に基づいてEn−Face画像を生成する。より具体的には、折返しが発生していない領域においては層境界検出部403により検出された層境界に基づいてEn−Face画像が生成され、折返しが発生している領域においては層境界補正部404により補正された層境界に基づいてEn−Face画像が生成される。   In step S530, the En-Face image generation unit 405 generates an En-Face image based on the acquired tomographic image, the layer boundary detected by the layer boundary detection unit 403, and the corrected layer boundary. More specifically, an En-Face image is generated based on the layer boundary detected by the layer boundary detection unit 403 in a region where no aliasing occurs, and a layer boundary correction unit in an area where aliasing occurs. An En-Face image is generated based on the layer boundary corrected by 404.

表示制御部410は、表示装置101に生成されたEn−Face画像を表示する。表示制御部410は、断層画像とEn−Face画像とを並べて表示装置101に表示させることとしてもよい。   The display control unit 410 displays the En-Face image generated on the display device 101. The display control unit 410 may display the tomographic image and the En-Face image side by side on the display device 101.

上述した本実施例によれば、断層画像において折返しが発生している領域の層境界を補正することができるため、適切な層境界を得ることが可能となる。また、層境界が補正されるため、アーティファクトが低減されたEn−Face画像を得ることが可能となる。すなわち、折返し領域における層境界検出の不正確さに起因するEn−Face画像におけるアーティファクトの発生という課題を解決することができる。さらに、強度近視眼においては、眼底の湾曲が正視眼に比べて大きいため上述の実施例が有効に機能する。   According to the above-described embodiment, it is possible to correct the layer boundary of the area where the aliasing occurs in the tomographic image, and thus it is possible to obtain an appropriate layer boundary. In addition, since the layer boundary is corrected, an En-Face image with reduced artifacts can be obtained. That is, it is possible to solve the problem of occurrence of artifacts in the En-Face image due to inaccuracy of layer boundary detection in the folded region. Further, in the high myopia eye, the above-described embodiment functions effectively because the fundus curvature is larger than that of the normal eye.

上記方法により、取得した被検眼の断層画像から折返しを判定し、検出した層境界を補正することができ、非常に好ましかった。   According to the above method, it was possible to determine folding from the acquired tomographic image of the eye to be examined and to correct the detected layer boundary, which was very preferable.

<実施例2>
本実施例では、折返し判定部402が、ステップS510で、複数の折返しの仮判定を行い、複数の仮の判定結果に基づいて折返しの判定を行う例について説明する。なお、画像処理装置209等の構成は実施例1と同様であるため、説明を省略する。図9は、実施例2における折返しの判定保手順の一例を示すフローチャートである。
<Example 2>
In the present embodiment, an example will be described in which the return determination unit 402 performs a plurality of provisional determinations in step S510 and performs a determination of returns based on a plurality of provisional determination results. Note that the configuration of the image processing apparatus 209 and the like is the same as that of the first embodiment, and thus the description thereof is omitted. FIG. 9 is a flowchart illustrating an example of the determination and maintenance procedure for folding in the second embodiment.

ステップS5131で、折返し判定部402は、取得した断層画像における折返しの仮判定を行う。具体的には、折返し判定部402は、取得した断層画像のコヒーレンスゲート位置近傍(例えば、コヒーレンスゲート位置から深度方向に所定距離内となる領域)における輝度プロファイル(画素値のプロファイル)を算出し、閾値以上となる領域を折返しと仮判定する。これは、輝度(画素値)が高い網膜などのサンプルの位置がコヒーレンスゲート近傍にある場合、折返しが発生している可能性があるためである。すなわち、折返し判定部402は本ステップにおいて、断層画像におけるコヒーレンスゲート位置から深度方向に所定範囲内の画素値のプロファイルに基づいて折返しが発生しているか否かを判定する。   In step S5131, the return determination unit 402 performs provisional determination of return in the acquired tomographic image. Specifically, the aliasing determination unit 402 calculates a luminance profile (pixel value profile) in the vicinity of the coherence gate position of the acquired tomographic image (for example, a region within a predetermined distance from the coherence gate position in the depth direction), A region that is equal to or greater than the threshold is provisionally determined to be folded. This is because folding may occur when the position of a sample such as a retina having a high luminance (pixel value) is near the coherence gate. That is, in this step, the folding determination unit 402 determines whether folding has occurred based on a profile of pixel values within a predetermined range in the depth direction from the coherence gate position in the tomographic image.

なお、折返し判定部402は、ノイズによる影響の低減を目的として、仮判定前に、たとえばX方向の移動平均を算出してもよい。また、取得した断層画像の各X位置において、コヒーレンスゲート位置近傍の数画素を平均、あるいは加算した値を用いて、輝度プロファイルを算出しても同等の効果を得ることができる。例えば、折返し判定部402は、コヒーレンスゲート位置と、コヒーレンスゲート位置から深度方向に所定距離の位置とで挟まれる領域において、断層画像の各X位置(各Aスキャン位置)において平均輝度を求める。X方向の関数として平均輝度はI(x)と表すことができる。そして、折返し判定部402は平均輝度I(x)の移動平均を算出する。すなわち、平均輝度I(x)に対してスムージングを行う。折返し判定部402は、算出された移動平均と閾値とを比較することで、移動平均が閾値以上となっている領域(例えばX方向の領域)を折返しが発生している領域として仮判定する。すなわち、折返し判定部402は、所定範囲内においてBスキャン画像を構成する複数のAスキャン画像それぞれの画素の平均値を算出し、複数のAスキャン画像それぞれに対して算出された平均値に対して移動平均を計算し、算出された移動平均と閾値とを比較し、閾値以上となる移動平均が存在する場合に折返しが発生していると判定する。   Note that the folding determination unit 402 may calculate, for example, a moving average in the X direction before provisional determination for the purpose of reducing the influence of noise. In addition, the same effect can be obtained by calculating a luminance profile using a value obtained by averaging or adding several pixels near the coherence gate position at each X position of the acquired tomographic image. For example, the folding determination unit 402 obtains an average luminance at each X position (each A scan position) of the tomographic image in a region sandwiched between the coherence gate position and a position at a predetermined distance in the depth direction from the coherence gate position. The average luminance as a function of the X direction can be expressed as I (x). Then, the folding determination unit 402 calculates a moving average of the average luminance I (x). That is, smoothing is performed on the average luminance I (x). The folding determination unit 402 compares the calculated moving average with a threshold value, and tentatively determines a region where the moving average is equal to or greater than the threshold value (for example, a region in the X direction) as a region where folding has occurred. In other words, the aliasing determination unit 402 calculates an average value of pixels of each of the plurality of A scan images constituting the B scan image within a predetermined range, and calculates the average value calculated for each of the plurality of A scan images. A moving average is calculated, the calculated moving average is compared with a threshold value, and if there is a moving average that is equal to or greater than the threshold value, it is determined that aliasing has occurred.

ステップS5141で、折返し判定部402は、取得した断層画像から輪郭を強調した輪郭強調画像を生成する。輪郭強調画像の生成には、たとえばSobelフィルタなどの既知の方法を使用することができる。   In step S5141, the return determination unit 402 generates a contour-enhanced image in which the contour is enhanced from the acquired tomographic image. A known method such as a Sobel filter can be used to generate the contour-enhanced image.

ステップS5142で、折返し判定部402は、取得した断層画像において、各X位置で最大値となる画素を取得する。   In step S5142, the return determination unit 402 acquires a pixel having the maximum value at each X position in the acquired tomographic image.

ステップS5143で、折返し判定部402は、例えば、各X位置で最大値かつ輪郭位置となる画素を特定する。具体的には、ステップS5142で取得した、折返し判定部402は、各X位置で最大値となる位置を示す画像をマスク画像として生成し、ステップS5141で生成した輪郭強調画像にマスク画像を乗算する。これにより折返し判定部402は、各X位置で最大値かつ輪郭位置となる画素のみ値を持つ画像を生成する。本ステップの処理により例えば図10に示す画像1001が取得される。図10における画素群1011は、各X位置で最大値かつ輪郭位置となる画素を示している。   In step S5143, the folding determination unit 402 specifies, for example, a pixel that has a maximum value and a contour position at each X position. Specifically, the aliasing determination unit 402 acquired in step S5142 generates an image indicating a position where the maximum value is obtained at each X position as a mask image, and multiplies the contour enhancement image generated in step S5141 by the mask image. . As a result, the folding determination unit 402 generates an image having a value only at the pixel that is the maximum value and the contour position at each X position. For example, an image 1001 shown in FIG. 10 is acquired by the processing in this step. A pixel group 1011 in FIG. 10 indicates pixels that have a maximum value and a contour position at each X position.

なお、折返し判定部402は、各X位置で最大値となる画素を取得後、各X位置において最大値である画素に隣接する画素の値を最大値と同じ値に変更する処理(膨張処理)を行うことでマスク画像を生成することとしてもよい。なお、マスク画像において最大値以外の部分の値は0としてもよい。すなわち、折返し判定部402は、二値のマスク画像を生成することとしてもよい。   The aliasing determination unit 402 acquires a pixel having the maximum value at each X position and then changes the value of the pixel adjacent to the pixel having the maximum value at each X position to the same value as the maximum value (expansion process). It is good also as producing | generating a mask image by performing. Note that the value of the portion other than the maximum value in the mask image may be zero. That is, the folding determination unit 402 may generate a binary mask image.

ステップS5144で、折返し判定部402は、ステップS5143で生成した画像から折返しの仮判定を行う。具体的には、まず、図10に示すように、ステップS5143で生成した画像1001において、特定した各X位置で最大値かつ輪郭位置となる画素群1011がコヒーレンスゲート位置近傍の探索位置1012と交差する位置P1〜P3、および画像端との接点P0、PEを検出する。次に、折返し判定部402は、ステップS500で取得した断層画像に対して得られた位置P1〜P3および接点P0、PEを交差点として対応させる。また、折返し判定部402は、ステップS500で取得した断層画像に対して画素群1011および探索位置1012を対応させることとしてもよい。そして、折返し判定部402は、各交差位置間の平均輝度値(平均画素値)を算出する。ここで、各交差位置間の平均輝度値とは、例えば、断層画像の画像端と画素群1011と探索位置1012とにより囲まれた各領域の平均輝度値である。例えばP0とP1との間の平均輝度は、線分P0−P1と画素群1011と断層画像の左端部により囲まれた領域の平均輝度である。また、P1とP2との間の平均輝度は、線分P1−P2と画素群1011と断層画像の端部により囲まれた領域の平均輝度である。さらに、P2とP3との間の平均輝度は、線分P2−P3と画素群1011と断層画像の端部により囲まれた領域の平均輝度である。また、P3とPEとの間の平均輝度は、線分P3−PEと画素群1011と断層画像の端部により囲まれた領域の平均輝度である。なお、平均輝度を算出する領域を探索位置1012とコヒーレンスゲート位置とに挟まれる領域に限定することとしてもよい。すなわち、折返し判定部402は、Bスキャン画像を構成する複数のAスキャン画像それぞれにおいて画素値が最大値となる位置を取得し、Bスキャン画像において画素値が最大値となる位置を他の位置よりも強調するマスク画像を生成し、マスク画像を輪郭強調処理が施されたBスキャン画像に適用することで画素群を取得し、画素群とBスキャン画像のコヒーレンスゲート位置から深度方向に所定距離離れた位置との交点を求め、交点に基づいて画定されたコヒーレンスゲート位置と所定距離離れた位置とに挟まれた領域の画素値に基づいて折返しが発生しているか否かを判定することとしてもよい。   In step S5144, the return determination unit 402 performs a temporary determination of return from the image generated in step S5143. Specifically, as shown in FIG. 10, first, in the image 1001 generated in step S5143, the pixel group 1011 having the maximum value and the contour position at each identified X position intersects the search position 1012 near the coherence gate position. Detect positions P1 to P3 and contacts P0 and PE with the image end. Next, the folding determination unit 402 associates the positions P1 to P3 and the contacts P0 and PE obtained with respect to the tomographic image acquired in step S500 as intersections. The aliasing determination unit 402 may associate the pixel group 1011 and the search position 1012 with the tomographic image acquired in step S500. Then, the folding determination unit 402 calculates an average luminance value (average pixel value) between the intersection positions. Here, the average luminance value between the intersection positions is, for example, the average luminance value of each region surrounded by the image end of the tomographic image, the pixel group 1011, and the search position 1012. For example, the average luminance between P0 and P1 is the average luminance of a region surrounded by the line segment P0-P1, the pixel group 1011 and the left end of the tomographic image. The average luminance between P1 and P2 is the average luminance of the area surrounded by the line segment P1-P2, the pixel group 1011 and the edge of the tomographic image. Furthermore, the average luminance between P2 and P3 is the average luminance of a region surrounded by the line segment P2-P3, the pixel group 1011 and the end of the tomographic image. The average luminance between P3 and PE is the average luminance of the area surrounded by the line segment P3-PE, the pixel group 1011 and the edge of the tomographic image. Note that the area for calculating the average luminance may be limited to an area sandwiched between the search position 1012 and the coherence gate position. That is, the aliasing determination unit 402 acquires a position where the pixel value becomes the maximum value in each of the plurality of A scan images constituting the B scan image, and determines the position where the pixel value becomes the maximum value in the B scan image from other positions. A mask image to be emphasized is generated, a pixel group is obtained by applying the mask image to the B-scan image on which the contour enhancement processing has been performed, and the pixel group is separated from the coherence gate position of the B-scan image by a predetermined distance in the depth direction. And determining whether or not aliasing has occurred based on a pixel value of an area sandwiched between a coherence gate position defined based on the intersection and a position separated by a predetermined distance. Good.

なお、折返し判定部402は、各交差位置間の平均輝度値として線分P0−P1、線分P1−P2、線分P2−P3および線分P3−PE上の画素の平均輝度を算出することとしてもよい。   The aliasing determination unit 402 calculates the average luminance of the pixels on the line segment P0-P1, the line segment P1-P2, the line segment P2-P3, and the line segment P3-PE as the average luminance value between the intersection positions. It is good.

さらに、折返し判定部402は、算出した算出輝度値が閾値以上となる領域を特定し、特定した領域(例えばX方向の領域)を折返しが発生している領域と仮判定する。すなわち、折返し判定部402は、交点に基づいて画定されたコヒーレンスゲート位置と所定距離離れた位置とに挟まれた領域の画素値の平均値が閾値以上の場合に折返しが発生していると判定する。   Further, the aliasing determination unit 402 identifies an area where the calculated brightness value is equal to or greater than a threshold, and provisionally determines the identified area (for example, an area in the X direction) as an area where aliasing has occurred. In other words, the folding determination unit 402 determines that folding has occurred when the average value of the pixel values of the region sandwiched between the coherence gate position defined based on the intersection and the position separated by a predetermined distance is greater than or equal to the threshold value. To do.

なお、折返し判定部402は、各交差位置間の平均輝度値の算出前に、各交差位置間の距離を算出し、算出した距離が閾値以下となる領域を除外してもよい。これにより、画像1001において、連続して輝度が低い、あるいは連続して輝度が高い領域のみが残り、折返し判定の精度を向上することができる。   Note that the folding determination unit 402 may calculate the distance between the intersection positions before calculating the average luminance value between the intersection positions, and exclude an area where the calculated distance is equal to or less than a threshold value. As a result, in the image 1001, only the region where the luminance is continuously low or the luminance is continuously high remains, and the accuracy of the aliasing determination can be improved.

ステップS5151で、折返し判定部402は、ステップS5131およびステップS5144の各仮判定の結果を比較し、折返し領域を判定する。ここでは、折返し判定部402は、複数の仮判定においてともに折返しと判定した領域を、折返しが発生している領域と判定する。すなわち、折返し判定部402は、異なる複数の方法それぞれによって断層画像に折返しが発生しているか否かを判定し、異なる複数の方法それぞれにより得られた判定結果に基づいて、折返しが発生しているかを再度判定する。   In step S5151, the return determination unit 402 compares the results of the temporary determinations in steps S5131 and S5144 to determine the return region. Here, the return determination unit 402 determines that an area that has been determined to be returned in a plurality of provisional determinations is an area in which the return has occurred. That is, the aliasing determination unit 402 determines whether or not aliasing has occurred in the tomographic image by each of a plurality of different methods, and whether or not aliasing has occurred based on the determination results obtained by each of the plurality of different methods. Determine again.

なお、折返し判定部402は、複数の仮判定結果のいずれか一方が折返しと判定した領域を折り返しが発生している領域と判定することとしてもよい。例えば、網膜中に所定値以下の輝度を有する部分が含まれていた場合ステップS5131の方法では、折返しが発生していない領域と判定される可能性があるが、平均輝度を用いるステップS5144の手法によればステップS5131の方法で検出できなかった領域を折り返しが発生している領域と判定することが可能となる。なお、折返し判定部402は、二つの折返しの仮判定の処理のうち、ステップS5131の処理のみを実行してもよいし、ステップS5141−5144のみの処理を実行することとしてもよい。   Note that the aliasing determination unit 402 may determine that an area in which any one of the plurality of provisional determination results is determined to be aliasing is an area where aliasing has occurred. For example, when the retina includes a portion having a luminance equal to or lower than a predetermined value, the method of step S5131 may determine that the region is not folded, but the method of step S5144 using the average luminance is used. According to the above, it is possible to determine an area that could not be detected by the method of step S5131 as an area where aliasing has occurred. Note that the loopback determination unit 402 may execute only the process of step S5131 or the process of only step S5141-5144 of the two loopback provisional determination processes.

折返しが発生している領域が特定された後は、実施例1と同様に層境界補正部404、En−Face画像生成部405による上述の処理が実行される。   After the region where the aliasing has occurred is identified, the above-described processing by the layer boundary correction unit 404 and the En-Face image generation unit 405 is executed as in the first embodiment.

上記の実施例によれば、たとえば、飛蚊症や網膜剥離などにより、コヒーレンスゲート位置近傍に輝度が高い領域があるような場合でも、適切に折返しを判定することが可能となる。また、実施例1と同様の効果を奏することも可能である。   According to the above-described embodiment, it is possible to appropriately determine the return even when there is a region with high luminance near the coherence gate position due to flying mosquito disease or retinal detachment. Further, the same effects as those of the first embodiment can be obtained.

なお、ステップS5131、およびステップS5144で使用する、コヒーレンスゲート位置の近傍の領域としては、「コヒーレンスゲート位置から8画素」などの固定値、あるいは「コヒーレンスゲート位置から画像の高さの5%」などの画像サイズから算出される値を使用してもよい。なお、これらの数値は例示であり他の数値としてもよい。また、強度近視眼で網膜の湾曲が強い場合にはコヒーレンスゲート位置の近傍の領域を正視眼に比べて小さくすることとしてもよい。   In addition, as a region in the vicinity of the coherence gate position used in step S5131 and step S5144, a fixed value such as “8 pixels from the coherence gate position” or “5% of the image height from the coherence gate position” is used. A value calculated from the image size may be used. In addition, these numerical values are illustrations and may be other numerical values. Further, when the retina is strongly curved with high myopia, the area near the coherence gate position may be made smaller than that of the normal eye.

<実施例3>
本実施例に係る画像処理装置209は、実施例1の画像処理装置209の構成に対して断層画像の撮影時情報を取得する情報取得手段1101を有する点が上述の実施例と異なる。
<Example 3>
The image processing apparatus 209 according to the present embodiment is different from the above-described embodiment in that the image processing apparatus 209 according to the present embodiment includes an information acquisition unit 1101 that acquires tomographic image photographing information with respect to the configuration of the image processing apparatus 209 according to the first embodiment.

図11は実施例3に係る画像処理装置209の構成の一例を示す図である。実施例1と同様の構成については説明を省略する。また、実施例1と同様に不図示のCPUがROMに記憶されたプログラムを実行することでCPUは情報取得手段1101として機能する。   FIG. 11 is a diagram illustrating an example of the configuration of the image processing apparatus 209 according to the third embodiment. The description of the same configuration as in the first embodiment is omitted. Similarly to the first embodiment, a CPU (not shown) executes a program stored in the ROM, so that the CPU functions as the information acquisition unit 1101.

情報取得部1101は、断層画像の撮像に係る情報を取得する。例えば、情報取得部1101は、不図示のデータベースから、断層画像に付帯してデータベースに保存された撮影情報を取得する。撮影情報は、例えば、コヒーレンスゲート位置、撮影時の内部固視灯の位置情報、撮影位置に関連づいた撮影モード情報などの撮影条件、および強度近視眼など撮影時の被検眼の状態(視度等の情報)などの少なくとも1つを含む情報である。なお、情報取得部1101は、撮影情報をデータベースからではなくOCT撮影装置201から直接取得してもよい。また、情報取得部1101は、不図示の操作手段を介して操作者が入力した撮影情報を取得することとしてもよい。情報取得部1101は、断層画像に係る撮影情報を取得する情報取得手段の一例に相当する。   The information acquisition unit 1101 acquires information related to tomographic image capturing. For example, the information acquisition unit 1101 acquires imaging information attached to the tomographic image and stored in the database from a database (not shown). The imaging information includes, for example, the coherence gate position, the position information of the internal fixation lamp at the time of imaging, the imaging conditions such as the imaging mode information related to the imaging position, and the state of the eye to be inspected at the time of imaging such as high myopia (diopter etc.) Information), and the like. Note that the information acquisition unit 1101 may acquire the imaging information directly from the OCT imaging apparatus 201 instead of from the database. Further, the information acquisition unit 1101 may acquire imaging information input by the operator via an operation unit (not shown). The information acquisition unit 1101 corresponds to an example of an information acquisition unit that acquires imaging information related to a tomographic image.

強度近視眼では、眼球の湾曲の度合いが大きいため、折返しが発生する可能性が正視眼に比べて高い。一方、強度近視眼でない場合は、眼球の湾曲の度合いが強度近視眼に比べて相対的に小さく、特に撮影範囲が狭い場合は、折返しが発生しにくい。しかし、強度近視眼でない場合でもコヒーレンスゲート位置が網膜表面に近い状態で断層画像が撮影された場合は、折返しが発生する可能性がある。   In a high myopic eye, the degree of curvature of the eyeball is large, so the possibility of folding is higher than in a normal eye. On the other hand, when the eye is not an intense myopic eye, the degree of curvature of the eyeball is relatively smaller than that of the intense myopic eye, and in particular, when the shooting range is narrow, folding does not easily occur. However, even if the eye is not an intense myopic eye, folding may occur when a tomographic image is taken with the coherence gate position close to the retina surface.

したがって、撮影情報を取得することは、折返し領域が発生している可能性を判断するうえで有用となる。   Therefore, acquiring the shooting information is useful for determining the possibility that a folded area has occurred.

例えば、情報取得部1101が、撮影情報として網膜に対するコヒーレンスゲートの位置を示す情報および被検眼の視度を示す情報を取得した場合、折返し判定部402は上述した折返しの判定を実行するか否かを判断することとしてもよい。折返し判定部402は、被検眼の視度を示す情報が強度近視眼ではないことを示し(視度が所定閾値未満)、コヒーレンスゲートの位置が網膜から所定距離離れていると判断する場合には、折返しの発生する確率は低いものと判断して折返しの判定を実行しないこととしてもよい。なお、コヒーレンスゲートの網膜に対する位置は、例えば、平均的な眼軸長の情報および参照光路における参照ミラーの位置から推定することが可能である。   For example, when the information acquisition unit 1101 acquires information indicating the position of the coherence gate with respect to the retina and information indicating the diopter of the eye to be examined as imaging information, whether or not the folding determination unit 402 performs the above-described folding determination. It is good also as judging. The folding determination unit 402 indicates that the information indicating the diopter of the eye to be examined is not an intensity myopic eye (diopter is less than a predetermined threshold), and determines that the position of the coherence gate is a predetermined distance from the retina. It may be determined that the probability of folding is low and the determination of folding is not performed. Note that the position of the coherence gate with respect to the retina can be estimated from, for example, information on the average eye axis length and the position of the reference mirror in the reference optical path.

また、折返し判定部402は、例えば、被検眼の視度を示す情報が強度近視眼であることを示す場合(視度が所定値以上の場合)には、上述した折返しの判定を実行する。すなわち、折返し判定部402は、撮影情報に基づいて判定手段による判定を制御する制御手段の一例に相当する。   Further, for example, when the information indicating the diopter of the eye to be examined indicates that the eye is a high myopia (when the diopter is equal to or greater than a predetermined value), the return determination unit 402 performs the above-described determination of the return. That is, the folding determination unit 402 corresponds to an example of a control unit that controls determination by the determination unit based on the shooting information.

本実施形態によれば、不要な折返し判定を行う可能性を低減することが可能となる。   According to the present embodiment, it is possible to reduce the possibility of performing unnecessary folding determination.

<実施例4>
上記の実施例では、折返しが発生している領域おける層境界をコヒーレンスゲート位置になるように補正することとしたが、本発明はこれに限定されるものではない。本実施例では、他の層境界の補正方法について説明する。
<Example 4>
In the above embodiment, the layer boundary in the region where the folding is generated is corrected so as to be the coherence gate position, but the present invention is not limited to this. In the present embodiment, another layer boundary correction method will be described.

折返し判定部402は、上述の方法を用いて、断層画像における折返しを判定する。折返しがあると判定された場合、表示制御部410は、図12に示すように表示装置101に判定結果1201を表示させることで、操作者に折返しが発生している旨を通知する。   The return determination unit 402 determines the return in the tomographic image using the method described above. When it is determined that there is a return, the display control unit 410 displays the determination result 1201 on the display device 101 as shown in FIG. 12, thereby notifying the operator that a return has occurred.

層境界補正部404は、折返し判定部402の判定結果に基づいて層境界を補正する。本実施例では、まず、折返しがあると判定された断層画像を、図13に示すように折り返していない領域1301と折返し領域1302とに折返し点Qで分割する。なお、図13において、層境界L1と接点を持つ水平線がコヒーレンスゲート位置に相当し、表示領域の上端となるが、仮想的にコヒーレンスゲート位置よりも上部の領域を図示している。次に、層境界補正部404は、補正対象の層境界L1が、折り返していない領域1301側から折返し点Qに接する接線を算出する。さらに、層境界補正部404は、折返し領域1302内の層境界L1は、算出した接線の延長線(図13における点線部分)上に存在するとして補正する。すなわち、層境界補正部404は、折り返しが発生している部分の検出手段により検出された層境界を、折返しが発生していない領域における検出手段により検出された層境界の延長線とする。   The layer boundary correction unit 404 corrects the layer boundary based on the determination result of the folding determination unit 402. In this embodiment, first, a tomographic image determined to have a return is divided into a non-return area 1301 and a return area 1302 at a return point Q as shown in FIG. In FIG. 13, a horizontal line having a contact point with the layer boundary L1 corresponds to the coherence gate position and is the upper end of the display area, but a region virtually above the coherence gate position is illustrated. Next, the layer boundary correction unit 404 calculates a tangent line where the layer boundary L1 to be corrected is in contact with the turning point Q from the unfolded region 1301 side. Furthermore, the layer boundary correction unit 404 corrects the layer boundary L1 in the folded region 1302 as being on the extension of the calculated tangent (dotted line portion in FIG. 13). In other words, the layer boundary correction unit 404 sets the layer boundary detected by the detection unit in the part where the aliasing occurs as an extension line of the layer boundary detected by the detection unit in the region where the aliasing does not occur.

なお、層境界補正部404は、領域1302のコヒーレンスゲート位置よりも上部且つ接線の延長線の下部の部分に関して、断層像に含まれる網膜の画像をコピーすることで補間することとしてもよい。また、領域1302のコヒーレンスゲート位置よりも上部且つ接線の延長線の下部の部分は、画素値を持たないこととしてもよい。   Note that the layer boundary correction unit 404 may perform interpolation by copying a retina image included in the tomographic image with respect to a portion above the coherence gate position in the region 1302 and below the tangential extension line. Further, a portion above the coherence gate position in the region 1302 and below the tangential extension line may not have a pixel value.

層境界補正部404は、図12に示すように、上述の層境界の補正処理を、En−Face画像生成のための基準面として指定された層境界121a、層境界121bについて実施する。なお、本実施例では、折返し点Qに接する接線を用いて補正したが、これに限定するものではない。たとえば、折り返しが発生していない領域1301における補正対象の層境界L1の近似曲線を算出し、折返し領域1302内の層境界L1は、算出した近似曲線上に存在するとして補正しても、同様の効果を得ることができる。   As shown in FIG. 12, the layer boundary correction unit 404 performs the above-described layer boundary correction processing on the layer boundary 121a and the layer boundary 121b designated as the reference plane for generating the En-Face image. In this embodiment, correction is performed using a tangent line that is in contact with the turning point Q. However, the present invention is not limited to this. For example, even if an approximate curve of the layer boundary L1 to be corrected is calculated in the region 1301 in which the aliasing does not occur, and the layer boundary L1 in the aliasing region 1302 is corrected to exist on the calculated approximate curve, the same An effect can be obtained.

En−Face画像生成部405は、層境界補正部404の補正結果に基づいて、En−Face画像を生成する。   The En-Face image generation unit 405 generates an En-Face image based on the correction result of the layer boundary correction unit 404.

表示制御部410は、生成されたEn−Face画像を表示装置101に表示させる。本実施例では、表示制御部410は、En−Face画像上に、層境界補正部404によって層境界を補正された領域1102を表示させる。これにより、補正した層境界を使用して生成したEn−Face画像の領域を、操作者に提示することができる。   The display control unit 410 causes the display device 101 to display the generated En-Face image. In the present embodiment, the display control unit 410 displays an area 1102 whose layer boundary is corrected by the layer boundary correction unit 404 on the En-Face image. Thus, the region of the En-Face image generated using the corrected layer boundary can be presented to the operator.

また、表示制御部410は、表示装置101に、取得した断層画像、検出した層境界および補正した層境界を表示させる。ここで、表示制御部410は、検出した層境界と補正した層境界とは区別可能な様式で表示装置101に表示させる。   In addition, the display control unit 410 causes the display device 101 to display the acquired tomographic image, the detected layer boundary, and the corrected layer boundary. Here, the display control unit 410 causes the display device 101 to display the detected layer boundary and the corrected layer boundary in a distinguishable manner.

本実施例によっても、実施例1と同様の効果を奏することができる。また、折返し領域が発生していることを示情報を操作者に通知することができるため、操作者は断層画像を確認しなくとも折返しの発生に気付くことが可能となる。また、En−Face画像上に折返しが発生している領域が表示されるため、操作者はEn−Face画像を観察する際に病変による異常なのか装置に起因する異常なのかを判断する材料とすることが可能となる。   According to the present embodiment, the same effects as those of the first embodiment can be obtained. In addition, since it is possible to notify the operator that the folded area has occurred, the operator can notice the occurrence of the folding without confirming the tomographic image. In addition, since an area where folding occurs is displayed on the En-Face image, the operator can determine whether the abnormality is caused by a lesion or an apparatus when observing the En-Face image. It becomes possible to do.

<その他の実施形態>
以上、実施形態例を詳述したが、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other embodiments>
Although the embodiment has been described in detail above, the disclosed technology can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

401 断層画像取得部
402 折返し判定部
403 層境界検出部
404 層境界補正部
405 En−Face画像生成部
410 表示制御部
401 Tomographic image acquisition unit 402 Folding determination unit 403 Layer boundary detection unit 404 Layer boundary correction unit 405 En-Face image generation unit 410 Display control unit

Claims (20)

眼底の断層画像から層境界を検出する検出手段と、
前記断層画像に折返しが発生しているか否かを判定する判定手段と、
前記判定手段により前記折り返しが発生していると判定された場合、前記折り返しが発生している部分の前記検出手段により検出された層境界を補正する補正手段と、
を備えることを特徴とする画像処理装置
Detection means for detecting a layer boundary from a tomographic image of the fundus;
Determination means for determining whether or not folding occurs in the tomographic image;
A correction unit that corrects a layer boundary detected by the detection unit in a portion where the folding occurs when the determination unit determines that the folding is generated;
An image processing apparatus comprising:
前記判定手段は、前記断層画像から前記断層画像の第1深度方向における画素値の変化を示す第1プロファイルと前記断層画像の第1深度方向と対向する方向である第2深度方向における画素値の変化を示す第2プロファイルと取得し、前記第1プロファイルと前記第2プロファイルとを比較することで折返しが発生しているか否かを判定することを特徴とする請求項1記載の画像処理装置。   The determination means includes: a first profile indicating a change in pixel value in the first depth direction of the tomographic image from the tomographic image; and a pixel value in a second depth direction that is a direction opposite to the first depth direction of the tomographic image. The image processing apparatus according to claim 1, wherein a second profile indicating a change is acquired, and it is determined whether or not aliasing has occurred by comparing the first profile and the second profile. 前記断層画像はBスキャン画像であり、
前記第1プロファイルは、前記Bスキャン画像を構成する複数のAスキャン画像それぞれにおける前記第1の深度方向における画素値の変化を示すプロファイルであり、
前記第2プロファイルは、前記Bスキャン画像を構成する複数のAスキャン画像それぞれにおける前記第2の深度方向における画素値の変化を示すプロファイルであることを特徴とする請求項2記載の画像処理装置。
The tomographic image is a B-scan image;
The first profile is a profile showing a change in pixel value in the first depth direction in each of a plurality of A scan images constituting the B scan image,
The image processing apparatus according to claim 2, wherein the second profile is a profile indicating a change in a pixel value in the second depth direction in each of a plurality of A scan images constituting the B scan image.
前記判定手段は、前記断層画像に対して前記第1深度方向における画素値の変化を強調する第1フィルタを適用した結果に基づいて前記第1プロファイルを取得し、前記断層画像に対して前記第2深度方向における画素値の変化を強調する第2フィルタを適用した結果に基づいて前記第2プロファイルを取得することを特徴とする請求項3記載の画像処理装置。   The determination unit obtains the first profile based on a result of applying a first filter that emphasizes a change in a pixel value in the first depth direction to the tomographic image, and obtains the first profile from the tomographic image. The image processing apparatus according to claim 3, wherein the second profile is acquired based on a result of applying a second filter that emphasizes changes in pixel values in two depth directions. 前記第1フィルタは、前記第1深度方向において画素値が増加する部分を強調するフィルタであり、
前記第2フィルタは、前記第2深度方向において画素値が増加する部分を強調するフィルタであることを特徴とする請求項4記載の画像処理装置。
The first filter is a filter that emphasizes a portion where a pixel value increases in the first depth direction,
The image processing apparatus according to claim 4, wherein the second filter is a filter that emphasizes a portion where a pixel value increases in the second depth direction.
前記判定手段は、前記第1フィルタが適用された後の前記Bスキャン画像を構成する前記複数のAスキャン画像それぞれにおける画素値のうち閾値を超える画素の数を前記第1プロファイルとして取得し、前記第2フィルタが適用された後の前記Bスキャン画像を構成する前記複数のAスキャン画像それぞれにおける画素値のうち前記閾値を超える画素の数を前記第2プロファイルとして取得することを特徴とする請求項5記載の画像処理装置。   The determination unit obtains, as the first profile, the number of pixels that exceed a threshold among pixel values in each of the plurality of A scan images constituting the B scan image after the first filter is applied, The number of pixels exceeding the threshold among the pixel values in each of the plurality of A scan images constituting the B scan image after the second filter is applied is acquired as the second profile. 5. The image processing apparatus according to 5. 前記判定手段は、前記第1フィルタが適用された後の前記Bスキャン画像を構成する前記複数のAスキャン画像それぞれにおける画素値の総和を前記第1プロファイルとして取得し、前記第2フィルタが適用された後の前記Bスキャン画像を構成する前記複数のAスキャン画像それぞれにおける画素値の総和を前記第2プロファイルとして取得することを特徴とする請求項5記載の画像処理装置。   The determination unit obtains, as the first profile, a sum of pixel values in each of the plurality of A scan images constituting the B scan image after the first filter is applied, and the second filter is applied. 6. The image processing apparatus according to claim 5, wherein a sum total of pixel values in each of the plurality of A scan images constituting the B scan image after being acquired is acquired as the second profile. 前記判定手段は、前記第1プロファイルと前記第2プロファイルとの交点に基づいて折返しが発生しているか否かを判定することを特徴とする請求項2乃至7のいずれか1項に記載の画像処理装置。   8. The image according to claim 2, wherein the determination unit determines whether or not aliasing has occurred based on an intersection of the first profile and the second profile. 9. Processing equipment. 前記判定手段は、前記断層画像におけるコヒーレンスゲート位置から深度方向に所定範囲内の画素値のプロファイルに基づいて折返しが発生しているか否かを判定することを特徴とする請求項1記載の画像処理装置。   The image processing according to claim 1, wherein the determination unit determines whether or not aliasing has occurred based on a profile of pixel values within a predetermined range in a depth direction from a coherence gate position in the tomographic image. apparatus. 前記断層画像はBスキャン画像であり、
前記判定手段は、前記所定範囲内において前記Bスキャン画像を構成する複数のAスキャン画像それぞれの画素の平均値を算出し、前記複数のAスキャン画像それぞれに対して算出された前記平均値に対して移動平均を計算し、算出された前記移動平均と閾値とを比較し、前記閾値以上となる前記移動平均が存在する場合に折返しが発生していると判定することを特徴とする請求項9記載の画像処理装置。
The tomographic image is a B-scan image;
The determination unit calculates an average value of pixels of each of the plurality of A scan images constituting the B scan image within the predetermined range, and calculates the average value calculated for each of the plurality of A scan images. 10. The moving average is calculated, the calculated moving average is compared with a threshold value, and it is determined that aliasing occurs when the moving average that is equal to or greater than the threshold value exists. The image processing apparatus described.
前記断層画像はBスキャン画像であり、
前記判定手段は、前記Bスキャン画像を構成する複数のAスキャン画像それぞれにおいて画素値が最大値となる位置を取得し、前記Bスキャン画像において前記画素値が最大値となる位置を他の位置よりも強調するマスク画像を生成し、前記マスク画像を輪郭強調処理が施された前記Bスキャン画像に適用することで画素群を取得し、前記画素群と前記Bスキャン画像のコヒーレンスゲート位置から深度方向に所定距離離れた位置との交点を求め、前記交点に基づいて画定された前記コヒーレンスゲート位置と前記所定距離離れた位置とに挟まれた領域の画素値に基づいて折返しが発生しているか否かを判定することを特徴とする請求項1記載の画像処理装置。
The tomographic image is a B-scan image;
The determination unit obtains a position where the pixel value becomes the maximum value in each of the plurality of A scan images constituting the B scan image, and determines the position where the pixel value becomes the maximum value in the B scan image from other positions. Generating a mask image for emphasizing, applying the mask image to the B-scan image that has been subjected to contour enhancement processing, obtaining a pixel group, and in the depth direction from the coherence gate position of the pixel group and the B-scan image Whether or not folding occurs based on a pixel value of an area sandwiched between the coherence gate position defined based on the intersection and the position separated by the predetermined distance. The image processing apparatus according to claim 1, further comprising:
前記交点に基づいて画定された前記コヒーレンスゲート位置と前記所定距離離れた位置とに挟まれた領域の画素値の平均値が閾値以上の場合に折返しが発生していると判定することを特徴とする請求項11記載の画像処理装置。   It is determined that aliasing has occurred when an average value of pixel values in an area sandwiched between the coherence gate position defined based on the intersection and the position separated by the predetermined distance is equal to or greater than a threshold value. The image processing apparatus according to claim 11. 前記判定手段は、異なる複数の方法それぞれによって前記断層画像に折返しが発生しているか否かを判定し、
前記異なる複数の方法それぞれにより得られた判定結果に基づいて、折返しが発生しているかを再度判定することを特徴とする請求項1記載の画像処理装置。
The determination means determines whether or not the tomographic image is folded by each of a plurality of different methods,
The image processing apparatus according to claim 1, wherein it is determined again whether or not aliasing has occurred based on the determination results obtained by each of the plurality of different methods.
前記断層画像に係る撮影情報を取得する情報取得手段と、
前記撮影情報に基づいて前記判定手段による判定を制御する制御手段と、を備えることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
Information acquisition means for acquiring imaging information relating to the tomographic image;
The image processing apparatus according to claim 1, further comprising: a control unit that controls determination by the determination unit based on the shooting information.
前記補正手段は、前記折り返しが発生している部分の前記検出手段により検出された層境界をコヒーレンスゲート位置に近づくように補正することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。   15. The correction unit according to claim 1, wherein the correction unit corrects a layer boundary detected by the detection unit in a portion where the folding occurs so as to approach a coherence gate position. Image processing apparatus. 前記補正手段は、前記折り返しが発生している部分の前記検出手段により検出された層境界をコヒーレンスゲート位置に一致するように補正することを特徴とする請求項15記載の画像処理装置。   The image processing apparatus according to claim 15, wherein the correction unit corrects a layer boundary detected by the detection unit in a portion where the aliasing occurs so as to coincide with a coherence gate position. 前記補正手段は、前記折り返しが発生している部分の前記検出手段により検出された層境界を、折返しが発生していない領域における前記検出手段により検出された層境界の延長線とすることを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。   The correction means uses the layer boundary detected by the detection means in the part where the folding occurs as an extension line of the layer boundary detected by the detection means in a region where no folding occurs. The image processing apparatus according to any one of claims 1 to 14. 前記断層画像、前記補正手段により補正された層境界および前記検出手段により検出された層境界に基づいて前記眼底のEn−Face画像を生成する生成手段を更に備えることを特徴とする請求項1乃至17のいずれか1項に記載の画像処理装置。   2. The apparatus according to claim 1, further comprising a generating unit configured to generate an En-Face image of the fundus based on the tomographic image, the layer boundary corrected by the correcting unit, and the layer boundary detected by the detecting unit. 18. The image processing device according to any one of items 17. 眼底の断層画像から層境界を検出する検出工程と、
前記断層画像に折返しが発生しているか否かを判定する判定工程と、
前記判定工程において前記折り返しが発生していると判定された場合、前記折り返しが発生している部分の前記検出工程において検出された層境界を補正する補正工程と、
を備えることを特徴とする画像処理方法。
A detection step of detecting a layer boundary from a tomographic image of the fundus;
A determination step of determining whether or not folding occurs in the tomographic image;
A correction step of correcting the layer boundary detected in the detection step of the portion where the return occurs when it is determined that the return is generated in the determination step;
An image processing method comprising:
請求項19記載の方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the method according to claim 19.
JP2016237683A 2016-12-07 2016-12-07 Image processing device, image processing method, and program Pending JP2018089304A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016237683A JP2018089304A (en) 2016-12-07 2016-12-07 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016237683A JP2018089304A (en) 2016-12-07 2016-12-07 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2018089304A true JP2018089304A (en) 2018-06-14

Family

ID=62563341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016237683A Pending JP2018089304A (en) 2016-12-07 2016-12-07 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2018089304A (en)

Similar Documents

Publication Publication Date Title
US9430825B2 (en) Image processing apparatus, control method, and computer readable storage medium for analyzing retina layers of an eye
US9872614B2 (en) Image processing apparatus, method for image processing, image pickup system, and computer-readable storage medium
US9098742B2 (en) Image processing apparatus and image processing method
JP6105852B2 (en) Image processing apparatus and method, and program
US8693749B2 (en) Image processing apparatus and method
JP2020093076A (en) Medical image processing device, learned model, medical image processing method and program
JP2020058800A (en) Image processing device, image processing method, and image processing program
US10102621B2 (en) Apparatus, method, and program for processing image
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
US9307902B2 (en) Image processing device, image processing system, image processing method, and program
US20140185889A1 (en) Image Processing Apparatus and Image Processing Method
EP3453312B1 (en) Image processing apparatus, image processing method, and program
JP2017127397A (en) Image processing device, estimation method, system and program
JP7195745B2 (en) Image processing device, image processing method and program
Hernandez-Matas et al. Retinal image preprocessing, enhancement, and registration
JP2022189963A (en) Ophthalmologic apparatus
WO2020050308A1 (en) Image processing device, image processing method and program
US10846892B2 (en) Image processing apparatus, image processing method, and storage medium
US10916012B2 (en) Image processing apparatus and image processing method
JP7005382B2 (en) Information processing equipment, information processing methods and programs
JP2022033290A (en) Information processing device, information processing method, and program
JP2018057828A (en) Image processing apparatus and image processing method
JP2018089304A (en) Image processing device, image processing method, and program
JP5634587B2 (en) Image processing apparatus, image processing method, and program