JP2019076445A - Optical coherence tomographic apparatus, image processing apparatus, and image processing method - Google Patents
Optical coherence tomographic apparatus, image processing apparatus, and image processing method Download PDFInfo
- Publication number
- JP2019076445A JP2019076445A JP2017206270A JP2017206270A JP2019076445A JP 2019076445 A JP2019076445 A JP 2019076445A JP 2017206270 A JP2017206270 A JP 2017206270A JP 2017206270 A JP2017206270 A JP 2017206270A JP 2019076445 A JP2019076445 A JP 2019076445A
- Authority
- JP
- Japan
- Prior art keywords
- cross
- image data
- section
- eye
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、光干渉断層撮影装置、画像処理装置及びその方法に関するものである。 The present invention relates to an optical coherence tomography apparatus, an image processing apparatus, and a method thereof.
現在、光学機器を用いた眼科用機器として、様々なものが使用されている。例えば、眼を観察する光学機器として、前眼部撮影装置、眼底カメラ、共焦点レーザー走査検眼鏡(Scanning Laser Ophthalmoscope:SLO)等、様々な機器が使用されている。中でも、多波長光波干渉を利用した光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)による光干渉断層撮影装置は、試料の断層像を高解像度に得ることができる装置である。このため、眼科用機器として網膜の専門外来では必要不可欠な装置になりつつある。また、眼科用だけでなく、内視鏡等にも利用されている。以下、これをOCT装置と記す。OCT装置は眼科診断等において、被検眼の眼底における網膜の断層像や、角膜などの前眼部の断層像を取得するために広く利用されている。 At present, various types of ophthalmic instruments using optical instruments are used. For example, as an optical apparatus for observing an eye, various apparatuses such as an anterior segment imaging apparatus, an eye fundus camera, a confocal laser scanning ophthalmoscope (SLO), and the like are used. Among them, an optical coherence tomography apparatus based on optical coherence tomography (OCT) using multi-wavelength light wave interference is an apparatus capable of obtaining a tomographic image of a sample with high resolution. For this reason, it is becoming an indispensable device in the specialist outpatient department of the retina as an ophthalmic apparatus. Moreover, it is used not only for ophthalmology but also for endoscopes and the like. Hereinafter, this is referred to as an OCT apparatus. The OCT apparatus is widely used in ophthalmologic diagnosis and the like to acquire a tomogram of a retina on the fundus of an eye to be examined and a tomogram of an anterior segment such as a cornea.
OCT装置は、低コヒーレント光である測定光を、参照光と測定光に分け、測定光を被検査物に照射し、その被検査物からの戻り光と参照光を干渉させ、その干渉光のスペクトル情報から被検査物の断層を測定することができる。現在のOCT装置では、上記の干渉光のスペクトル情報から奥行き方向の情報を得ることができるスペクトラムドメインOCT(Spectrum Domain OCT:SD−OCT)が一般的に利用されている。さらに、発振波長を変えることができる波長可変光源装置を光源として使用した波長掃引OCT(Swept Source OCT:SS−OCT)も利用されている。SD−OCTとSS−OCTは、総称してフーリエドメインOCT(Fourier Domain OCT:FD−OCT)と呼ばれている。 The OCT apparatus divides measurement light, which is low coherent light, into reference light and measurement light, irradiates the measurement light to the object to be inspected, causes the return light from the object to be inspected to interfere with the reference light, and It is possible to measure the fault of the object from the spectral information. In current OCT apparatuses, spectrum domain OCT (SD-OCT) that can obtain information in the depth direction from the spectrum information of the interference light described above is generally used. Furthermore, wavelength sweeping OCT (Swept Source OCT: SS-OCT) using a wavelength variable light source device capable of changing the oscillation wavelength as a light source is also used. SD-OCT and SS-OCT are collectively referred to as Fourier domain OCT (FD-OCT).
ここで、被検眼の眼底の視神経乳頭領域にある篩状板の観察は、緑内障などの眼科診断に有用である。このため、篩状板領域を手動指定、または自動検出することにより、篩状板の断面の位置及び向きを設定する技術が、特許文献1に開示されている。
Here, the observation of the lamina cribrosa in the optic disc region of the fundus of the eye to be examined is useful for ophthalmologic diagnosis such as glaucoma. Therefore,
このとき、断層像において篩状板が精度良く撮像されない場合がある。このような場合には、断層像において篩状板領域を手動指定することや、自動検出すること自体が難しいため、篩状板の断面の向きを設定することも難しい。 At this time, the sieved plate may not be imaged with high accuracy in the tomographic image. In such a case, it is also difficult to set the direction of the cross section of the sieve plate, since it is difficult to manually designate the sieve plate region in the tomographic image or to automatically detect the sieve region itself.
本発明の目的の一つは、篩状板等の特定部位の断面の向きを精度良く設定することである。 One of the objects of the present invention is to accurately set the direction of the cross section of a specific part such as a sieve plate.
上記目的を達成するため、本発明に係る光干渉断層撮影装置の一つは、
光コヒーレンストモグラフィを用いることにより被検眼の3次元画像データを取得する取得部と、
前記被検眼の特定部位に相当する前記3次元画像データの一部である部分画像データを指定するための指定部と、
前記部分画像データを用いて前記3次元画像データに対して断面を設定する断面設定部と、
を有し、
前記断面設定部は、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定する。
In order to achieve the above object, one of the optical coherence tomography apparatuses according to the present invention is
An acquisition unit that acquires three-dimensional image data of an eye to be examined by using optical coherence tomography;
A designation unit for designating partial image data which is a part of the three-dimensional image data corresponding to a specific part of the eye to be examined;
A cross section setting unit that sets a cross section for the three-dimensional image data using the partial image data;
Have
The cross-section setting unit specifies an end of a layer boundary of the eye to be examined in the three-dimensional image data, and sets an orientation of the cross-section using information on the specified end.
本発明の一つによれば、篩状板等の特定部位の断面の向きを精度良く設定することができる。 According to one of the present invention, the direction of the cross section of a specific part such as a sieve plate can be set with high accuracy.
本発明を図示の実施例に基づいて詳細に説明する。 The present invention will be described in detail based on the illustrated embodiments.
(本体構成)
図1は、本実施例における光干渉断層撮影装置の側面図である。100は、前眼部像、被検眼のSLO眼底像、断層画像を取得するための測定光学系である。101は、測定光学系100を前後左右に移動可能としたステージ部である。102は、後述の分光器を内蔵するベース部である。103は、ステージ部の制御、アライメント動作の制御、断層画像の構成などを行うパソコンである。104は、断層撮像用のプログラム、患者情報、撮影データ、正常データベースの統計情報などを記憶する記憶部である。105は、パソコンへの指示を行う入力部であり、具体的にはキーボードとマウスから構成される。106は、モニタなどの表示部である。なお、パソコン103は、後述する取得部、指定部、断面設定部、形成部、表示制御部等の一例である。ここで、取得部は、光コヒーレンストモグラフィを用いることにより被検眼の3次元画像データを取得する。また、指定部は、被検眼の特定部位(例えば、篩状板)に相当する3次元画像データの一部である部分画像データを指定するためのものである。また、断面設定部は、部分画像データを用いて3次元画像データに対して断面を設定する。また、形成部は、設定された断面を表す断面像データを形成する。また、表示制御部は、断面像データに基づく画像を表示部106に表示させる。また、パソコンは、これらの各機能を実行する画像処理装置の一例である。なお、画像処理装置は、光干渉断層撮影装置と通信可能に接続されていれば良く、光干渉断層撮影装置の内部に組み込まれていても良い。
(Body configuration)
FIG. 1 is a side view of the optical coherence tomography in the present embodiment.
(測定光学系および分光器の構成)
本実施例の測定光学系、及び、分光器の構成について図2を用いて説明する。まず、測定光学系100の内部について説明する。被検眼200に対向して対物レンズ201が設置され、その光軸上に第1ダイクロイックミラー202および第2ダイクロイックミラー203が配置されている。これらのダイクロイックミラーによってOCT光学系の光路250、被検眼の観察とSLO眼底像の取得とを兼ねるSLO光学系と固視灯用の光路251、及び、前眼観察用の光路252とに波長帯域ごとに分岐される。SLO光学系と固視灯用の光路251は、SLO走査手段204、レンズ205、206、ミラー207、第3ダイクロイックミラー208、フォトダイオード209、SLO光源210、固視灯211を有している。ミラー207は、穴あきミラーや中空のミラーが蒸着されたプリズムであり、SLO光源210による照明光と、被検眼からの戻り光とを分離する。第3ダイクロイックミラー208はSLO光源210および固視灯211への光路へと波長帯域ごとに分離する。SLO走査手段204は、SLO光源210と固視灯211から発せられた光を被検眼200上で走査するものであり、X方向に走査するXスキャナ、Y方向に走査するYスキャナから構成されている。本実施例では、Xスキャナは高速走査を行う必要があるためポリゴンミラーによって、Yスキャナはガルバノミラーによって構成されている。レンズ205はSLO光学系および固視灯の焦点合わせのため、不図示のモータによって駆動される。SLO光源210は780nm付近の波長の光を発生する。フォトダイオード209は、被検眼からの戻り光を検出する。固視灯211は可視光を発生して被検者の固視を促すものである。
(Configuration of measurement optical system and spectroscope)
The configuration of the measurement optical system and the spectroscope of this embodiment will be described with reference to FIG. First, the inside of the measurement
SLO光源210から発せられた光は、第3ダイクロイックミラー208で反射され、ミラー207を通過し、レンズ206、205を通り、SLO走査手段204によって、被検眼200上で走査される。被検眼200からの戻り光は、投影光と同じ経路を戻った後、ミラー207によって反射され、フォトダイオード209へと導かれ、SLO眼底像が得られる。固視灯211から発せられた光は、第3ダイクロイックミラー208、ミラー207を透過し、レンズ206、205を通り、SLO走査手段204によって、被検眼200上で走査される。この時、SLO走査手段の動きに合わせて固視灯211を点滅させることによって、被検眼200上の任意の位置に任意の形状をつくり、被検者の固視を促す。
The light emitted from the SLO
前眼観察用の光路252には、レンズ212、213、スプリットプリズム214、赤外光を検知する前眼部観察用のCCD215が配置されている。このCCD215は、不図示の前眼観察用照射光の波長、具体的には970nm付近に感度を持つものである。スプリットプリズム214は、被検眼200の瞳孔と共役な位置に配置されており、被検眼200に対する測定光学系100のZ方向(前後方向)の距離を、前眼部のスプリット像として検出することができる。
In an
OCT光学系の光路250は、前述の通りOCT光学系を成しており、被検眼200の断層画像を撮像するためのものである。より具体的には、断層画像を形成するための干渉信号を得るものである。216は光を被検眼上で走査するためのXYスキャナである。XYスキャナ216は1枚のミラーとして図示してあるが、XY2軸方向の走査を行うガルバノミラーである。217、218はレンズであり、そのうちレンズ217は、光カプラー219に接続されているファイバー224から出射するOCT光源220からの光を、被検眼200に焦点合わせするために不図示のモータによって駆動される。この焦点合わせによって、被検眼200からの戻り光は同時にファイバー224の先端に、スポット状に結像されて入射されることとなる。
The
次に、OCT光源220からの光路と参照光学系、分光器の構成について説明する。220はOCT光源、221は参照ミラー、222は分散補償用ガラス、223はレンズ、219は光カプラー、224から227は光カプラーに接続されて一体化しているシングルモードの光ファイバー、230は分光器である。これらの構成によってマイケルソン干渉系を構成している。OCT光源220から出射された光は、光ファイバー225を通じ、光カプラー219を介して光ファイバー224側の測定光と、光ファイバー226側の参照光とに分割される。測定光は前述のOCT光学系光路を通じ、観察対象である被検眼200に照射され、被検眼による反射や散乱により同じ光路を通じて光カプラー219に到達する。一方、参照光は光ファイバー226、レンズ223、測定光と参照光の分散を合わせるために挿入された分散補償ガラス222を介して参照ミラー221に到達し反射される。そして同じ光路を戻り光カプラー219に到達する。光カプラー219によって、測定光と参照光は合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。参照ミラー221は、不図示のモータおよび駆動機構によって光軸方向に調整可能に保持され、被検眼200によって変わる測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー227を介して分光器230に導かれる。また、228は、光ファイバー224中に設けられた測定光側の偏光調整部である。229は、光ファイバー226中に設けられた参照光側の偏光調整部である。これらの偏光調整部は光ファイバーをループ状にひきまわした部分を幾つか持っている。このループ状の部分をファイバーの長手方向を中心として回動させることでファイバーに捩じりを加え、測定光と参照光の偏光状態を各々調整して合わせることが可能なものである。分光器230はレンズ232、234、回折格子233、ラインセンサ231から構成される。光ファイバー227から出射された干渉光はレンズ234を介して平行光となった後、回折格子233で分光され、レンズ232によってラインセンサ231に結像される。
Next, the configuration of the optical path from the OCT light source 220, the reference optical system, and the spectroscope will be described. 220 is an OCT light source, 221 is a reference mirror, 222 is a dispersion compensating glass, 223 is a lens, 219 is an optical coupler, 224 to 227 are single-mode optical fibers connected and integrated to the optical coupler, 230 is a spectroscope is there. The Michelson interference system is configured by these configurations. The light emitted from the OCT light source 220 is divided through the
次に、OCT光源220の周辺について説明する。OCT光源220は、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。中心波長は855nm、波長バンド幅は約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。光源の種類は、ここではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等を用いることができる。中心波長は眼を測定することを鑑みると近赤外光が適する。また、中心波長は得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。双方の理由から中心波長855nmとした。本実施例では、干渉系としてマイケルソン干渉系を用いたが、マッハツェンダー干渉系を用いても良い。測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉系を、光量差が比較的小さい場合にはマイケルソン干渉系を用いることが望ましい。 Next, the periphery of the OCT light source 220 will be described. The OCT light source 220 is SLD (Super Luminescent Diode) which is a typical low coherent light source. The central wavelength is 855 nm, and the wavelength bandwidth is about 100 nm. Here, the bandwidth is an important parameter because it affects the resolution in the optical axis direction of the obtained tomographic image. Although the SLD is selected as the type of light source here, low coherent light may be emitted, and ASE (Amplified Spontaneous Emission) or the like can be used. The central wavelength is preferably near infrared light in view of measuring the eye. In addition, since the central wavelength affects the lateral resolution of the obtained tomographic image, it is desirable that the central wavelength be as short as possible. The center wavelength is 855 nm for both reasons. In the present embodiment, the Michelson interference system is used as the interference system, but a Mach-Zehnder interference system may be used. It is desirable to use a Mach-Zehnder interference system when the light amount difference is large and a Michelson interference system when the light amount difference is relatively small according to the light amount difference between the measurement light and the reference light.
以上のような構成により、被検眼の断層画像を取得することができ、かつ、近赤外光であってもコントラストの高い被検眼のSLO眼底像を取得することができる。 With the above-described configuration, a tomographic image of the eye to be examined can be acquired, and even with near-infrared light, an SLO fundus image of the eye to be inspected having high contrast can be acquired.
(断層画像の撮像方法)
光干渉断層撮影装置を用いた断層画像の撮像方法について説明する。光干渉断層撮影装置はXYスキャナ216を制御することで、被検眼200の所定部位の断層画像を撮像することができる。ここで、断層像取得光を被検眼中で走査する軌跡のことをスキャンパターン(走査パターン)と呼ぶ。このスキャンパターンには、例えば、一点を中心として縦横十字にスキャンするクロススキャンや、エリア全体を塗りつぶすようにスキャンし結果として3次元断層画像を得る3Dスキャンなどがある。特定の部位に対して詳細な観察を行いたい場合はクロススキャンが適しており、網膜全体の層構造や層厚を観察したい場合は3Dスキャンが適している。
(Imaging method of tomographic image)
A method of imaging a tomographic image using an optical coherence tomography apparatus will be described. The optical coherence tomography apparatus can capture a tomographic image of a predetermined part of the
ここでは、3Dスキャンを実行した場合の撮像方法を説明する。まず、図中X方向に測定光のスキャン(走査)を行い、被検眼におけるX方向の撮像範囲から所定の撮像本数の情報をラインセンサ231で撮像する。取得部は、X方向のある位置で得られるラインセンサ231上の輝度分布を高速フーリエ変換(Fast Fourier Transform:FFT)し、FFTで得られた線状の輝度分布をモニタ106に示すために濃度情報に変換する。これをAスキャン画像と呼ぶ。また、この複数のAスキャン画像を並べた2次元の画像をBスキャン画像と呼ぶ。1つのBスキャン画像を構成するための複数のAスキャン画像を撮像した後、Y方向のスキャン位置を移動させて再びX方向のスキャンを行うことにより、複数のBスキャン画像を得る。複数のBスキャン画像、あるいは複数のBスキャン画像から構築した3次元断層画像をモニタ106に表示することで、検者が被検眼の診断を行うことができる。ここでは、X方向のBスキャン画像を複数得ることで3次元断層画像(3次元画像データ)を得る例を示したが、Y方向のBスキャン画像を複数得ることで3次元断層画像を得てもよい。
Here, an imaging method when 3D scanning is performed will be described. First, scanning (scanning) of measurement light is performed in the X direction in the drawing, and information of a predetermined number of imagings is imaged by the
(部分画像の指定)
また、本実施例では、図3に示すように、指定部は、視神経乳頭部の深層に存在する篩状板A3の観察を目的とするため、篩状板を含む部分画像(部分画像データ)を指定する。このとき、指定部は、既知の視神経乳頭部の検出アルゴリズムを使用することにより、3次元画像データの一部である部分画像を自動選択することができる。すなわち、指定部は、3次元画像データを解析することにより、部分画像データを自動的に指定することができる。また、指定部は、ユーザの操作により部分画像データを手動指定しても良い。すなわち、指定部は、ユーザの操作に応じて、部分画像データを指定しても良い。
(Specifying a partial image)
Further, in the present embodiment, as shown in FIG. 3, the designation unit aims to observe the lamina crib A3 present in the deep layer of the optic disc, and thus a partial image (partial image data) including the lamina crib Specify At this time, the designation unit can automatically select a partial image which is a part of three-dimensional image data by using a known detection algorithm of the optic disc. That is, the specification unit can automatically specify partial image data by analyzing three-dimensional image data. Further, the designation unit may manually designate partial image data by the operation of the user. That is, the designation unit may designate partial image data in accordance with the user's operation.
(層境界の抽出)
また、形成部は、Bスキャン画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して、画像を生成する。生成された画像をそれぞれ、メディアン画像、Sobel画像と称する。次に、メディアン画像とSobel画像から、Aスキャンごとにプロファイルを生成する。メディアン画像では、輝度値のプロファイル、Sobel画像では、勾配のプロファイルが生成される。そして、Sobel画像から生成したプロファイル内のピークを抽出する。抽出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することにより、網膜層の各領域の境界を抽出する。ここで、本実施例では、層境界抽出部は、図3に示すように、内境界膜(ILM)L1、神経線維層(NFL)A1の境界L2、網膜色素上皮層(RPE)の境界L3、L4を抽出する。
(Extraction of layer boundary)
Also, the forming unit applies a median filter and a Sobel filter to the B-scan image to generate an image. The generated images are referred to as median image and Sobel image, respectively. Next, a profile is generated for each A scan from the median image and the Sobel image. For median images, profiles of intensity values are generated, and for Sobel images, profiles of gradients are generated. Then, the peaks in the profile generated from the Sobel image are extracted. The boundary of each region of the retinal layer is extracted by referring to the profile of the median image corresponding to the front and back of the extracted peak or between the peaks. Here, in the present embodiment, as shown in FIG. 3, the layer boundary extraction unit includes the inner limiting membrane (ILM) L1, the boundary L2 of the nerve fiber layer (NFL) A1, and the boundary L3 of the retinal pigment epithelial layer (RPE). , L4 to extract.
(層境界の端部の特定)
また、断面設定部は、各Bスキャン画像において、抽出した層境界の端部を特定する。ここで、本実施例では、断面設定部は、図3に示すように、層境界の端部として、ブルッフ膜オープニング(BMO)P1、P2を特定する。このとき、ILM・L1、RPEの境界L4を用いて、視神経乳頭陥凹部を特定する。視神経乳頭陥凹部の特徴として、NFL)A1が存在しないこと、ILM・L1の形状が、深部方向(図3のz方向)に大きな勾配を持つことが挙げられる。そこで、各Aスキャンとその周辺Aスキャンを含めた局所領域を設定し、その局所領域内のNFL・A1の存在状況と、ILM・L1の深部方向への勾配を算出し、視神経乳頭陥凹部の中心付近の点を特定する。ここで、視神経乳頭陥没部の中心付近の点は、特定された視神経乳頭部に関する情報の一例である。また、各Bスキャン画像において、視神経乳頭陥凹部に近い、RPEの境界L4の点を、全てのBスキャン画像においてつなぐことで、Cスキャン方向で見た場合に楕円形状となるRPE領域を設定する。それを初期位置として、SnakesやLevelSetのような動的輪郭モデルを適用することで、各Bスキャン画像において、BMO端P1、P2を特定する。次に、先ほど特定したBMO端P1、P2から、エッジ成分を視神経乳頭陥凹部の中心に向かってトレースすることで、BMO端P1、P2の正確な位置を特定する。
(Identify the end of the layer boundary)
In addition, the cross-section setting unit specifies an end of the extracted layer boundary in each B-scan image. Here, in the present embodiment, as shown in FIG. 3, the cross-sectional setting unit specifies Bruch's membrane openings (BMO) P1 and P2 as the end of the layer boundary. At this time, the optic disc depression is identified using the boundary L4 of ILM · L1 and RPE. The features of the optic disc depression include the absence of NFL A1 and the shape of ILM L1 having a large gradient in the depth direction (z direction in FIG. 3). Therefore, a local region including each A scan and its peripheral A scan is set, and the existence status of NFL · A1 in the local region and the gradient of ILM · L1 in the depth direction are calculated. Identify points near the center. Here, a point near the center of the optic disc depression is an example of information on the identified optic disc. In addition, in each B scan image, by connecting the points of the RPE boundary L4 close to the optic disc depression in all the B scan images, an RPE region having an elliptical shape when viewed in the C scan direction is set. . The BMO ends P1 and P2 are specified in each B-scan image by applying an active contour model such as Snakes or LevelSet with the position as an initial position. Next, from the BMO ends P1 and P2 specified above, the edge component is traced toward the center of the optic disc recess, and the exact position of the BMO ends P1 and P2 is specified.
本実施例では、まず各BMO端について、座標値とエッジ成分を調べる。次に、各BMO端の位置を開始点として、視神経乳頭陥凹部の中心に向かってエッジをトレースしていく。トレースは、各BMO端の位置におけるエッジ成分を参照して、内側の近傍に存在するエッジ成分が一番近い位置に探索点を更新し、参照するエッジ成分も更新する。これを繰り返すことで、正確なBMO端を特定する。本実施例では、層境界の端部として、BMO端を使用したが、図3に示すNFL・A1の境界L2の端部P3、P4など、他の層境界の端部を使用しても良い。 In the present embodiment, first, coordinate values and edge components are examined for each BMO end. Next, with the position of each BMO end as a starting point, the edge is traced toward the center of the optic disc depression. The trace refers to the edge component at the position of each BMO end, updates the search point to the position where the edge component present in the inner neighborhood is closest, and also updates the referenced edge component. By repeating this, the correct BMO end is identified. In the present embodiment, the BMO end is used as the end of the layer boundary, but the end of another layer boundary such as the end P3, P4 of the boundary L2 of the NFL · A1 shown in FIG. 3 may be used. .
(断面の向きの設定)
また、断面設定部は、各Bスキャン画像において特定したBMO端から、断面の向きを設定する。すなわち、断面設定部は、特定された端部に関する情報を用いて断面の向きを設定する。ここで、本実施例では、断面設定部は、図4に示すように、最小二乗法を用いて、各Bスキャン画像において特定したBMO端からの距離の二乗の和が最少となるような断面の向きを設定する。なお、断面設定部は、各Bスキャン画像において特定したBMO端の内3点を選択し、選択した3点により形成される面の傾斜角度に関する情報を用いて断面の向きを設定しても良い。
(Setting the orientation of the cross section)
In addition, the cross section setting unit sets the direction of the cross section from the BMO end specified in each B scan image. That is, the cross section setting unit sets the direction of the cross section using the information on the identified end. Here, in the present embodiment, as shown in FIG. 4, the cross-section setting unit uses the least squares method to minimize the sum of squares of the distances from the BMO end specified in each B-scan image. Set the orientation of Note that the cross-section setting unit may select three points out of the BMO ends specified in each B-scan image, and set the direction of the cross-section using information on the inclination angle of the plane formed by the selected three points. .
(断面像データの形成と断面像データに基づく画像の表示)
また、断面設定部は、BMO端から設定した断面に対して、垂直に深部方向へ所定距離移動した断面を、断面の位置として設定する。そして、形成部は、設定された断面を表す断面像データを形成する。ここで、形成部は、篩状板A3の抽出が可能な場合、篩状板A3を抽出し、抽出した篩状板A3まで移動した断面を用いて、断面像データを形成しても良い。また、表示制御部は、形成された断面像データに基づく画像を、表示部106に表示させる。このとき、ユーザは表示部106に表示された画像を確認しながら、断面の位置及び向きの少なくとも1つを変更(修正)することもできる。すなわち、指定部は、形成された断面像データに基づく画像が表示部に表示されている状態において、ユーザの操作に応じて、断面の位置及び向きの少なくとも1つを変更することができる。
(Formation of cross-sectional image data and display of image based on cross-sectional image data)
Further, the cross-section setting unit sets a cross-section moved a predetermined distance in the depth direction perpendicular to the cross-section set from the BMO end as the position of the cross-section. Then, the forming unit forms cross-sectional image data representing the set cross section. Here, when the sieved plate A3 can be extracted, the forming unit may extract the sieved plate A3 and form cross-sectional image data using the cross section moved to the sieved plate A3 extracted. Further, the display control unit causes the
(処理フロー)
本実施例の処理フローを、図5のフローチャートで説明する。まず、ステップS501では、図3に示すように、指定部は、視神経乳頭部の深層に存在する篩状板A3の観察を目的とするため、篩状板を含む部分画像を指定する。また、ステップS502では、図3に示すように、層境界抽出部は、内境界膜(ILM)L1、神経線維層(NFL)A1の境界L2、網膜色素上皮層(RPE)の境界L3、L4を抽出する。また、ステップS503では、断面設定部は、各Bスキャン画像において、抽出した層境界から、層境界の端部として、ブルッフ膜オープニング(BMO)P1、P2を特定する。また、ステップS504では、断面設定部は、各Bスキャン画像において特定したBMO端から、断面の向きを設定する。また、ステップS505では、形成部は、BMO端から設定した断面に対して、垂直に深部方向へ所定距離移動した断面を用いて、断面像データを形成する。また、ステップS506では、表示制御部は、形成された断面像データに基づく画像を表示部106に表示させる。
(Processing flow)
The processing flow of the present embodiment will be described with reference to the flowchart of FIG. First, in step S501, as shown in FIG. 3, the designation unit designates a partial image including a lamina cribosa plate for the purpose of observing the lamina cribrosa plate A3 present in the deep layer of the optic disc. In step S502, as shown in FIG. 3, the layer boundary extraction unit includes the inner limiting membrane (ILM) L1, the boundary L2 of the nerve fiber layer (NFL) A1, the boundaries L3 and L4 of the retinal pigment epithelial layer (RPE). Extract Further, in step S503, the cross-section setting unit specifies the Bruch film openings (BMO) P1 and P2 as the end of the layer boundary from the extracted layer boundary in each B-scan image. In step S504, the section setting unit sets the direction of the section from the end of the BMO specified in each B-scan image. Further, in step S505, the forming unit forms cross-sectional image data using a cross section moved a predetermined distance in the depth direction perpendicular to the cross section set from the BMO end. In step S506, the display control unit causes the
(正面画像の情報から層境界の端部を特定する)
図6に示すように、Bスキャン画像において、浅層の血管などの影響で、BMO端の特定が難しい場合がある。この場合、図6に示すように、プロジェクション画像、Enface画像、SLO画像などの正面画像の情報を用いて、BMO端を特定しても良い。まず、正面画像から、視神経乳頭領域A4を抽出する。視神経乳頭領域A4は、周囲よりも暗く、また、楕円形状をしているため、閾値処理、及び、楕円近似により、視神経乳頭領域の境界L5を抽出する。なお、視神経乳頭領域の境界L5は、特定された視神経乳頭部に関する情報の一例である。また、正面画像上で、Bスキャン画像に対応する位置P5、P6を特定する。また、Bスキャン画像上で、正面画像上で特定したP5、P6に対応する位置に、破線L6、L7を設定する。ここで、層境界の端部の特定と同様に、RPEの境界L4の点に対して、座標値とエッジ成分を調べ、視神経乳頭陥凹部の中心に向かってエッジをトレースしていく。そして、浅層の血管などの影響で、トレースできなくなる個所までトレースした後、その直前までのトレース方向と、破線L6、L7との交点を抽出する。この方法により、正確なBMO端の特定ができない場合でも、BMO端の概略位置を特定できる。
(Identify the end of the layer boundary from the information of the frontal image)
As shown in FIG. 6, in the B-scan image, identification of the BMO end may be difficult due to the influence of blood vessels in the shallow layer and the like. In this case, as shown in FIG. 6, the BMO end may be specified using information of a front image such as a projection image, an Enface image, or an SLO image. First, the optic disc region A4 is extracted from the front image. Since the optic disc region A4 is darker than the surrounding area and has an elliptical shape, the boundary L5 of the optic disc region is extracted by thresholding and elliptical approximation. The boundary L5 of the optic disc region is an example of information regarding the identified optic papilla. Further, positions P5 and P6 corresponding to the B-scan image are specified on the front image. Further, broken lines L6 and L7 are set at positions corresponding to P5 and P6 specified on the front image on the B-scan image. Here, similar to the specification of the end of the layer boundary, the coordinate value and the edge component are examined with respect to the point of the boundary L4 of the RPE, and the edge is traced toward the center of the optic disc depression. Then, after tracing to a point where tracing can not be performed due to the influence of blood vessels in the shallow layer, and the like, tracing points immediately before that point and the intersection points of the broken lines L6 and L7 are extracted. By this method, even if accurate BMO end identification can not be performed, the approximate position of the BMO end can be identified.
また、断面の向きの設定では、最小二乗法を用いて、特定したBMO端からの距離の二乗の和が最少となるような断面の向きを設定している。このため、一部のBMO端が正確に特定できないが、概略位置を使用したとしても、断面設定において大きな影響はない。また、BMO端の概略位置を使用することにより、最適な断面が設定できなかった場合でも、最適な断面に近い断面となっているため、表示部106に表示された断面像データを確認し、ユーザにより最適な断面に変更することができる。
Further, in the setting of the orientation of the cross section, the least square method is used to set the orientation of the cross section such that the sum of squares of distances from the specified BMO end is minimized. For this reason, although some BMO ends can not be identified accurately, even if the approximate position is used, there is no significant influence on the cross section setting. In addition, even if the optimal cross section can not be set by using the approximate position of the BMO end, the cross section is close to the optimal cross section, so cross-sectional image data displayed on the
(その他の実施例)
ここで、本実施例では、SD−OCTで説明したが、SS−OCTでも同様に構成できる。なお、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理についても本発明の一形態を構成する。
(Other embodiments)
Here, in the present embodiment, SD-OCT has been described, but SS-OCT can be configured in the same manner. The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. The processing to be performed also constitutes an aspect of the present invention.
Claims (19)
前記被検眼の特定部位に相当する前記3次元画像データの一部である部分画像データを指定するための指定部と、
前記部分画像データを用いて前記3次元画像データに対して断面を設定する断面設定部と、
を有し、
前記断面設定部は、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定することを特徴とする光干渉断層撮影装置。 An acquisition unit that acquires three-dimensional image data of an eye to be examined by using optical coherence tomography;
A designation unit for designating partial image data which is a part of the three-dimensional image data corresponding to a specific part of the eye to be examined;
A cross section setting unit that sets a cross section for the three-dimensional image data using the partial image data;
Have
The cross section setting unit specifies an end of a layer boundary of the eye to be examined in the three-dimensional image data, and sets an orientation of the cross section using information on the specified end. Tomography device.
前記断面像データに基づく画像を表示部に表示させる表示制御部と、
を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の光干渉断層撮影装置。 A forming unit for forming cross-sectional image data representing the set cross section;
A display control unit that causes a display unit to display an image based on the cross-sectional image data;
The optical coherence tomography apparatus according to any one of claims 1 to 6, further comprising:
前記断面設定部は、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定することを特徴とする画像処理装置。 It has a cross-section setting unit that sets a cross-section for the three-dimensional image data using partial image data that is a part of the three-dimensional image data of an eye to be examined obtained by using optical coherence tomography.
The cross section setting unit identifies an end of a layer boundary of the eye to be examined in the three-dimensional image data, and sets an orientation of the cross section using information on the identified end. apparatus.
前記断面像データに基づく画像を表示部に表示させる表示制御部と、
を更に有することを特徴とする請求項13または14に記載の画像処理装置。 A forming unit for forming cross-sectional image data representing the set cross section;
A display control unit that causes a display unit to display an image based on the cross-sectional image data;
The image processing apparatus according to claim 13, further comprising:
前記断面を設定する工程では、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定することを特徴とする画像処理方法。 Setting a cross section for the three-dimensional image data using partial image data that is a part of the three-dimensional image data of the subject eye obtained by using optical coherence tomography,
In the step of setting the cross section, the end of the layer boundary of the eye to be examined in the three-dimensional image data is specified, and the direction of the cross is set using information on the specified end. Image processing method.
前記断面像データに基づく画像を表示部に表示させる工程と、
を更に有することを特徴とする請求項16または17に記載の画像処理方法。 Forming cross-sectional image data representing the set cross section;
Displaying an image based on the cross-sectional image data on a display unit;
The image processing method according to claim 16, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017206270A JP7013201B2 (en) | 2017-10-25 | 2017-10-25 | Optical coherence tomography equipment, image processing equipment and methods thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017206270A JP7013201B2 (en) | 2017-10-25 | 2017-10-25 | Optical coherence tomography equipment, image processing equipment and methods thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019076445A true JP2019076445A (en) | 2019-05-23 |
JP2019076445A5 JP2019076445A5 (en) | 2021-07-26 |
JP7013201B2 JP7013201B2 (en) | 2022-01-31 |
Family
ID=66628477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017206270A Active JP7013201B2 (en) | 2017-10-25 | 2017-10-25 | Optical coherence tomography equipment, image processing equipment and methods thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7013201B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014050754A (en) * | 2013-12-11 | 2014-03-20 | Canon Inc | Image processor, image processing method and program |
JP2014087688A (en) * | 2013-12-27 | 2014-05-15 | Canon Inc | Image processor and control method thereof |
JP2015033397A (en) * | 2013-08-07 | 2015-02-19 | キヤノン株式会社 | Image processing device, image processing method and program |
JP2016028666A (en) * | 2014-07-23 | 2016-03-03 | 国立大学法人東北大学 | Fundus analysis device and fundus observation device |
JP2016105912A (en) * | 2016-03-16 | 2016-06-16 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2016152962A (en) * | 2016-04-18 | 2016-08-25 | キヤノン株式会社 | Image processor, method for controlling image processor, ophthalmologic apparatus, method for controlling ophthalmologic apparatus, image processing program, and photographing control program |
JP2016179402A (en) * | 2013-05-30 | 2016-10-13 | 株式会社トプコン | Ophthalmic imaging apparatus, ophthalmic image display apparatus and ophthalmic image processor |
-
2017
- 2017-10-25 JP JP2017206270A patent/JP7013201B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016179402A (en) * | 2013-05-30 | 2016-10-13 | 株式会社トプコン | Ophthalmic imaging apparatus, ophthalmic image display apparatus and ophthalmic image processor |
JP2015033397A (en) * | 2013-08-07 | 2015-02-19 | キヤノン株式会社 | Image processing device, image processing method and program |
JP2014050754A (en) * | 2013-12-11 | 2014-03-20 | Canon Inc | Image processor, image processing method and program |
JP2014087688A (en) * | 2013-12-27 | 2014-05-15 | Canon Inc | Image processor and control method thereof |
JP2016028666A (en) * | 2014-07-23 | 2016-03-03 | 国立大学法人東北大学 | Fundus analysis device and fundus observation device |
JP2016105912A (en) * | 2016-03-16 | 2016-06-16 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2016152962A (en) * | 2016-04-18 | 2016-08-25 | キヤノン株式会社 | Image processor, method for controlling image processor, ophthalmologic apparatus, method for controlling ophthalmologic apparatus, image processing program, and photographing control program |
Non-Patent Citations (2)
Title |
---|
KIM, Y.W., ET AL: "Peripheral lamina cribrosa depth in primary open-angle glaucoma: a swept-source optical coherence to", EYE, vol. 29, no. 10, JPN6021025001, October 2015 (2015-10-01), pages 1368 - 1374, ISSN: 0004537039 * |
OMODAKA, K., ET AL: "Clinical Factors Associated with Lamina Cribrosa Thickness in Patients with Glaucoma, as Measured wi", PLOS ONE, vol. 11, no. 4, JPN6021025002, 21 April 2016 (2016-04-21), pages 0153707, ISSN: 0004537038 * |
Also Published As
Publication number | Publication date |
---|---|
JP7013201B2 (en) | 2022-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5483873B2 (en) | Optical tomographic imaging apparatus and optical tomographic imaging method | |
JP5842330B2 (en) | Fundus photocoagulation laser device | |
KR101506526B1 (en) | Ophthalmologic apparatus and control method therefor | |
JP6009935B2 (en) | Ophthalmic equipment | |
JP6415030B2 (en) | Image processing apparatus, image processing method, and program | |
JP2018019771A (en) | Optical coherence tomography device and optical coherence tomography control program | |
JP2017131550A (en) | Mage processing device and image processing method | |
JP2022176282A (en) | Ophthalmologic apparatus and control method thereof | |
JP6375760B2 (en) | Optical coherence tomography apparatus and fundus image processing program | |
JP2017158836A (en) | Ophthalmologic apparatus and imaging method | |
JP2019088382A (en) | Image processing device, ophthalmologic imaging device, image processing method, and program | |
JP2016055122A (en) | Optical coherence tomography device, oct analysis processor and program | |
JP6606846B2 (en) | OCT signal processing apparatus and OCT signal processing program | |
JP6429448B2 (en) | Ophthalmic apparatus, comparison method and program | |
JP5990932B2 (en) | Ophthalmic tomographic imaging system | |
JP5987355B2 (en) | Ophthalmic tomographic imaging system | |
JP7162553B2 (en) | Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program | |
JP2020054812A (en) | Image processing device, image processing method and program | |
JP6166509B2 (en) | Imaging apparatus and imaging method | |
JP6788397B2 (en) | Image processing device, control method of image processing device, and program | |
US20210049742A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP6888643B2 (en) | OCT analysis processing device and OCT data processing program | |
JP7246862B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE | |
JP2018114121A (en) | Information processing device, information processing method and program | |
JP7013201B2 (en) | Optical coherence tomography equipment, image processing equipment and methods thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201022 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220119 |