JP2019076445A - Optical coherence tomographic apparatus, image processing apparatus, and image processing method - Google Patents

Optical coherence tomographic apparatus, image processing apparatus, and image processing method Download PDF

Info

Publication number
JP2019076445A
JP2019076445A JP2017206270A JP2017206270A JP2019076445A JP 2019076445 A JP2019076445 A JP 2019076445A JP 2017206270 A JP2017206270 A JP 2017206270A JP 2017206270 A JP2017206270 A JP 2017206270A JP 2019076445 A JP2019076445 A JP 2019076445A
Authority
JP
Japan
Prior art keywords
cross
image data
section
eye
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017206270A
Other languages
Japanese (ja)
Other versions
JP2019076445A5 (en
JP7013201B2 (en
Inventor
櫛田 晃弘
Akihiro Kushida
晃弘 櫛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017206270A priority Critical patent/JP7013201B2/en
Publication of JP2019076445A publication Critical patent/JP2019076445A/en
Publication of JP2019076445A5 publication Critical patent/JP2019076445A5/ja
Application granted granted Critical
Publication of JP7013201B2 publication Critical patent/JP7013201B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To accurately orientate a cross section of a specific portion of a sieve-like plate, etc.SOLUTION: An optical coherence tomographic apparatus includes a cross-section setting unit which uses partial image data, a portion of three-dimensional image data of a subject eye acquired using optical coherence tomography to set a cross section to the three-dimensional image data. The cross-section setting unit identifies an end part of a layer boundary of the subject eye in the three-dimensional image data, and sets the orientation of the cross section using information relevant to the identified end part.SELECTED DRAWING: Figure 3

Description

本発明は、光干渉断層撮影装置、画像処理装置及びその方法に関するものである。   The present invention relates to an optical coherence tomography apparatus, an image processing apparatus, and a method thereof.

現在、光学機器を用いた眼科用機器として、様々なものが使用されている。例えば、眼を観察する光学機器として、前眼部撮影装置、眼底カメラ、共焦点レーザー走査検眼鏡(Scanning Laser Ophthalmoscope:SLO)等、様々な機器が使用されている。中でも、多波長光波干渉を利用した光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)による光干渉断層撮影装置は、試料の断層像を高解像度に得ることができる装置である。このため、眼科用機器として網膜の専門外来では必要不可欠な装置になりつつある。また、眼科用だけでなく、内視鏡等にも利用されている。以下、これをOCT装置と記す。OCT装置は眼科診断等において、被検眼の眼底における網膜の断層像や、角膜などの前眼部の断層像を取得するために広く利用されている。   At present, various types of ophthalmic instruments using optical instruments are used. For example, as an optical apparatus for observing an eye, various apparatuses such as an anterior segment imaging apparatus, an eye fundus camera, a confocal laser scanning ophthalmoscope (SLO), and the like are used. Among them, an optical coherence tomography apparatus based on optical coherence tomography (OCT) using multi-wavelength light wave interference is an apparatus capable of obtaining a tomographic image of a sample with high resolution. For this reason, it is becoming an indispensable device in the specialist outpatient department of the retina as an ophthalmic apparatus. Moreover, it is used not only for ophthalmology but also for endoscopes and the like. Hereinafter, this is referred to as an OCT apparatus. The OCT apparatus is widely used in ophthalmologic diagnosis and the like to acquire a tomogram of a retina on the fundus of an eye to be examined and a tomogram of an anterior segment such as a cornea.

OCT装置は、低コヒーレント光である測定光を、参照光と測定光に分け、測定光を被検査物に照射し、その被検査物からの戻り光と参照光を干渉させ、その干渉光のスペクトル情報から被検査物の断層を測定することができる。現在のOCT装置では、上記の干渉光のスペクトル情報から奥行き方向の情報を得ることができるスペクトラムドメインOCT(Spectrum Domain OCT:SD−OCT)が一般的に利用されている。さらに、発振波長を変えることができる波長可変光源装置を光源として使用した波長掃引OCT(Swept Source OCT:SS−OCT)も利用されている。SD−OCTとSS−OCTは、総称してフーリエドメインOCT(Fourier Domain OCT:FD−OCT)と呼ばれている。   The OCT apparatus divides measurement light, which is low coherent light, into reference light and measurement light, irradiates the measurement light to the object to be inspected, causes the return light from the object to be inspected to interfere with the reference light, and It is possible to measure the fault of the object from the spectral information. In current OCT apparatuses, spectrum domain OCT (SD-OCT) that can obtain information in the depth direction from the spectrum information of the interference light described above is generally used. Furthermore, wavelength sweeping OCT (Swept Source OCT: SS-OCT) using a wavelength variable light source device capable of changing the oscillation wavelength as a light source is also used. SD-OCT and SS-OCT are collectively referred to as Fourier domain OCT (FD-OCT).

ここで、被検眼の眼底の視神経乳頭領域にある篩状板の観察は、緑内障などの眼科診断に有用である。このため、篩状板領域を手動指定、または自動検出することにより、篩状板の断面の位置及び向きを設定する技術が、特許文献1に開示されている。   Here, the observation of the lamina cribrosa in the optic disc region of the fundus of the eye to be examined is useful for ophthalmologic diagnosis such as glaucoma. Therefore, Patent Document 1 discloses a technique for setting the position and orientation of the cross section of the sieve plate by manually specifying the sieve plate area or automatically detecting the sieve plate area.

特開2016−179402号公報JP, 2016-179402, A

このとき、断層像において篩状板が精度良く撮像されない場合がある。このような場合には、断層像において篩状板領域を手動指定することや、自動検出すること自体が難しいため、篩状板の断面の向きを設定することも難しい。   At this time, the sieved plate may not be imaged with high accuracy in the tomographic image. In such a case, it is also difficult to set the direction of the cross section of the sieve plate, since it is difficult to manually designate the sieve plate region in the tomographic image or to automatically detect the sieve region itself.

本発明の目的の一つは、篩状板等の特定部位の断面の向きを精度良く設定することである。   One of the objects of the present invention is to accurately set the direction of the cross section of a specific part such as a sieve plate.

上記目的を達成するため、本発明に係る光干渉断層撮影装置の一つは、
光コヒーレンストモグラフィを用いることにより被検眼の3次元画像データを取得する取得部と、
前記被検眼の特定部位に相当する前記3次元画像データの一部である部分画像データを指定するための指定部と、
前記部分画像データを用いて前記3次元画像データに対して断面を設定する断面設定部と、
を有し、
前記断面設定部は、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定する。
In order to achieve the above object, one of the optical coherence tomography apparatuses according to the present invention is
An acquisition unit that acquires three-dimensional image data of an eye to be examined by using optical coherence tomography;
A designation unit for designating partial image data which is a part of the three-dimensional image data corresponding to a specific part of the eye to be examined;
A cross section setting unit that sets a cross section for the three-dimensional image data using the partial image data;
Have
The cross-section setting unit specifies an end of a layer boundary of the eye to be examined in the three-dimensional image data, and sets an orientation of the cross-section using information on the specified end.

本発明の一つによれば、篩状板等の特定部位の断面の向きを精度良く設定することができる。   According to one of the present invention, the direction of the cross section of a specific part such as a sieve plate can be set with high accuracy.

本実施例の全体構成図である。It is a whole block diagram of a present Example. 本実施例の測定光学系の説明図である。It is explanatory drawing of the measurement optical system of a present Example. 本実施例で検出する層境界の端部の説明図である。It is explanatory drawing of the edge part of the layer boundary detected in a present Example. 本実施例で層境界の端部から断面を設定する説明図である。It is explanatory drawing which sets a cross section from the edge part of a layer boundary in a present Example. 本実施例のフローチャートである。It is a flowchart of a present Example. 本実施例で正面画像の情報から層境界の端部を抽出する説明図である。It is explanatory drawing which extracts the edge part of a layer boundary from the information of a front image in a present Example.

本発明を図示の実施例に基づいて詳細に説明する。   The present invention will be described in detail based on the illustrated embodiments.

(本体構成)
図1は、本実施例における光干渉断層撮影装置の側面図である。100は、前眼部像、被検眼のSLO眼底像、断層画像を取得するための測定光学系である。101は、測定光学系100を前後左右に移動可能としたステージ部である。102は、後述の分光器を内蔵するベース部である。103は、ステージ部の制御、アライメント動作の制御、断層画像の構成などを行うパソコンである。104は、断層撮像用のプログラム、患者情報、撮影データ、正常データベースの統計情報などを記憶する記憶部である。105は、パソコンへの指示を行う入力部であり、具体的にはキーボードとマウスから構成される。106は、モニタなどの表示部である。なお、パソコン103は、後述する取得部、指定部、断面設定部、形成部、表示制御部等の一例である。ここで、取得部は、光コヒーレンストモグラフィを用いることにより被検眼の3次元画像データを取得する。また、指定部は、被検眼の特定部位(例えば、篩状板)に相当する3次元画像データの一部である部分画像データを指定するためのものである。また、断面設定部は、部分画像データを用いて3次元画像データに対して断面を設定する。また、形成部は、設定された断面を表す断面像データを形成する。また、表示制御部は、断面像データに基づく画像を表示部106に表示させる。また、パソコンは、これらの各機能を実行する画像処理装置の一例である。なお、画像処理装置は、光干渉断層撮影装置と通信可能に接続されていれば良く、光干渉断層撮影装置の内部に組み込まれていても良い。
(Body configuration)
FIG. 1 is a side view of the optical coherence tomography in the present embodiment. Reference numeral 100 denotes a measurement optical system for acquiring an anterior segment image, an SLO fundus image of an eye to be examined, and a tomographic image. Reference numeral 101 denotes a stage unit capable of moving the measurement optical system 100 back and forth and right and left. Reference numeral 102 denotes a base unit incorporating a spectroscope described later. A personal computer 103 performs control of the stage unit, control of the alignment operation, and formation of a tomographic image. A storage unit 104 stores a tomographic imaging program, patient information, imaging data, statistical information of a normal database, and the like. Reference numeral 105 denotes an input unit for giving an instruction to the personal computer, and more specifically, the input unit 105 includes a keyboard and a mouse. Reference numeral 106 denotes a display unit such as a monitor. The personal computer 103 is an example of an acquisition unit, a designation unit, a cross section setting unit, a formation unit, a display control unit, and the like, which will be described later. Here, the acquisition unit acquires three-dimensional image data of the eye to be examined by using optical coherence tomography. Further, the designation unit is for designating partial image data which is a part of three-dimensional image data corresponding to a specific part (for example, a sieve plate) of an eye to be examined. Also, the cross-section setting unit sets a cross-section for three-dimensional image data using partial image data. Also, the forming unit forms cross-sectional image data representing the set cross section. In addition, the display control unit causes the display unit 106 to display an image based on the cross-sectional image data. A personal computer is an example of an image processing apparatus that executes each of these functions. The image processing apparatus may be connected to the optical coherence tomography apparatus in a communicable manner, and may be incorporated inside the optical interference tomography apparatus.

(測定光学系および分光器の構成)
本実施例の測定光学系、及び、分光器の構成について図2を用いて説明する。まず、測定光学系100の内部について説明する。被検眼200に対向して対物レンズ201が設置され、その光軸上に第1ダイクロイックミラー202および第2ダイクロイックミラー203が配置されている。これらのダイクロイックミラーによってOCT光学系の光路250、被検眼の観察とSLO眼底像の取得とを兼ねるSLO光学系と固視灯用の光路251、及び、前眼観察用の光路252とに波長帯域ごとに分岐される。SLO光学系と固視灯用の光路251は、SLO走査手段204、レンズ205、206、ミラー207、第3ダイクロイックミラー208、フォトダイオード209、SLO光源210、固視灯211を有している。ミラー207は、穴あきミラーや中空のミラーが蒸着されたプリズムであり、SLO光源210による照明光と、被検眼からの戻り光とを分離する。第3ダイクロイックミラー208はSLO光源210および固視灯211への光路へと波長帯域ごとに分離する。SLO走査手段204は、SLO光源210と固視灯211から発せられた光を被検眼200上で走査するものであり、X方向に走査するXスキャナ、Y方向に走査するYスキャナから構成されている。本実施例では、Xスキャナは高速走査を行う必要があるためポリゴンミラーによって、Yスキャナはガルバノミラーによって構成されている。レンズ205はSLO光学系および固視灯の焦点合わせのため、不図示のモータによって駆動される。SLO光源210は780nm付近の波長の光を発生する。フォトダイオード209は、被検眼からの戻り光を検出する。固視灯211は可視光を発生して被検者の固視を促すものである。
(Configuration of measurement optical system and spectroscope)
The configuration of the measurement optical system and the spectroscope of this embodiment will be described with reference to FIG. First, the inside of the measurement optical system 100 will be described. An objective lens 201 is disposed to face the eye 200 to be examined, and a first dichroic mirror 202 and a second dichroic mirror 203 are disposed on the optical axis of the objective lens 201. With these dichroic mirrors, the optical path 250 of the OCT optical system, the SLO optical system that combines observation of the eye to be examined and acquisition of the SLO fundus image, the optical path 251 for the fixation lamp, and the optical path 252 for anterior eye observation It branches for every. The SLO optical system and the optical path 251 for the fixation lamp include SLO scanning means 204, lenses 205 and 206, a mirror 207, a third dichroic mirror 208, a photodiode 209, an SLO light source 210, and a fixation lamp 211. The mirror 207 is a prism on which a perforated mirror or a hollow mirror is vapor-deposited, and separates illumination light from the SLO light source 210 and return light from the eye to be examined. The third dichroic mirror 208 splits the wavelength path into the light path to the SLO light source 210 and the fixation lamp 211. The SLO scanning means 204 scans the light emitted from the SLO light source 210 and the fixation lamp 211 on the subject eye 200, and comprises an X scanner for scanning in the X direction and a Y scanner for scanning in the Y direction. There is. In this embodiment, since the X scanner needs to perform high-speed scanning, the Y scanner is configured by a galvano mirror by a polygon mirror. The lens 205 is driven by a motor (not shown) to focus the SLO optical system and the fixation lamp. The SLO light source 210 generates light of a wavelength near 780 nm. The photodiode 209 detects return light from the subject's eye. The fixation lamp 211 generates visible light to promote fixation of the subject.

SLO光源210から発せられた光は、第3ダイクロイックミラー208で反射され、ミラー207を通過し、レンズ206、205を通り、SLO走査手段204によって、被検眼200上で走査される。被検眼200からの戻り光は、投影光と同じ経路を戻った後、ミラー207によって反射され、フォトダイオード209へと導かれ、SLO眼底像が得られる。固視灯211から発せられた光は、第3ダイクロイックミラー208、ミラー207を透過し、レンズ206、205を通り、SLO走査手段204によって、被検眼200上で走査される。この時、SLO走査手段の動きに合わせて固視灯211を点滅させることによって、被検眼200上の任意の位置に任意の形状をつくり、被検者の固視を促す。   The light emitted from the SLO light source 210 is reflected by the third dichroic mirror 208, passes through the mirror 207, passes through the lenses 206 and 205, and is scanned on the subject eye 200 by the SLO scanning means 204. The return light from the subject eye 200 returns along the same path as the projection light, is reflected by the mirror 207, is guided to the photodiode 209, and an SLO fundus image is obtained. The light emitted from the fixation lamp 211 passes through the third dichroic mirror 208 and the mirror 207, passes through the lenses 206 and 205, and is scanned on the subject eye 200 by the SLO scanning unit 204. At this time, by causing the fixation lamp 211 to blink in accordance with the movement of the SLO scanning means, an arbitrary shape is formed at an arbitrary position on the subject's eye 200 to promote fixation of the subject.

前眼観察用の光路252には、レンズ212、213、スプリットプリズム214、赤外光を検知する前眼部観察用のCCD215が配置されている。このCCD215は、不図示の前眼観察用照射光の波長、具体的には970nm付近に感度を持つものである。スプリットプリズム214は、被検眼200の瞳孔と共役な位置に配置されており、被検眼200に対する測定光学系100のZ方向(前後方向)の距離を、前眼部のスプリット像として検出することができる。   In an optical path 252 for anterior eye observation, lenses 212 and 213, a split prism 214, and a CCD 215 for anterior eye portion observation for detecting infrared light are disposed. The CCD 215 is sensitive to the wavelength of the irradiation light for anterior eye observation (not shown), specifically, around 970 nm. The split prism 214 is disposed at a position conjugate to the pupil of the subject eye 200, and can detect the distance in the Z direction (front-back direction) of the measurement optical system 100 to the subject eye 200 as a split image of the anterior segment. it can.

OCT光学系の光路250は、前述の通りOCT光学系を成しており、被検眼200の断層画像を撮像するためのものである。より具体的には、断層画像を形成するための干渉信号を得るものである。216は光を被検眼上で走査するためのXYスキャナである。XYスキャナ216は1枚のミラーとして図示してあるが、XY2軸方向の走査を行うガルバノミラーである。217、218はレンズであり、そのうちレンズ217は、光カプラー219に接続されているファイバー224から出射するOCT光源220からの光を、被検眼200に焦点合わせするために不図示のモータによって駆動される。この焦点合わせによって、被検眼200からの戻り光は同時にファイバー224の先端に、スポット状に結像されて入射されることとなる。   The optical path 250 of the OCT optical system constitutes the OCT optical system as described above, and is for capturing a tomographic image of the eye 200 to be examined. More specifically, an interference signal for forming a tomographic image is obtained. An XY scanner 216 scans light on the subject's eye. Although the XY scanner 216 is illustrated as a single mirror, it is a galvano mirror that performs scanning in the XY two-axis direction. Reference numerals 217 and 218 denote lenses, of which the lens 217 is driven by a motor (not shown) to focus light from the OCT light source 220 emitted from the fiber 224 connected to the optical coupler 219 to the eye 200. Ru. By this focusing, the return light from the eye 200 to be examined is simultaneously imaged and incident on the tip of the fiber 224 in the form of a spot.

次に、OCT光源220からの光路と参照光学系、分光器の構成について説明する。220はOCT光源、221は参照ミラー、222は分散補償用ガラス、223はレンズ、219は光カプラー、224から227は光カプラーに接続されて一体化しているシングルモードの光ファイバー、230は分光器である。これらの構成によってマイケルソン干渉系を構成している。OCT光源220から出射された光は、光ファイバー225を通じ、光カプラー219を介して光ファイバー224側の測定光と、光ファイバー226側の参照光とに分割される。測定光は前述のOCT光学系光路を通じ、観察対象である被検眼200に照射され、被検眼による反射や散乱により同じ光路を通じて光カプラー219に到達する。一方、参照光は光ファイバー226、レンズ223、測定光と参照光の分散を合わせるために挿入された分散補償ガラス222を介して参照ミラー221に到達し反射される。そして同じ光路を戻り光カプラー219に到達する。光カプラー219によって、測定光と参照光は合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。参照ミラー221は、不図示のモータおよび駆動機構によって光軸方向に調整可能に保持され、被検眼200によって変わる測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー227を介して分光器230に導かれる。また、228は、光ファイバー224中に設けられた測定光側の偏光調整部である。229は、光ファイバー226中に設けられた参照光側の偏光調整部である。これらの偏光調整部は光ファイバーをループ状にひきまわした部分を幾つか持っている。このループ状の部分をファイバーの長手方向を中心として回動させることでファイバーに捩じりを加え、測定光と参照光の偏光状態を各々調整して合わせることが可能なものである。分光器230はレンズ232、234、回折格子233、ラインセンサ231から構成される。光ファイバー227から出射された干渉光はレンズ234を介して平行光となった後、回折格子233で分光され、レンズ232によってラインセンサ231に結像される。   Next, the configuration of the optical path from the OCT light source 220, the reference optical system, and the spectroscope will be described. 220 is an OCT light source, 221 is a reference mirror, 222 is a dispersion compensating glass, 223 is a lens, 219 is an optical coupler, 224 to 227 are single-mode optical fibers connected and integrated to the optical coupler, 230 is a spectroscope is there. The Michelson interference system is configured by these configurations. The light emitted from the OCT light source 220 is divided through the optical fiber 225 into measurement light on the optical fiber 224 side and reference light on the optical fiber 226 side via the optical coupler 219. The measurement light is irradiated to the eye 200 to be observed through the OCT optical system optical path described above, and reaches the optical coupler 219 through the same optical path by reflection and scattering by the eye. On the other hand, the reference light reaches and is reflected by the reference mirror 221 through the optical fiber 226, the lens 223, and the dispersion compensation glass 222 inserted to match the dispersion of the measurement light and the reference light. Then, the same light path is returned to reach the light coupler 219. The measurement light and the reference light are combined by the optical coupler 219 and become interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light become substantially the same. The reference mirror 221 is adjustably held in the optical axis direction by a motor and a drive mechanism (not shown), and can adjust the optical path length of the reference light to the optical path length of the measurement light which changes depending on the eye 200 to be examined. The interference light is guided to the spectroscope 230 via the optical fiber 227. Reference numeral 228 denotes a polarization adjustment unit provided in the optical fiber 224 on the measurement light side. Reference numeral 229 denotes a polarization adjustment unit on the reference light side provided in the optical fiber 226. These polarization control parts have some parts in which optical fibers are looped. By twisting the loop portion by rotating it around the longitudinal direction of the fiber, it is possible to apply twist to the fiber and adjust and match the polarization states of the measurement light and the reference light. The spectroscope 230 includes lenses 232 and 234, a diffraction grating 233, and a line sensor 231. The interference light emitted from the optical fiber 227 is collimated through the lens 234, and then separated by the diffraction grating 233 and imaged on the line sensor 231 by the lens 232.

次に、OCT光源220の周辺について説明する。OCT光源220は、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。中心波長は855nm、波長バンド幅は約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。光源の種類は、ここではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等を用いることができる。中心波長は眼を測定することを鑑みると近赤外光が適する。また、中心波長は得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。双方の理由から中心波長855nmとした。本実施例では、干渉系としてマイケルソン干渉系を用いたが、マッハツェンダー干渉系を用いても良い。測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉系を、光量差が比較的小さい場合にはマイケルソン干渉系を用いることが望ましい。   Next, the periphery of the OCT light source 220 will be described. The OCT light source 220 is SLD (Super Luminescent Diode) which is a typical low coherent light source. The central wavelength is 855 nm, and the wavelength bandwidth is about 100 nm. Here, the bandwidth is an important parameter because it affects the resolution in the optical axis direction of the obtained tomographic image. Although the SLD is selected as the type of light source here, low coherent light may be emitted, and ASE (Amplified Spontaneous Emission) or the like can be used. The central wavelength is preferably near infrared light in view of measuring the eye. In addition, since the central wavelength affects the lateral resolution of the obtained tomographic image, it is desirable that the central wavelength be as short as possible. The center wavelength is 855 nm for both reasons. In the present embodiment, the Michelson interference system is used as the interference system, but a Mach-Zehnder interference system may be used. It is desirable to use a Mach-Zehnder interference system when the light amount difference is large and a Michelson interference system when the light amount difference is relatively small according to the light amount difference between the measurement light and the reference light.

以上のような構成により、被検眼の断層画像を取得することができ、かつ、近赤外光であってもコントラストの高い被検眼のSLO眼底像を取得することができる。   With the above-described configuration, a tomographic image of the eye to be examined can be acquired, and even with near-infrared light, an SLO fundus image of the eye to be inspected having high contrast can be acquired.

(断層画像の撮像方法)
光干渉断層撮影装置を用いた断層画像の撮像方法について説明する。光干渉断層撮影装置はXYスキャナ216を制御することで、被検眼200の所定部位の断層画像を撮像することができる。ここで、断層像取得光を被検眼中で走査する軌跡のことをスキャンパターン(走査パターン)と呼ぶ。このスキャンパターンには、例えば、一点を中心として縦横十字にスキャンするクロススキャンや、エリア全体を塗りつぶすようにスキャンし結果として3次元断層画像を得る3Dスキャンなどがある。特定の部位に対して詳細な観察を行いたい場合はクロススキャンが適しており、網膜全体の層構造や層厚を観察したい場合は3Dスキャンが適している。
(Imaging method of tomographic image)
A method of imaging a tomographic image using an optical coherence tomography apparatus will be described. The optical coherence tomography apparatus can capture a tomographic image of a predetermined part of the eye 200 by controlling the XY scanner 216. Here, a trajectory of scanning the tomographic image acquisition light in the eye to be examined is called a scan pattern (scan pattern). The scan pattern includes, for example, a cross scan in which scanning is performed around a point in a cross direction, a 3D scan in which a scan is performed so as to fill the entire area, and a three-dimensional tomographic image is obtained as a result. Cross-scan is suitable for detailed observation at a specific site, and 3D scan is suitable for observing the layer structure or layer thickness of the entire retina.

ここでは、3Dスキャンを実行した場合の撮像方法を説明する。まず、図中X方向に測定光のスキャン(走査)を行い、被検眼におけるX方向の撮像範囲から所定の撮像本数の情報をラインセンサ231で撮像する。取得部は、X方向のある位置で得られるラインセンサ231上の輝度分布を高速フーリエ変換(Fast Fourier Transform:FFT)し、FFTで得られた線状の輝度分布をモニタ106に示すために濃度情報に変換する。これをAスキャン画像と呼ぶ。また、この複数のAスキャン画像を並べた2次元の画像をBスキャン画像と呼ぶ。1つのBスキャン画像を構成するための複数のAスキャン画像を撮像した後、Y方向のスキャン位置を移動させて再びX方向のスキャンを行うことにより、複数のBスキャン画像を得る。複数のBスキャン画像、あるいは複数のBスキャン画像から構築した3次元断層画像をモニタ106に表示することで、検者が被検眼の診断を行うことができる。ここでは、X方向のBスキャン画像を複数得ることで3次元断層画像(3次元画像データ)を得る例を示したが、Y方向のBスキャン画像を複数得ることで3次元断層画像を得てもよい。   Here, an imaging method when 3D scanning is performed will be described. First, scanning (scanning) of measurement light is performed in the X direction in the drawing, and information of a predetermined number of imagings is imaged by the line sensor 231 from the imaging range in the X direction in the eye to be examined. The acquisition unit performs Fast Fourier Transform (FFT) on the luminance distribution on the line sensor 231 obtained at a certain position in the X direction, and displays the linear luminance distribution obtained by the FFT on the monitor 106. Convert to information. This is called an A-scan image. Further, a two-dimensional image in which the plurality of A-scan images are arranged is referred to as a B-scan image. After capturing a plurality of A-scan images for constructing one B-scan image, a plurality of B-scan images are obtained by moving the scan position in the Y direction and performing the scan in the X direction again. By displaying a plurality of B-scan images or a three-dimensional tomographic image constructed from a plurality of B-scan images on the monitor 106, the examiner can diagnose the eye to be examined. Here, an example is shown in which a three-dimensional tomographic image (three-dimensional image data) is obtained by obtaining a plurality of B-scan images in the X direction, but a three-dimensional tomographic image is obtained by obtaining a plurality of B-scan images in the Y direction. It is also good.

(部分画像の指定)
また、本実施例では、図3に示すように、指定部は、視神経乳頭部の深層に存在する篩状板A3の観察を目的とするため、篩状板を含む部分画像(部分画像データ)を指定する。このとき、指定部は、既知の視神経乳頭部の検出アルゴリズムを使用することにより、3次元画像データの一部である部分画像を自動選択することができる。すなわち、指定部は、3次元画像データを解析することにより、部分画像データを自動的に指定することができる。また、指定部は、ユーザの操作により部分画像データを手動指定しても良い。すなわち、指定部は、ユーザの操作に応じて、部分画像データを指定しても良い。
(Specifying a partial image)
Further, in the present embodiment, as shown in FIG. 3, the designation unit aims to observe the lamina crib A3 present in the deep layer of the optic disc, and thus a partial image (partial image data) including the lamina crib Specify At this time, the designation unit can automatically select a partial image which is a part of three-dimensional image data by using a known detection algorithm of the optic disc. That is, the specification unit can automatically specify partial image data by analyzing three-dimensional image data. Further, the designation unit may manually designate partial image data by the operation of the user. That is, the designation unit may designate partial image data in accordance with the user's operation.

(層境界の抽出)
また、形成部は、Bスキャン画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して、画像を生成する。生成された画像をそれぞれ、メディアン画像、Sobel画像と称する。次に、メディアン画像とSobel画像から、Aスキャンごとにプロファイルを生成する。メディアン画像では、輝度値のプロファイル、Sobel画像では、勾配のプロファイルが生成される。そして、Sobel画像から生成したプロファイル内のピークを抽出する。抽出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することにより、網膜層の各領域の境界を抽出する。ここで、本実施例では、層境界抽出部は、図3に示すように、内境界膜(ILM)L1、神経線維層(NFL)A1の境界L2、網膜色素上皮層(RPE)の境界L3、L4を抽出する。
(Extraction of layer boundary)
Also, the forming unit applies a median filter and a Sobel filter to the B-scan image to generate an image. The generated images are referred to as median image and Sobel image, respectively. Next, a profile is generated for each A scan from the median image and the Sobel image. For median images, profiles of intensity values are generated, and for Sobel images, profiles of gradients are generated. Then, the peaks in the profile generated from the Sobel image are extracted. The boundary of each region of the retinal layer is extracted by referring to the profile of the median image corresponding to the front and back of the extracted peak or between the peaks. Here, in the present embodiment, as shown in FIG. 3, the layer boundary extraction unit includes the inner limiting membrane (ILM) L1, the boundary L2 of the nerve fiber layer (NFL) A1, and the boundary L3 of the retinal pigment epithelial layer (RPE). , L4 to extract.

(層境界の端部の特定)
また、断面設定部は、各Bスキャン画像において、抽出した層境界の端部を特定する。ここで、本実施例では、断面設定部は、図3に示すように、層境界の端部として、ブルッフ膜オープニング(BMO)P1、P2を特定する。このとき、ILM・L1、RPEの境界L4を用いて、視神経乳頭陥凹部を特定する。視神経乳頭陥凹部の特徴として、NFL)A1が存在しないこと、ILM・L1の形状が、深部方向(図3のz方向)に大きな勾配を持つことが挙げられる。そこで、各Aスキャンとその周辺Aスキャンを含めた局所領域を設定し、その局所領域内のNFL・A1の存在状況と、ILM・L1の深部方向への勾配を算出し、視神経乳頭陥凹部の中心付近の点を特定する。ここで、視神経乳頭陥没部の中心付近の点は、特定された視神経乳頭部に関する情報の一例である。また、各Bスキャン画像において、視神経乳頭陥凹部に近い、RPEの境界L4の点を、全てのBスキャン画像においてつなぐことで、Cスキャン方向で見た場合に楕円形状となるRPE領域を設定する。それを初期位置として、SnakesやLevelSetのような動的輪郭モデルを適用することで、各Bスキャン画像において、BMO端P1、P2を特定する。次に、先ほど特定したBMO端P1、P2から、エッジ成分を視神経乳頭陥凹部の中心に向かってトレースすることで、BMO端P1、P2の正確な位置を特定する。
(Identify the end of the layer boundary)
In addition, the cross-section setting unit specifies an end of the extracted layer boundary in each B-scan image. Here, in the present embodiment, as shown in FIG. 3, the cross-sectional setting unit specifies Bruch's membrane openings (BMO) P1 and P2 as the end of the layer boundary. At this time, the optic disc depression is identified using the boundary L4 of ILM · L1 and RPE. The features of the optic disc depression include the absence of NFL A1 and the shape of ILM L1 having a large gradient in the depth direction (z direction in FIG. 3). Therefore, a local region including each A scan and its peripheral A scan is set, and the existence status of NFL · A1 in the local region and the gradient of ILM · L1 in the depth direction are calculated. Identify points near the center. Here, a point near the center of the optic disc depression is an example of information on the identified optic disc. In addition, in each B scan image, by connecting the points of the RPE boundary L4 close to the optic disc depression in all the B scan images, an RPE region having an elliptical shape when viewed in the C scan direction is set. . The BMO ends P1 and P2 are specified in each B-scan image by applying an active contour model such as Snakes or LevelSet with the position as an initial position. Next, from the BMO ends P1 and P2 specified above, the edge component is traced toward the center of the optic disc recess, and the exact position of the BMO ends P1 and P2 is specified.

本実施例では、まず各BMO端について、座標値とエッジ成分を調べる。次に、各BMO端の位置を開始点として、視神経乳頭陥凹部の中心に向かってエッジをトレースしていく。トレースは、各BMO端の位置におけるエッジ成分を参照して、内側の近傍に存在するエッジ成分が一番近い位置に探索点を更新し、参照するエッジ成分も更新する。これを繰り返すことで、正確なBMO端を特定する。本実施例では、層境界の端部として、BMO端を使用したが、図3に示すNFL・A1の境界L2の端部P3、P4など、他の層境界の端部を使用しても良い。   In the present embodiment, first, coordinate values and edge components are examined for each BMO end. Next, with the position of each BMO end as a starting point, the edge is traced toward the center of the optic disc depression. The trace refers to the edge component at the position of each BMO end, updates the search point to the position where the edge component present in the inner neighborhood is closest, and also updates the referenced edge component. By repeating this, the correct BMO end is identified. In the present embodiment, the BMO end is used as the end of the layer boundary, but the end of another layer boundary such as the end P3, P4 of the boundary L2 of the NFL · A1 shown in FIG. 3 may be used. .

(断面の向きの設定)
また、断面設定部は、各Bスキャン画像において特定したBMO端から、断面の向きを設定する。すなわち、断面設定部は、特定された端部に関する情報を用いて断面の向きを設定する。ここで、本実施例では、断面設定部は、図4に示すように、最小二乗法を用いて、各Bスキャン画像において特定したBMO端からの距離の二乗の和が最少となるような断面の向きを設定する。なお、断面設定部は、各Bスキャン画像において特定したBMO端の内3点を選択し、選択した3点により形成される面の傾斜角度に関する情報を用いて断面の向きを設定しても良い。
(Setting the orientation of the cross section)
In addition, the cross section setting unit sets the direction of the cross section from the BMO end specified in each B scan image. That is, the cross section setting unit sets the direction of the cross section using the information on the identified end. Here, in the present embodiment, as shown in FIG. 4, the cross-section setting unit uses the least squares method to minimize the sum of squares of the distances from the BMO end specified in each B-scan image. Set the orientation of Note that the cross-section setting unit may select three points out of the BMO ends specified in each B-scan image, and set the direction of the cross-section using information on the inclination angle of the plane formed by the selected three points. .

(断面像データの形成と断面像データに基づく画像の表示)
また、断面設定部は、BMO端から設定した断面に対して、垂直に深部方向へ所定距離移動した断面を、断面の位置として設定する。そして、形成部は、設定された断面を表す断面像データを形成する。ここで、形成部は、篩状板A3の抽出が可能な場合、篩状板A3を抽出し、抽出した篩状板A3まで移動した断面を用いて、断面像データを形成しても良い。また、表示制御部は、形成された断面像データに基づく画像を、表示部106に表示させる。このとき、ユーザは表示部106に表示された画像を確認しながら、断面の位置及び向きの少なくとも1つを変更(修正)することもできる。すなわち、指定部は、形成された断面像データに基づく画像が表示部に表示されている状態において、ユーザの操作に応じて、断面の位置及び向きの少なくとも1つを変更することができる。
(Formation of cross-sectional image data and display of image based on cross-sectional image data)
Further, the cross-section setting unit sets a cross-section moved a predetermined distance in the depth direction perpendicular to the cross-section set from the BMO end as the position of the cross-section. Then, the forming unit forms cross-sectional image data representing the set cross section. Here, when the sieved plate A3 can be extracted, the forming unit may extract the sieved plate A3 and form cross-sectional image data using the cross section moved to the sieved plate A3 extracted. Further, the display control unit causes the display unit 106 to display an image based on the formed cross-sectional image data. At this time, the user can also change (correct) at least one of the position and the orientation of the cross section while checking the image displayed on the display unit 106. That is, the designation unit can change at least one of the position and the orientation of the cross section in accordance with the user's operation while the image based on the formed cross-sectional image data is displayed on the display unit.

(処理フロー)
本実施例の処理フローを、図5のフローチャートで説明する。まず、ステップS501では、図3に示すように、指定部は、視神経乳頭部の深層に存在する篩状板A3の観察を目的とするため、篩状板を含む部分画像を指定する。また、ステップS502では、図3に示すように、層境界抽出部は、内境界膜(ILM)L1、神経線維層(NFL)A1の境界L2、網膜色素上皮層(RPE)の境界L3、L4を抽出する。また、ステップS503では、断面設定部は、各Bスキャン画像において、抽出した層境界から、層境界の端部として、ブルッフ膜オープニング(BMO)P1、P2を特定する。また、ステップS504では、断面設定部は、各Bスキャン画像において特定したBMO端から、断面の向きを設定する。また、ステップS505では、形成部は、BMO端から設定した断面に対して、垂直に深部方向へ所定距離移動した断面を用いて、断面像データを形成する。また、ステップS506では、表示制御部は、形成された断面像データに基づく画像を表示部106に表示させる。
(Processing flow)
The processing flow of the present embodiment will be described with reference to the flowchart of FIG. First, in step S501, as shown in FIG. 3, the designation unit designates a partial image including a lamina cribosa plate for the purpose of observing the lamina cribrosa plate A3 present in the deep layer of the optic disc. In step S502, as shown in FIG. 3, the layer boundary extraction unit includes the inner limiting membrane (ILM) L1, the boundary L2 of the nerve fiber layer (NFL) A1, the boundaries L3 and L4 of the retinal pigment epithelial layer (RPE). Extract Further, in step S503, the cross-section setting unit specifies the Bruch film openings (BMO) P1 and P2 as the end of the layer boundary from the extracted layer boundary in each B-scan image. In step S504, the section setting unit sets the direction of the section from the end of the BMO specified in each B-scan image. Further, in step S505, the forming unit forms cross-sectional image data using a cross section moved a predetermined distance in the depth direction perpendicular to the cross section set from the BMO end. In step S506, the display control unit causes the display unit 106 to display an image based on the formed cross-sectional image data.

(正面画像の情報から層境界の端部を特定する)
図6に示すように、Bスキャン画像において、浅層の血管などの影響で、BMO端の特定が難しい場合がある。この場合、図6に示すように、プロジェクション画像、Enface画像、SLO画像などの正面画像の情報を用いて、BMO端を特定しても良い。まず、正面画像から、視神経乳頭領域A4を抽出する。視神経乳頭領域A4は、周囲よりも暗く、また、楕円形状をしているため、閾値処理、及び、楕円近似により、視神経乳頭領域の境界L5を抽出する。なお、視神経乳頭領域の境界L5は、特定された視神経乳頭部に関する情報の一例である。また、正面画像上で、Bスキャン画像に対応する位置P5、P6を特定する。また、Bスキャン画像上で、正面画像上で特定したP5、P6に対応する位置に、破線L6、L7を設定する。ここで、層境界の端部の特定と同様に、RPEの境界L4の点に対して、座標値とエッジ成分を調べ、視神経乳頭陥凹部の中心に向かってエッジをトレースしていく。そして、浅層の血管などの影響で、トレースできなくなる個所までトレースした後、その直前までのトレース方向と、破線L6、L7との交点を抽出する。この方法により、正確なBMO端の特定ができない場合でも、BMO端の概略位置を特定できる。
(Identify the end of the layer boundary from the information of the frontal image)
As shown in FIG. 6, in the B-scan image, identification of the BMO end may be difficult due to the influence of blood vessels in the shallow layer and the like. In this case, as shown in FIG. 6, the BMO end may be specified using information of a front image such as a projection image, an Enface image, or an SLO image. First, the optic disc region A4 is extracted from the front image. Since the optic disc region A4 is darker than the surrounding area and has an elliptical shape, the boundary L5 of the optic disc region is extracted by thresholding and elliptical approximation. The boundary L5 of the optic disc region is an example of information regarding the identified optic papilla. Further, positions P5 and P6 corresponding to the B-scan image are specified on the front image. Further, broken lines L6 and L7 are set at positions corresponding to P5 and P6 specified on the front image on the B-scan image. Here, similar to the specification of the end of the layer boundary, the coordinate value and the edge component are examined with respect to the point of the boundary L4 of the RPE, and the edge is traced toward the center of the optic disc depression. Then, after tracing to a point where tracing can not be performed due to the influence of blood vessels in the shallow layer, and the like, tracing points immediately before that point and the intersection points of the broken lines L6 and L7 are extracted. By this method, even if accurate BMO end identification can not be performed, the approximate position of the BMO end can be identified.

また、断面の向きの設定では、最小二乗法を用いて、特定したBMO端からの距離の二乗の和が最少となるような断面の向きを設定している。このため、一部のBMO端が正確に特定できないが、概略位置を使用したとしても、断面設定において大きな影響はない。また、BMO端の概略位置を使用することにより、最適な断面が設定できなかった場合でも、最適な断面に近い断面となっているため、表示部106に表示された断面像データを確認し、ユーザにより最適な断面に変更することができる。   Further, in the setting of the orientation of the cross section, the least square method is used to set the orientation of the cross section such that the sum of squares of distances from the specified BMO end is minimized. For this reason, although some BMO ends can not be identified accurately, even if the approximate position is used, there is no significant influence on the cross section setting. In addition, even if the optimal cross section can not be set by using the approximate position of the BMO end, the cross section is close to the optimal cross section, so cross-sectional image data displayed on the display unit 106 is confirmed, The user can change the cross section to an optimum one.

(その他の実施例)
ここで、本実施例では、SD−OCTで説明したが、SS−OCTでも同様に構成できる。なお、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理についても本発明の一形態を構成する。
(Other embodiments)
Here, in the present embodiment, SD-OCT has been described, but SS-OCT can be configured in the same manner. The present invention is also realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU or the like) of the system or apparatus reads the program. The processing to be performed also constitutes an aspect of the present invention.

Claims (19)

光コヒーレンストモグラフィを用いることにより被検眼の3次元画像データを取得する取得部と、
前記被検眼の特定部位に相当する前記3次元画像データの一部である部分画像データを指定するための指定部と、
前記部分画像データを用いて前記3次元画像データに対して断面を設定する断面設定部と、
を有し、
前記断面設定部は、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定することを特徴とする光干渉断層撮影装置。
An acquisition unit that acquires three-dimensional image data of an eye to be examined by using optical coherence tomography;
A designation unit for designating partial image data which is a part of the three-dimensional image data corresponding to a specific part of the eye to be examined;
A cross section setting unit that sets a cross section for the three-dimensional image data using the partial image data;
Have
The cross section setting unit specifies an end of a layer boundary of the eye to be examined in the three-dimensional image data, and sets an orientation of the cross section using information on the specified end. Tomography device.
前記断面設定部は、前記特定された端部により形成される面の傾斜角度に関する情報を用いて前記断面の向きを設定することを特徴とする請求項1に記載の光干渉断層撮影装置。   The optical coherence tomography apparatus according to claim 1, wherein the cross-section setting unit sets the direction of the cross-section using information on an inclination angle of a surface formed by the specified end. 前記断面設定部は、前記3次元画像データを解析することにより、前記3次元画像データにおける前記被検眼の層境界の端部を特定することを特徴とする請求項1または2に記載の光干渉断層撮影装置。   The light interference according to claim 1 or 2, wherein the cross-section setting unit identifies an end of a layer boundary of the eye to be examined in the three-dimensional image data by analyzing the three-dimensional image data. Tomography device. 前記断面設定部は、前記3次元画像データを解析することにより前記被検眼の視神経乳頭部を特定し、前記特定された視神経乳頭部に関する情報を用いて前記3次元画像データにおける前記被検眼の層境界の端部を特定することを特徴とする請求項3に記載の光干渉断層撮影装置。   The cross-section setting unit identifies the optic disc region of the subject eye by analyzing the three-dimensional image data, and uses the information on the identified optic disc region to identify the layer of the subject eye in the three-dimensional image data. The optical coherence tomography apparatus according to claim 3, wherein an end of the boundary is identified. 前記断面設定部は、前記被検眼の正面画像の情報を用いて、前記3次元画像データにおける前記被検眼の層境界の端部を特定することを特徴とする請求項1または2に記載の光干渉断層撮影装置。   3. The light according to claim 1, wherein the cross-section setting unit specifies an end of a layer boundary of the eye in the three-dimensional image data using information of a front image of the eye. Interference tomography apparatus. 前記断面設定部は、前記被検眼の正面画像の情報を用いて前記被検眼の視神経乳頭部を特定し、前記特定された視神経乳頭部に関する情報を用いて前記3次元画像データにおける前記被検眼の層境界の端部を特定することを特徴とする請求項5に記載の光干渉断層撮影装置。   The cross-section setting unit identifies an optic disc region of the subject eye using information of a front image of the subject eye, and uses information of the identified optic disc region for the eye to be examined in the three-dimensional image data. 6. The optical coherence tomography apparatus according to claim 5, wherein an end of the layer boundary is specified. 前記設定された断面を表す断面像データを形成する形成部と、
前記断面像データに基づく画像を表示部に表示させる表示制御部と、
を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の光干渉断層撮影装置。
A forming unit for forming cross-sectional image data representing the set cross section;
A display control unit that causes a display unit to display an image based on the cross-sectional image data;
The optical coherence tomography apparatus according to any one of claims 1 to 6, further comprising:
前記指定部は、前記画像が前記表示部に表示されている状態において、ユーザの操作に応じて、前記断面の位置及び向きの少なくとも1つを変更することを特徴とする請求項7に記載の光干渉断層撮影装置。   8. The apparatus according to claim 7, wherein the designation unit changes at least one of the position and the orientation of the cross section in accordance with a user's operation in a state where the image is displayed on the display unit. Optical coherence tomography. 前記端部は、ブルッフ膜オープニングであることを特徴とする請求項1乃至8のいずれか1項に記載の光干渉断層撮影装置。   The optical coherence tomography apparatus according to any one of claims 1 to 8, wherein the end is a Bruch film opening. 前記特定部位は、前記被検眼の篩状板であることを特徴とする請求項1乃至9のいずれか1項に記載の光干渉断層撮影装置。   The optical coherence tomography apparatus according to any one of claims 1 to 9, wherein the specific region is a sieve plate of the eye to be examined. 前記指定部は、ユーザの操作に応じて、前記部分画像データを指定することを特徴とする請求項1乃至10のいずれか1項に記載の光干渉断層撮影装置。   The optical coherence tomography apparatus according to any one of claims 1 to 10, wherein the designation unit designates the partial image data according to a user's operation. 前記指定部は、前記3次元画像データを解析することにより、前記部分画像データを自動的に指定することを特徴とする請求項1乃至10のいずれか1項に記載の光干渉断層撮影装置。   The optical coherence tomography apparatus according to any one of claims 1 to 10, wherein the specification unit automatically specifies the partial image data by analyzing the three-dimensional image data. 光コヒーレンストモグラフィを用いることにより得た被検眼の3次元画像データの一部である部分画像データを用いて前記3次元画像データに対して断面を設定する断面設定部を有し、
前記断面設定部は、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定することを特徴とする画像処理装置。
It has a cross-section setting unit that sets a cross-section for the three-dimensional image data using partial image data that is a part of the three-dimensional image data of an eye to be examined obtained by using optical coherence tomography.
The cross section setting unit identifies an end of a layer boundary of the eye to be examined in the three-dimensional image data, and sets an orientation of the cross section using information on the identified end. apparatus.
前記断面設定部は、前記特定された端部により形成される面の傾斜角度に関する情報を用いて前記断面の向きを設定することを特徴とする請求項13に記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the cross-section setting unit sets the direction of the cross-section using information on an inclination angle of a surface formed by the identified end. 前記設定された断面を表す断面像データを形成する形成部と、
前記断面像データに基づく画像を表示部に表示させる表示制御部と、
を更に有することを特徴とする請求項13または14に記載の画像処理装置。
A forming unit for forming cross-sectional image data representing the set cross section;
A display control unit that causes a display unit to display an image based on the cross-sectional image data;
The image processing apparatus according to claim 13, further comprising:
光コヒーレンストモグラフィを用いることにより得た被検眼の3次元画像データの一部である部分画像データを用いて前記3次元画像データに対して断面を設定する工程を有し、
前記断面を設定する工程では、前記3次元画像データにおける前記被検眼の層境界の端部を特定し、前記特定された端部に関する情報を用いて前記断面の向きを設定することを特徴とする画像処理方法。
Setting a cross section for the three-dimensional image data using partial image data that is a part of the three-dimensional image data of the subject eye obtained by using optical coherence tomography,
In the step of setting the cross section, the end of the layer boundary of the eye to be examined in the three-dimensional image data is specified, and the direction of the cross is set using information on the specified end. Image processing method.
前記断面を設定する工程では、前記特定された端部により形成される面の傾斜角度に関する情報を用いて前記断面の向きを設定することを特徴とする請求項16に記載の画像処理方法。   The image processing method according to claim 16, wherein in the step of setting the cross section, the direction of the cross section is set using information on an inclination angle of a surface formed by the specified end. 前記設定された断面を表す断面像データを形成する工程と、
前記断面像データに基づく画像を表示部に表示させる工程と、
を更に有することを特徴とする請求項16または17に記載の画像処理方法。
Forming cross-sectional image data representing the set cross section;
Displaying an image based on the cross-sectional image data on a display unit;
The image processing method according to claim 16, further comprising:
請求項16乃至18のいずれか1項に記載の画像処理方法をコンピュータに実行させるプログラム。   A program that causes a computer to execute the image processing method according to any one of claims 16 to 18.
JP2017206270A 2017-10-25 2017-10-25 Optical coherence tomography equipment, image processing equipment and methods thereof Active JP7013201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017206270A JP7013201B2 (en) 2017-10-25 2017-10-25 Optical coherence tomography equipment, image processing equipment and methods thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206270A JP7013201B2 (en) 2017-10-25 2017-10-25 Optical coherence tomography equipment, image processing equipment and methods thereof

Publications (3)

Publication Number Publication Date
JP2019076445A true JP2019076445A (en) 2019-05-23
JP2019076445A5 JP2019076445A5 (en) 2021-07-26
JP7013201B2 JP7013201B2 (en) 2022-01-31

Family

ID=66628477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206270A Active JP7013201B2 (en) 2017-10-25 2017-10-25 Optical coherence tomography equipment, image processing equipment and methods thereof

Country Status (1)

Country Link
JP (1) JP7013201B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014050754A (en) * 2013-12-11 2014-03-20 Canon Inc Image processor, image processing method and program
JP2014087688A (en) * 2013-12-27 2014-05-15 Canon Inc Image processor and control method thereof
JP2015033397A (en) * 2013-08-07 2015-02-19 キヤノン株式会社 Image processing device, image processing method and program
JP2016028666A (en) * 2014-07-23 2016-03-03 国立大学法人東北大学 Fundus analysis device and fundus observation device
JP2016105912A (en) * 2016-03-16 2016-06-16 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2016152962A (en) * 2016-04-18 2016-08-25 キヤノン株式会社 Image processor, method for controlling image processor, ophthalmologic apparatus, method for controlling ophthalmologic apparatus, image processing program, and photographing control program
JP2016179402A (en) * 2013-05-30 2016-10-13 株式会社トプコン Ophthalmic imaging apparatus, ophthalmic image display apparatus and ophthalmic image processor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016179402A (en) * 2013-05-30 2016-10-13 株式会社トプコン Ophthalmic imaging apparatus, ophthalmic image display apparatus and ophthalmic image processor
JP2015033397A (en) * 2013-08-07 2015-02-19 キヤノン株式会社 Image processing device, image processing method and program
JP2014050754A (en) * 2013-12-11 2014-03-20 Canon Inc Image processor, image processing method and program
JP2014087688A (en) * 2013-12-27 2014-05-15 Canon Inc Image processor and control method thereof
JP2016028666A (en) * 2014-07-23 2016-03-03 国立大学法人東北大学 Fundus analysis device and fundus observation device
JP2016105912A (en) * 2016-03-16 2016-06-16 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2016152962A (en) * 2016-04-18 2016-08-25 キヤノン株式会社 Image processor, method for controlling image processor, ophthalmologic apparatus, method for controlling ophthalmologic apparatus, image processing program, and photographing control program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KIM, Y.W., ET AL: "Peripheral lamina cribrosa depth in primary open-angle glaucoma: a swept-source optical coherence to", EYE, vol. 29, no. 10, JPN6021025001, October 2015 (2015-10-01), pages 1368 - 1374, ISSN: 0004537039 *
OMODAKA, K., ET AL: "Clinical Factors Associated with Lamina Cribrosa Thickness in Patients with Glaucoma, as Measured wi", PLOS ONE, vol. 11, no. 4, JPN6021025002, 21 April 2016 (2016-04-21), pages 0153707, ISSN: 0004537038 *

Also Published As

Publication number Publication date
JP7013201B2 (en) 2022-01-31

Similar Documents

Publication Publication Date Title
JP5483873B2 (en) Optical tomographic imaging apparatus and optical tomographic imaging method
JP5842330B2 (en) Fundus photocoagulation laser device
KR101506526B1 (en) Ophthalmologic apparatus and control method therefor
JP6009935B2 (en) Ophthalmic equipment
JP6415030B2 (en) Image processing apparatus, image processing method, and program
JP2018019771A (en) Optical coherence tomography device and optical coherence tomography control program
JP2017131550A (en) Mage processing device and image processing method
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
JP6375760B2 (en) Optical coherence tomography apparatus and fundus image processing program
JP2017158836A (en) Ophthalmologic apparatus and imaging method
JP2019088382A (en) Image processing device, ophthalmologic imaging device, image processing method, and program
JP2016055122A (en) Optical coherence tomography device, oct analysis processor and program
JP6606846B2 (en) OCT signal processing apparatus and OCT signal processing program
JP6429448B2 (en) Ophthalmic apparatus, comparison method and program
JP5990932B2 (en) Ophthalmic tomographic imaging system
JP5987355B2 (en) Ophthalmic tomographic imaging system
JP7162553B2 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2020054812A (en) Image processing device, image processing method and program
JP6166509B2 (en) Imaging apparatus and imaging method
JP6788397B2 (en) Image processing device, control method of image processing device, and program
US20210049742A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6888643B2 (en) OCT analysis processing device and OCT data processing program
JP7246862B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
JP2018114121A (en) Information processing device, information processing method and program
JP7013201B2 (en) Optical coherence tomography equipment, image processing equipment and methods thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220119