JP6437055B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6437055B2
JP6437055B2 JP2017138324A JP2017138324A JP6437055B2 JP 6437055 B2 JP6437055 B2 JP 6437055B2 JP 2017138324 A JP2017138324 A JP 2017138324A JP 2017138324 A JP2017138324 A JP 2017138324A JP 6437055 B2 JP6437055 B2 JP 6437055B2
Authority
JP
Japan
Prior art keywords
tomographic
image
images
polarization
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017138324A
Other languages
Japanese (ja)
Other versions
JP2017200613A5 (en
JP2017200613A (en
Inventor
福原 誠
誠 福原
佐藤 眞
眞 佐藤
好彦 岩瀬
好彦 岩瀬
宣博 戸松
宣博 戸松
牧平 朋之
朋之 牧平
和英 宮田
和英 宮田
新畠 弘之
弘之 新畠
律也 富田
律也 富田
乃介 木辺
乃介 木辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017138324A priority Critical patent/JP6437055B2/en
Publication of JP2017200613A publication Critical patent/JP2017200613A/en
Publication of JP2017200613A5 publication Critical patent/JP2017200613A5/ja
Application granted granted Critical
Publication of JP6437055B2 publication Critical patent/JP6437055B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、被検体の画像を処理する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for processing an image of a subject.

多波長光波干渉を利用した光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、OCT)は、試料(特に眼底)の断層画像を高分解能に得ることができる。   Optical coherence tomography (hereinafter referred to as OCT) using multiwavelength lightwave interference can obtain a tomographic image of a sample (particularly the fundus) with high resolution.

近年、眼科用OCTにおいて、眼底組織の形状をイメージングする通常のOCTに加えて、眼底組織の光学特性の一つである偏光パラメータ(リターデーションとオリエンテーション)を用いてイメージングする偏光OCTの開発が進んでいる。   In recent years, in Ophthalmic OCT, in addition to normal OCT for imaging the shape of the fundus tissue, development of polarized OCT for imaging using polarization parameters (retardation and orientation), which are one of the optical characteristics of the fundus tissue, has progressed. It is out.

偏光OCTは、偏光パラメータを利用して、偏光OCT画像を構成し、眼底組織の区別やセグメンテーション(断層画像データから各層の境界を算出する処理)を行うことができる。そのため、輝度情報では診断困難であった組織を区別することで、緑内障診断等の病理診断を支援することができる。   Polarization OCT can construct a polarization OCT image using polarization parameters, and can perform fundus tissue discrimination and segmentation (processing for calculating the boundary of each layer from tomographic image data). Therefore, pathological diagnosis such as glaucoma diagnosis can be supported by distinguishing tissues that are difficult to diagnose with luminance information.

偏光OCTは、試料を観察する測定光に円偏光に変調した光を用い、干渉光を2つの直交する直線偏光として分割して検出し、偏光OCT画像を生成する(特許文献1参照)。   Polarization OCT uses light modulated into circularly polarized light as measurement light for observing a sample, divides and detects interference light as two orthogonal linearly polarized lights, and generates a polarized OCT image (see Patent Document 1).

WO2010/122118A1WO2010 / 122118A1

しかしながら、特許文献1では、取得されたOCT画像を用いて疾病の経過観察等を行う装置または方法に関しては何ら開示されていない。
本発明の目的の一つは、偏光OCTから得られる偏光情報を元に、ユーザが疾病の経過観察等を効果的に行うために支援することである。
However, Patent Document 1 does not disclose any device or method for performing disease follow-up or the like using the acquired OCT image.
One of the objects of the present invention is to assist the user in effectively performing the disease follow-up and the like based on the polarization information obtained from the polarization OCT.

本発明に係る画像処理装置の一つは、
測定光を照射した被検体からの戻り光と参照光による共通のOCT信号を処理することで得られる前記被検体の断層輝度画像及び偏光断層画像であって、異なる時間に被検体を撮影して得た複数の断層輝度画像と、前記複数の断層輝度画像に対応する複数の偏光断層画像とを取得する断層画像取得手段と、
前記取得された複数の断層輝度画像の位置ずれ情報を用いて、前記取得された複数の偏光断層画像の位置合わせを行う位置合わせ手段と、を有する。
また、本発明に係る画像処理方法の一つは、
測定光を照射した被検体からの戻り光と参照光による共通のOCT信号を処理することで得られる前記被検体の断層輝度画像及び偏光断層画像であって、異なる時間に被検体を撮影して得た複数の断層輝度画像と、前記複数の断層輝度画像に対応する複数の偏光断層画像とを取得する工程と、
前記取得された複数の断層輝度画像の位置ずれ情報を用いて、前記取得された複数の偏光断層画像の位置合わせを行う工程と、を有する。
One of the image processing apparatuses according to the present invention is
A tomographic luminance image and a polarized tomographic image of the subject obtained by processing a common OCT signal by the return light and the reference light from the subject irradiated with the measurement light , the subjects being photographed at different times A tomographic image acquisition means for acquiring a plurality of obtained tomographic luminance images and a plurality of polarized tomographic images corresponding to the plurality of tomographic luminance images;
Alignment means for aligning the plurality of acquired polarization tomographic images using the positional deviation information of the acquired plurality of tomographic luminance images.
One of the image processing methods according to the present invention is as follows.
A tomographic luminance image and a polarized tomographic image of the subject obtained by processing a common OCT signal by the return light and the reference light from the subject irradiated with the measurement light , the subjects being photographed at different times Obtaining a plurality of tomographic luminance images obtained and a plurality of polarization tomographic images corresponding to the plurality of tomographic luminance images;
And using the positional deviation information of the acquired plurality of tomographic luminance images to align the acquired plurality of polarized tomographic images.

本発明の一つによれば、異なる時間に被検体を撮影して得た複数の断層輝度画像の位置ずれ情報を用いて、該複数の断層輝度画像に対応する複数の偏光断層画像の位置合わせを行う。これにより、偏光OCTから得られる偏光情報を元に、ユーザが疾病の経過観察等を効果的に行うために支援することができる。   According to one aspect of the present invention, registration of a plurality of polarization tomographic images corresponding to the plurality of tomographic luminance images is performed using positional deviation information of the plurality of tomographic luminance images obtained by imaging the subject at different times. I do. Thereby, based on the polarization information obtained from the polarization OCT, it is possible to assist the user in effectively observing the progress of the disease.

第1の実施形態における画像処理装置の全体構成の概略図。1 is a schematic diagram of an overall configuration of an image processing apparatus according to a first embodiment. 第1の実施形態における信号処理部190で生成される画像の例。An example of an image generated by the signal processing unit 190 according to the first embodiment. 第1の実施形態における処理フロー。The processing flow in 1st Embodiment. 第1の実施形態における画像処理装置の表示部の表示画面における表示例。4 is a display example on a display screen of a display unit of the image processing apparatus according to the first embodiment. 第1の実施形態におけるOCTスキャン位置の位置合わせの説明図。Explanatory drawing of the alignment of the OCT scan position in 1st Embodiment. 第1の実施形態における断層輝度画像重ね合わせ時の位置合わせの説明図。Explanatory drawing of the alignment at the time of the tomographic luminance image superimposition in 1st Embodiment. 第1の実施形態における断層輝度画像重ね合わせの概念図。FIG. 5 is a conceptual diagram of tomographic luminance image superposition in the first embodiment. 第1の実施形態における画像処理装置の表示部の表示画面における表示例。4 is a display example on a display screen of a display unit of the image processing apparatus according to the first embodiment. 第1の実施形態における画像処理装置の表示部の表示画面における表示例。4 is a display example on a display screen of a display unit of the image processing apparatus according to the first embodiment. 第2の実施形態における重ね合わせ画像より構成される3D断層輝度画像の概念図。The conceptual diagram of the 3D tomographic luminance image comprised from the superimposition image in 2nd Embodiment. 第2の実施形態における処理フロー。The processing flow in 2nd Embodiment.

本発明に係る撮影装置は、眼、皮膚、内臓等の被検体に適用することができる。また、本発明に係る撮影装置としては、例えば、眼科装置や内視鏡等である。以下、本発明の一例として、本実施形態に係る眼科装置について、図面を用いて詳細に説明する。   The imaging apparatus according to the present invention can be applied to subjects such as eyes, skin, and internal organs. In addition, examples of the photographing apparatus according to the present invention include an ophthalmologic apparatus and an endoscope. Hereinafter, as an example of the present invention, an ophthalmologic apparatus according to the present embodiment will be described in detail with reference to the drawings.

(第1の実施形態)
[装置の全体構成]
図1は、本実施形態における撮影装置の一例である「眼科装置」の全体構成の概略図である。なお、後述する信号処理部190の少なくとも一部を「画像処理装置」とみなすことができ、また、この場合、「眼科装置」全体を「眼科システム」、あるいは「撮影装置」全体を「撮影システム」とみなすこともできる。
(First embodiment)
[Overall system configuration]
FIG. 1 is a schematic diagram of the overall configuration of an “ophthalmologic apparatus” that is an example of an imaging apparatus according to the present embodiment. Note that at least a part of the signal processing unit 190 described later can be regarded as an “image processing apparatus”. In this case, the entire “ophthalmic apparatus” is the “ophthalmic system” or the entire “imaging apparatus” is the “imaging system”. Can also be considered.

本装置は、偏光OCT(Polarization Sensitive OCT;以下、PS−OCT)100、偏光を利用した走査型検眼鏡(Polarization Sensitive Scanning Laser Ophthalmoscope:以下、PS−SLO)140、前眼部撮影部160、内部固視灯170、制御部200から構成される。   This apparatus includes a polarization OCT (Polarization Sensitive OCT; hereinafter referred to as PS-OCT) 100, a polarization-sensitive scanning ophthalmoscope (hereinafter referred to as PS-SLO) 140, an anterior eye imaging unit 160, and an internal part. A fixation lamp 170 and a control unit 200 are included.

内部固視灯170を点灯して被検眼に注視させた状態で、前眼部撮影部160により観察される被検眼の前眼部の画像を用いて、装置のアライメントが行われる。アライメント完了後に、PS−OCT100とPS−SLO140による眼底の撮影が行われる。   The apparatus is aligned using an image of the anterior segment of the subject's eye observed by the anterior segment imaging unit 160 in a state where the internal fixation lamp 170 is turned on and the subject's eye is gazed. After the alignment is completed, the fundus is imaged by PS-OCT 100 and PS-SLO 140.

<PS−OCT100の構成>
PS−OCT100の構成について説明する。
<Configuration of PS-OCT100>
A configuration of the PS-OCT 100 will be described.

光源101は、低コヒーレント光源であるSLD光源(Super Luminescent Diode)であり、例えば、中心波長850nm、バンド幅50nmの光を出射する。光源101としてSLDを用いたが、ASE光源(Amplified Spontaneous Emission)等、低コヒーレント光が出射できる光源であれば何れでも良い。   The light source 101 is an SLD light source (Super Luminescent Diode) that is a low-coherent light source, and emits light having a center wavelength of 850 nm and a bandwidth of 50 nm, for example. Although an SLD is used as the light source 101, any light source capable of emitting low-coherent light, such as an ASE light source (Amplified Spontaneous Emission), may be used.

光源101から出射された光は、SM(Single Mode)ファイバ134、偏光コントローラ103、コネクタ135、PM(Polarization Maintaining)ファイバ102を介して、偏光保持機能を有したファイバカップラ104に導かれ、測定光(以下、「断層画像用の測定光」や「OCT測定光」ともいう)と、測定光に対応する参照光とに分岐される。   Light emitted from the light source 101 is guided to a fiber coupler 104 having a polarization maintaining function via an SM (Single Mode) fiber 134, a polarization controller 103, a connector 135, and a PM (Polarization Maintaining) fiber 102, and is measured light. (Hereinafter also referred to as “measurement light for tomographic image” or “OCT measurement light”) and a reference light corresponding to the measurement light.

偏光コントローラ103は、光源101から出射された光の偏光の状態を調整するものであり、直線偏光に調整される。ファイバカップラ104の分岐比は、90(参照光):10(測定光)である。   The polarization controller 103 adjusts the polarization state of the light emitted from the light source 101 and is adjusted to linearly polarized light. The branching ratio of the fiber coupler 104 is 90 (reference light): 10 (measurement light).

測定光は、PMファイバ105を介してコリメータ106から平行光として出射される。出射された測定光は、眼底Erにおいて測定光を水平方向にスキャンするガルバノミラーから構成されるXスキャナ107、レンズ108、109、眼底Erにおいて測定光を垂直方向にスキャンするガルバノミラーから構成されるYスキャナ110を介し、ダイクロイックミラー111に到達する。Xスキャナ107、Yスキャナ110は、駆動制御部180により制御され、眼底Erの所望の範囲で測定光を走査することができる。なお、測定光が走査される眼底上の範囲は、断層画像の取得範囲、断層画像の取得位置、測定光の照射位置としてみなすことができる。また、Xスキャナ107、Yスキャナ110は、PS−OCT用の走査手段の一例であり、共通のXYスキャナとして構成しても良い。ダイクロイックミラー111は、800nm〜900nmの光を反射し、それ以外の光を透過する特性を有する。   The measurement light is emitted as parallel light from the collimator 106 via the PM fiber 105. The emitted measurement light is composed of an X scanner 107 configured by a galvanometer mirror that scans the measurement light in the horizontal direction on the fundus Er, lenses 108 and 109, and a galvanometer mirror that scans the measurement light in the vertical direction on the fundus Er. It reaches the dichroic mirror 111 via the Y scanner 110. The X scanner 107 and the Y scanner 110 are controlled by the drive control unit 180, and can scan the measurement light in a desired range of the fundus Er. The range on the fundus where the measurement light is scanned can be regarded as a tomographic image acquisition range, a tomographic image acquisition position, and a measurement light irradiation position. The X scanner 107 and the Y scanner 110 are examples of PS-OCT scanning means, and may be configured as a common XY scanner. The dichroic mirror 111 has a characteristic of reflecting light of 800 nm to 900 nm and transmitting other light.

ダイクロイックミラー111により反射された測定光は、レンズ112を介し、光軸を回転軸としてP偏光からS偏光に対して45°傾けて設置されたλ/4偏光板113を通過することにより、位相が90°ずれ、円偏光の光に偏光制御される。尚、本実施形態で差すP偏光とは、偏光ビームスプリッタの偏光分割面を反射面としたときの、入射面に対して水平に振動する光であり、S偏光とは前記入射面に対して垂直に振動する光のことである。なお、λ/4偏光板113は、測定光の偏光状態を調整する測定光用の偏光調整部材の一例である。ここで、後述するPS−SLO光学系を適用する場合、λ/4偏光板113をPS−OCT光学系の一部とPS−SLO光学系の一部との共通光路に設けることができる。これにより、PS−SLO光学系で取得した画像と、PS−OCT光学系で取得した画像とに生じる偏光状態のばらつきを抑制することができる。このとき、PS−SLO用の走査手段と、PS−OCT用の走査手段とは、互いに共役な位置に設けられ、被検眼の瞳と共役な位置に設けることができる。なお、λ/4偏光板113の傾きは、λ/4偏光板113の状態の一例であり、例えば、偏光ビームスプリッタを内蔵したファイバカップラ123の偏光分割面の光軸を回転軸とした所定の位置からの角度である。   The measurement light reflected by the dichroic mirror 111 passes through the lens 112 and passes through a λ / 4 polarizing plate 113 installed at an angle of 45 ° with respect to the S-polarized light from the P-polarized light with the optical axis as the rotation axis. Is shifted by 90 °, and the polarization is controlled by circularly polarized light. The P-polarized light referred to in the present embodiment is light that oscillates horizontally with respect to the incident surface when the polarization splitting surface of the polarizing beam splitter is used as a reflecting surface, and the S-polarized light is relative to the incident surface. Light that vibrates vertically. The λ / 4 polarizing plate 113 is an example of a measurement light polarization adjusting member that adjusts the polarization state of the measurement light. Here, when a PS-SLO optical system to be described later is applied, the λ / 4 polarizing plate 113 can be provided in a common optical path of a part of the PS-OCT optical system and a part of the PS-SLO optical system. Thereby, the dispersion | variation in the polarization state which arises in the image acquired with the PS-SLO optical system and the image acquired with the PS-OCT optical system can be suppressed. At this time, the scanning means for PS-SLO and the scanning means for PS-OCT are provided at a position conjugate with each other, and can be provided at a position conjugate with the pupil of the eye to be examined. The inclination of the λ / 4 polarizing plate 113 is an example of the state of the λ / 4 polarizing plate 113. For example, the inclination of the optical axis of the polarization splitting surface of the fiber coupler 123 incorporating the polarizing beam splitter is a predetermined axis. The angle from the position.

また、λ/4偏光板113を光路に対して挿脱可能に構成することができる。例えば、光軸あるいは光軸に平行な軸を回転軸としてλ/4偏光板113を回転する機械的な構成が考えられる。これにより、SLO光学系とPS−SLO光学系とを簡単に切り換え可能な小型な装置を実現することができる。また、OCT光学系とPS−OCT光学系とを簡単に切り換え可能な小型な装置を実現することができる。   Further, the λ / 4 polarizing plate 113 can be configured to be detachable from the optical path. For example, a mechanical configuration in which the λ / 4 polarizing plate 113 is rotated about an optical axis or an axis parallel to the optical axis as a rotation axis is conceivable. Thereby, it is possible to realize a small apparatus capable of easily switching between the SLO optical system and the PS-SLO optical system. Further, it is possible to realize a small apparatus that can easily switch between the OCT optical system and the PS-OCT optical system.

ここで、被検眼に入射される光は、λ/4偏光板を45°傾けて設置することで円偏光の光に偏光制御されるが、被検眼の特性により眼底Erにおいて円偏光とならない場合がある。そのため、駆動制御部180の制御により、λ/4偏光板113の傾きを微調整できるように構成されている。   Here, the light incident on the eye to be examined is controlled to be circularly polarized light by tilting the λ / 4 polarizing plate by 45 °, but is not circularly polarized on the fundus Er due to the characteristics of the eye to be examined. There is. Therefore, the tilt of the λ / 4 polarizing plate 113 can be finely adjusted by the control of the drive control unit 180.

円偏光に偏光制御された測定光は、ステージ116上に乗ったフォーカスレンズ114により、被検体である眼の前眼部Eaを介し、眼底Erの網膜層にフォーカスされる。眼底Erを照射した測定光は各網膜層で反射・散乱し、上述の光学経路をファイバカップラ104に戻る。   The measurement light whose polarization is controlled to be circularly polarized is focused on the retinal layer of the fundus Er by the focus lens 114 mounted on the stage 116 via the anterior segment Ea of the subject eye. The measurement light irradiated on the fundus Er is reflected and scattered by each retinal layer and returns to the fiber coupler 104 through the optical path described above.

一方、ファイバカプラ104で分岐された参照光は、PMファイバ117を介してコリメータ118から平行光として出射される。出射された参照光は測定光と同様に、光軸を回転軸としてP偏光からS偏光に対して22.5°傾けて設置されたλ/4偏光板119で偏光制御される。なお、λ/4偏光板119は、参照光の偏光状態を調整する参照光用の偏光調整部材の一例である。参照光は分散補償ガラス120を介し、コヒーレンスゲートステージ121上のミラー122で反射され、ファイバカップラ104に戻る。参照光は、λ/4偏光板119を二度通過する事で直線偏光の光がファイバカップラ104に戻ることになる。   On the other hand, the reference light branched by the fiber coupler 104 is emitted as collimated light from the collimator 118 via the PM fiber 117. Like the measurement light, the emitted reference light is polarization-controlled by a λ / 4 polarizing plate 119 installed with an optical axis as a rotation axis and inclined by 22.5 ° from P-polarized light to S-polarized light. The λ / 4 polarizing plate 119 is an example of a reference light polarization adjusting member that adjusts the polarization state of the reference light. The reference light is reflected by the mirror 122 on the coherence gate stage 121 through the dispersion compensation glass 120 and returns to the fiber coupler 104. The reference light passes through the λ / 4 polarizing plate 119 twice, so that the linearly polarized light returns to the fiber coupler 104.

コヒーレンスゲートステージ121は、被検者の眼軸長の相違等に対応する為、駆動制御部180で制御される。なお、コヒーレンスゲートとは、測定光の光路における参照光の光路長に対応する位置のことである。本実施形態では、参照光の光路長を変更しているが、測定光の光路と参照光の光路との光路長差を変更できれば良い。   The coherence gate stage 121 is controlled by the drive control unit 180 in order to cope with a difference in the axial length of the subject. The coherence gate is a position corresponding to the optical path length of the reference light in the optical path of the measurement light. In the present embodiment, the optical path length of the reference light is changed, but it is sufficient that the optical path length difference between the optical path of the measurement light and the optical path of the reference light can be changed.

ファイバカップラ104に戻った戻り光と参照光とは合波されて干渉光(以下、「合波光」ともいう)となり、偏光ビームスプリッタを内蔵したファイバカップラ123に入射され、異なる偏光方向の光であるP偏光の光とS偏光の光とに分岐比50:50で分割される。   The return light that has returned to the fiber coupler 104 and the reference light are combined to form interference light (hereinafter also referred to as “combined light”), which is incident on the fiber coupler 123 with a built-in polarization beam splitter, and has different polarization directions. The light is divided into certain P-polarized light and S-polarized light at a branching ratio of 50:50.

P偏光の光は、PMファイバ124、コリメータ130を介し、グレーティング131により分光されレンズ132、ラインカメラ133で受光される。同様に、S偏光の光は、PMファイバ125、コリメータ126を介し、グレーティング127により分光されレンズ128、ラインカメラ129で受光される。なお、グレーティング127、131、ラインカメラ129、133は、各偏光の方向に合わせて配置されている。   P-polarized light is split by the grating 131 through the PM fiber 124 and the collimator 130 and received by the lens 132 and the line camera 133. Similarly, the S-polarized light is split by the grating 127 through the PM fiber 125 and the collimator 126 and received by the lens 128 and the line camera 129. Note that the gratings 127 and 131 and the line cameras 129 and 133 are arranged according to the direction of each polarization.

ラインカメラ129、133でそれぞれ受光した光は、光の強度に応じた電気信号として出力され、信号処理部190で受ける。   The light received by the line cameras 129 and 133 is output as an electrical signal corresponding to the intensity of the light and received by the signal processing unit 190.

λ/4偏光板113、119の傾きに関して、偏光ビームスプリッタ123の偏光分割面の傾きを基準に自動的に調整することができる。このとき、λ/4偏光板113、119の傾きを検知する傾き検知部(不図示)を有することが好ましい。この傾き検知部により、現在の傾きが所定の傾きに対して一致しているかを検知することができる。もちろん、受光した光の強度に基づいて、λ/4偏光板113、119の傾き具合を検知し、所定の強度になるように傾きを調整しても良い。なお、後述するように、GUI上に傾きを示すオブジェクトを表示して、ユーザがマウスを用いて調整しても良い。また、偏光基準として鉛直方向を基準にして偏光ビームスプリッタ、λ/4偏光板113、119を調整しても同様の効果が得られる。   The inclination of the λ / 4 polarizing plates 113 and 119 can be automatically adjusted based on the inclination of the polarization splitting surface of the polarizing beam splitter 123. At this time, it is preferable to have an inclination detector (not shown) that detects the inclination of the λ / 4 polarizing plates 113 and 119. This inclination detection unit can detect whether the current inclination matches a predetermined inclination. Of course, the inclination of the λ / 4 polarizing plates 113 and 119 may be detected based on the intensity of the received light, and the inclination may be adjusted so as to have a predetermined intensity. As will be described later, an object indicating inclination may be displayed on the GUI, and the user may adjust using a mouse. The same effect can be obtained by adjusting the polarization beam splitter and the λ / 4 polarizing plates 113 and 119 with respect to the vertical direction as the polarization reference.

<PS−SLO140の構成>
PS−SLO140の構成について説明する。
<Configuration of PS-SLO 140>
The configuration of the PS-SLO 140 will be described.

光源141は、半導体レーザであり、本実施形態では、例えば、中心波長780nmの光を出射する。光源141から出射された測定光(以下、「眼底画像用の測定光」や「SLO測定光」ともいう)は、PMファイバ142を介し、偏光コントローラ145で直線偏光になるよう偏光制御され、コリメータ143から平行光として出射される。出射された測定光は穴あきミラー144の穴あき部を通過し、レンズ155を介し、眼底Erにおいて測定光を水平方向にスキャンするガルバノミラーから構成されるXスキャナ146、レンズ147、148、眼底Erにおいて測定光を垂直方向にスキャンするガルバノミラーから構成されるYスキャナ149を介し、ダイクロイックミラー154に到達する。Xスキャナ146、Yスキャナ149は駆動制御部180により制御され、眼底上で所望の範囲を測定光で走査できる。なお、Xスキャナ146、Yスキャナ149は、PS−SLO用の走査手段の一例であり、共通のXYスキャナとして構成しても良い。ダイクロイックミラー154は、760nm〜800nmを反射し、それ以外の光を透過する特性を有する。   The light source 141 is a semiconductor laser, and emits light having a central wavelength of 780 nm, for example, in the present embodiment. The measurement light emitted from the light source 141 (hereinafter also referred to as “fundus image measurement light” or “SLO measurement light”) is polarization-controlled by the polarization controller 145 via the PM fiber 142 to be a collimator. 143 is emitted as parallel light. The emitted measurement light passes through the perforated part of the perforated mirror 144, passes through the lens 155, and scans the measurement light in the horizontal direction on the fundus Er. The X scanner 146, the lenses 147, 148, the fundus The light reaches a dichroic mirror 154 via a Y scanner 149 configured by a galvanometer mirror that scans measurement light in the vertical direction at Er. The X scanner 146 and the Y scanner 149 are controlled by the drive control unit 180 and can scan a desired range on the fundus with measurement light. Note that the X scanner 146 and the Y scanner 149 are examples of PS-SLO scanning means, and may be configured as a common XY scanner. The dichroic mirror 154 has a characteristic of reflecting 760 nm to 800 nm and transmitting other light.

ダイクロイックミラー154にて反射された直線偏光の測定光は、PS−OCT100と同様の光路を経由し、眼底Erに到達する。   The linearly polarized measurement light reflected by the dichroic mirror 154 passes through the same optical path as the PS-OCT 100 and reaches the fundus Er.

眼底Erを照射した測定光は、眼底Erで反射・散乱され、上述の光学経路をたどり穴あきミラー144に達する。穴あきミラー144で反射された光が、レンズ150を介し、偏光ビームスプリッタ151にて異なる偏光方向の光(本実施形態では、P偏光の光とS偏光の光)に分割され、アバランシェフォトダイオード(APD)152、153で受光され、電気信号に変換されて、信号処理部190で受ける。   The measurement light applied to the fundus Er is reflected and scattered by the fundus Er and reaches the mirror 144 with a hole following the optical path described above. The light reflected by the perforated mirror 144 is split into light of different polarization directions (in this embodiment, P-polarized light and S-polarized light) via the lens 150 by the polarizing beam splitter 151, and an avalanche photodiode is obtained. Light received by (APD) 152 and 153, converted into an electric signal, and received by the signal processing unit 190.

ここで、穴あきミラー144の位置は、被検眼の瞳孔位置と共役となっており、眼底Erに照射された測定光が反射・散乱された光のうち、瞳孔周辺部を通った光が、穴あきミラー144によって反射される。   Here, the position of the perforated mirror 144 is conjugate with the pupil position of the eye to be examined, and the light passing through the periphery of the pupil out of the light reflected and scattered from the measurement light irradiated to the fundus Er is Reflected by the perforated mirror 144.

本実施形態では、PS−OCT、PS−SLOともにPMファイバを用いたが、シングルモードファイバー(SMF)でも偏光コントローラを用い偏光を制御する事で同様の構成と効果が得られる。   In the present embodiment, the PM fiber is used for both PS-OCT and PS-SLO, but the same configuration and effect can be obtained by controlling the polarization using a polarization controller even with a single mode fiber (SMF).

<前眼部撮影部160>
前眼部撮影部160について説明する。
<Anterior Eye Imaging Unit 160>
The anterior segment imaging unit 160 will be described.

前眼部撮影部160は、波長1000nmの照明光を発するLED115−a、115−bから成る照明光源115により前眼部Eaを照射する。前眼部Eaで反射され光は、レンズ114、偏光板113、レンズ112、ダイクロイックミラー111、154を介し、ダイクロイックミラー161に達する。ダイクロイックミラー161は、980nm〜1100nmの光を反射し、それ以外の光を透過する特性を有する。ダイクロイックミラー161で反射された光は、レンズ162、163、164を介し、前眼部カメラ165で受光される。前眼部カメラ165で受光された光は、電気信号に変換され、信号処理部190で受ける。   The anterior segment imaging unit 160 irradiates the anterior segment Ea with an illumination light source 115 including LEDs 115-a and 115-b that emit illumination light having a wavelength of 1000 nm. The light reflected by the anterior segment Ea reaches the dichroic mirror 161 via the lens 114, the polarizing plate 113, the lens 112, and the dichroic mirrors 111 and 154. The dichroic mirror 161 has a characteristic of reflecting light of 980 nm to 1100 nm and transmitting other light. The light reflected by the dichroic mirror 161 is received by the anterior eye camera 165 via the lenses 162, 163, and 164. The light received by the anterior eye camera 165 is converted into an electrical signal and received by the signal processing unit 190.

<内部固視灯170>
内部固視灯170について説明する。
<Internal fixation lamp 170>
The internal fixation lamp 170 will be described.

内部固視灯170は、内部固視灯用表示部171、レンズ172で構成される。内部固視灯用表示部171として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、駆動制御部180の制御により撮影したい部位に合わせて変更される。内部固視灯用表示部171からの光は、レンズ172を介し、被検眼に導かれる。内部固視灯用表示部171から出射される光は520nmで、制御部180により所望のパターンが表示される。   The internal fixation lamp 170 includes an internal fixation lamp display unit 171 and a lens 172. As the internal fixation lamp display unit 171, a plurality of light emitting diodes (LDs) arranged in a matrix is used. The lighting position of the light emitting diode is changed according to the part to be photographed under the control of the drive control unit 180. Light from the internal fixation lamp display unit 171 is guided to the eye to be examined through the lens 172. The light emitted from the internal fixation lamp display unit 171 is 520 nm, and a desired pattern is displayed by the control unit 180.

<制御部200>
本装置全体を制御するための制御部200について説明する。
<Control unit 200>
A control unit 200 for controlling the entire apparatus will be described.

制御部200は、駆動制御部180、信号処理部190、表示制御部191、表示部192から構成される。   The control unit 200 includes a drive control unit 180, a signal processing unit 190, a display control unit 191, and a display unit 192.

駆動制御部180は、上述の通り各部を制御する。   The drive control unit 180 controls each unit as described above.

信号処理部190は、画像生成部193と画像解析部194と画像重ね合わせ部195と比較部196から構成される。信号処理部190は、ラインカメラ129及び133、APD152及び153、前眼部カメラ165からそれぞれ出力される信号に基づき、画像の生成、生成された画像の解析、解析結果の可視化情報の生成を行う。なお、画像の生成、解析などの詳細については後述する。   The signal processing unit 190 includes an image generation unit 193, an image analysis unit 194, an image overlay unit 195, and a comparison unit 196. The signal processing unit 190 generates an image, analyzes the generated image, and generates visualization information of the analysis result based on signals output from the line cameras 129 and 133, the APDs 152 and 153, and the anterior eye camera 165, respectively. . Details of image generation and analysis will be described later.

表示制御部191は、信号処理部190で生成された眼底画像や眼底断層画像等を表示部192の表示画面に表示させる。ここで、表示部192は、例えば、液晶等のディスプレイである。なお、信号処理部190で生成された画像データは、表示制御部191に有線で送信されても良いし、無線で送信されても良い。この場合、表示制御部191を画像処理装置とみなすことができ、画像処理装置と撮影装置(眼科装置)とが通信可能に接続されていれば良い。なお、撮影システムとして、眼底画像取得部がSLO光学系を含み、断層画像取得部がOCT光学系を含むように構成しても良い。なお、本明細書において、被検眼以外の被検体の場合、「眼底画像(眼底輝度画像)」を「平面画像(平面輝度画像)」と換言することができ、また、「眼底画像取得部」を「平面画像取得部」と換言することができる。   The display control unit 191 displays the fundus image, the fundus tomographic image, and the like generated by the signal processing unit 190 on the display screen of the display unit 192. Here, the display unit 192 is a display such as a liquid crystal display, for example. Note that the image data generated by the signal processing unit 190 may be transmitted to the display control unit 191 by wire or may be transmitted wirelessly. In this case, the display control unit 191 can be regarded as an image processing device, and it is only necessary that the image processing device and the imaging device (ophthalmic device) are connected to be communicable. The imaging system may be configured such that the fundus image acquisition unit includes an SLO optical system and the tomographic image acquisition unit includes an OCT optical system. In this specification, in the case of a subject other than the subject's eye, “fundus image (fundus luminance image)” can be rephrased as “flat image (flat luminance image)”, and “fundus image acquisition unit” Can be rephrased as a “planar image acquisition unit”.

表示部192は、表示制御部191の制御の下、後述するように種々の情報を示す表示形態を表示する。なお、表示制御部191からの画像データは、表示部192に有線で送信されても良いし、無線で送信されても良い。また、表示部192等は、制御部200に含まれているが、本発明はこれに限らず、制御部200とは別に設けられても良い。また、表示制御部191と表示部192とを一体的に構成した、ユーザが持ち運び可能な装置の一例であるタブレットでも良い。この場合、表示部にタッチパネル機能を搭載させ、タッチパネル上で画像の表示位置の移動、拡大縮小、表示される画像の変更等の操作可能に構成することが好ましい。   The display unit 192 displays a display form indicating various information as described later under the control of the display control unit 191. Note that the image data from the display control unit 191 may be transmitted to the display unit 192 by wire or wirelessly. In addition, the display unit 192 and the like are included in the control unit 200, but the present invention is not limited thereto, and may be provided separately from the control unit 200. Moreover, the tablet which is an example of the apparatus which the display control part 191 and the display part 192 integrated, and the user can carry may be sufficient. In this case, it is preferable that a touch panel function is mounted on the display unit so that operations such as movement, enlargement / reduction, and change of the displayed image can be performed on the touch panel.

[画像処理]
次に、信号処理部190を構成する画像生成部193における画像生成について説明する。
[Image processing]
Next, image generation in the image generation unit 193 constituting the signal processing unit 190 will be described.

画像生成部193は、ラインカメラ129、133から出力されたそれぞれの干渉信号に対して、一般的なSD−OCT(Spectral Domain OCT)に用いられる再構成処理を行うことで、各偏光成分に基づいた2つの断層画像である第一の偏光に対応する断層輝度画像と、第二の偏光に対応する断層輝度画像とを生成する。   The image generation unit 193 performs a reconstruction process used for general SD-OCT (Spectral Domain OCT) on each interference signal output from the line cameras 129 and 133, and thereby based on each polarization component. The tomographic luminance image corresponding to the first polarized light that is the two tomographic images and the tomographic luminance image corresponding to the second polarized light are generated.

まず、画像生成部193は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は検出した複数のAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。   First, the image generation unit 193 performs fixed pattern noise removal from the interference signal. Fixed pattern noise removal is performed by extracting fixed pattern noise by averaging a plurality of detected A-scan signals and subtracting this from the input interference signal.

次に、画像生成部193は、干渉信号を波長から波数に変換し、フーリエ変換を行うことによって、偏光状態を示す断層信号を生成する。   Next, the image generation unit 193 generates a tomographic signal indicating a polarization state by converting the interference signal from a wavelength to a wave number and performing a Fourier transform.

以上の処理を2つの偏光成分の干渉信号に対して行うことにより、2つの断層輝度画像が生成される。   By performing the above processing on the interference signals of the two polarization components, two tomographic luminance images are generated.

また、画像生成部193は、APD152、153から出力された信号を、Xスキャナ146、Yスキャナ149の駆動に同期して整列させることにより、各偏光成分に基づいた2つの眼底画像である第一の偏光に対応する眼底画像と、第二の偏光に対応する眼底画像とを生成する。   In addition, the image generation unit 193 aligns the signals output from the APDs 152 and 153 in synchronization with the driving of the X scanner 146 and the Y scanner 149, thereby providing two first fundus images based on the respective polarization components. A fundus image corresponding to the second polarized light and a fundus image corresponding to the second polarized light are generated.

<断層輝度画像あるいは眼底輝度画像の生成>
画像生成部193は、前述した2つの断層信号から断層輝度画像を生成する。
<Generation of tomographic luminance image or fundus luminance image>
The image generation unit 193 generates a tomographic luminance image from the two tomographic signals described above.

断層輝度画像は、従来のOCTにおける断層画像と基本的に同じもので、その画素値rは各ラインセンサ129、133から得られた断層信号AおよびAから(式1)によって計算される。 Tomographic luminance image is calculated prior basically the same as the tomographic image at OCT, the pixel value r from the fault signals A H and A V obtained from the line sensors 129 and 133 by (Equation 1) .

また、同様に、2つの眼底画像から眼底輝度画像を生成する。   Similarly, a fundus luminance image is generated from two fundus images.

図2(a)に視神経乳頭部の輝度画像の例を示す。   FIG. 2A shows an example of a luminance image of the optic nerve head.

なお、表示制御部191は、λ/4偏光板113を光路から外している場合に、従来のOCTの手法により取得した断層輝度画像を表示部192に表示させても良いし、従来のSLOの手法により取得した眼底輝度画像を表示部192に表示させても良い。   When the λ / 4 polarizing plate 113 is removed from the optical path, the display control unit 191 may display the tomographic luminance image acquired by the conventional OCT technique on the display unit 192, or the conventional SLO. The fundus luminance image acquired by the technique may be displayed on the display unit 192.

<リターデーション画像の生成>
画像生成部193は、互いに直行する偏光成分の断層画像からリターデーション画像を生成する。
<Generation of retardation image>
The image generation unit 193 generates a retardation image from the tomographic images of polarization components orthogonal to each other.

リターデーション画像の各画素の値δは、断層画像を構成する各画素の位置において、垂直偏光成分と水平偏光成分とが被検眼で受ける影響の比を示す値であり、各断層信号AおよびAから(式2)によって計算される。 The litter value of each pixel of the retardation image [delta], at the position of each pixel constituting the tomographic image is a value indicating the ratio of the effect of the vertical polarization component and the horizontal polarization component is subjected in the subject's eye, the tomographic signals A H and It is calculated from A V by (equation 2).

図2(b)は、このように生成された視神経乳頭部のリターデーション画像の例を示したものであり、各Bスキャン画像に対して(式2)を計算することによって得ることができる。ここで、上述した通り、リターデーション画像は、2つの偏光が被検眼で受ける影響の違いを示す断層画像のことである。図2(b)は、上記比を示す値を断層画像としてカラーで表示しており、濃淡の濃い場所は上記比を示す値が小さく、濃淡の淡い場所は上記比を示す値が大きいことを表している。そのため、リターデーション画像を生成することにより、複屈折性のある層を把握することが可能となる。なお、詳細は、「E.Gotzinger et al.,Opt.Express 13,10217,2005」に記載されている通りである。   FIG. 2B shows an example of the retardation image of the optic nerve head generated in this way, and can be obtained by calculating (Equation 2) for each B-scan image. Here, as described above, the retardation image is a tomographic image showing the difference in the influence of two polarized light on the eye to be examined. In FIG. 2B, the value indicating the above ratio is displayed in color as a tomographic image, and the value indicating the above ratio is small in a dark and light place, and the value indicating the above ratio is large in a light and dark place. Represents. Therefore, it is possible to grasp a birefringent layer by generating a retardation image. The details are as described in “E. Gotzinger et al., Opt. Express 13, 10217, 2005”.

また、同様に、画像生成部193は、APD152及び153からの出力に基づいて眼底の平面方向のリターデーション画像を生成することもできる。   Similarly, the image generation unit 193 can also generate a retardation image in the planar direction of the fundus based on the outputs from the APDs 152 and 153.

<リターデーションマップの生成>
画像生成部193は、複数のBスキャン像に対して得たリターデーション(Retardation)画像からリターデーションマップを生成する。
<Generation of retardation map>
The image generation unit 193 generates a retardation map from the retardation images obtained for a plurality of B scan images.

まず、画像生成部193は、各Bスキャン画像において、網膜色素上皮(以下、「RPE」ともいう)を検出する。RPEは偏光を解消する性質を持っているため、各Aスキャンを深度方向に沿って内境界膜(以下、「ILM」ともいう)からRPEを含まない範囲でリターデーションの分布を調べ、その最大値を当該Aスキャンにおけるリターデーションの代表値とする。   First, the image generation unit 193 detects a retinal pigment epithelium (hereinafter also referred to as “RPE”) in each B-scan image. Since RPE has the property of depolarizing, each A scan is examined for the retardation distribution in the range not including RPE from the inner boundary film (hereinafter also referred to as “ILM”) along the depth direction. The value is a representative value of retardation in the A scan.

画像生成部193は、以上の処理を全てのリターデーション画像に対して行うことにより、リターデーションマップを生成する。   The image generation unit 193 generates a retardation map by performing the above processing on all the retardation images.

図2(c)に視神経乳頭部のリターデーションマップの例を示す。濃淡の濃い場所は上記比を示す値が小さく、濃淡の淡い場所は上記比を示す値が大きいことを表している。視神経乳頭部において、複屈折性を持つ層としては網膜神経線維相(以下、「RNFLともいう」)があり、リターデーションマップは、2つの偏光がRNFLの複屈折性とRNFLの厚みとで受ける影響の違いを示す画像である。そのため、網膜神経線維の密度が一様である場合、RNFLが厚い箇所では上記比を示す値が大きくなり、RNFLが薄い箇所では上記比を示す値が小さくなる。   FIG. 2C shows an example of a retardation map of the optic nerve head. A dark and light place indicates that the value indicating the ratio is small, and a dark and light place indicates that the value indicating the ratio is large. In the optic papilla, the birefringent layer is the retinal nerve fiber phase (hereinafter also referred to as “RNFL”), and the retardation map receives two polarizations with RNFL birefringence and RNFL thickness. It is an image which shows the difference in influence. Therefore, when the density of the retinal nerve fibers is uniform, the value indicating the ratio becomes large at a location where the RNFL is thick, and the value indicating the ratio becomes small at a location where the RNFL is thin.

<複屈折マップの生成>
画像生成部193は、先に生成されたリターデーション画像の各Aスキャン画像において、ILMからRNFLの範囲でリターデーションδの値を線形近似し、その傾きを当該Aスキャン画像の網膜上の位置における複屈折として決定する。すなわち、リターデーションはRNFLにおける距離と複屈折と積であるため、各Aスキャン画像において深さとリターデーションの値をプロットすると線形の関係が得られる。したがって、このプロットに対して最小二乗法等により線形近似を行い、その傾きを求めればそれが当該Aスキャン画像におけるRNFLの複屈折の値となる。この処理を取得した全てのリターデーション画像に対して行うことで、複屈折を表すマップを生成する。
<Generation of birefringence map>
The image generation unit 193 linearly approximates the value of the retardation δ in the range of ILM to RNFL in each A scan image of the previously generated retardation image, and the inclination thereof at the position on the retina of the A scan image. Determined as birefringence. That is, since the retardation is a product of the distance, birefringence, and product in RNFL, a linear relationship is obtained by plotting the depth and the retardation value in each A-scan image. Therefore, if this plot is linearly approximated by the method of least squares or the like and the slope is obtained, it becomes the value of the birefringence of the RNFL in the A-scan image. A map representing birefringence is generated by performing this process on all the retardation images acquired.

図2(d)に視神経乳頭部の複屈折マップの例を示す。複屈折マップは、複屈折の値を直接マップ化するため、RNFLの厚さが変化しない場合であっても、その繊維構造が変化した場合に、複屈折の変化として描出することができる。   FIG. 2D shows an example of a birefringence map of the optic nerve head. Since the birefringence map directly maps the birefringence value, even if the RNFL thickness does not change, it can be visualized as a change in birefringence when the fiber structure changes.

<DOPU画像の生成>
画像生成部193は、取得した断層信号AH、とそれらの間の位相差ΔΦから、各画素毎にストークスベクトルSを(式3)により計算する。
<Generation of DOPU images>
Image generating unit 193 calculates the acquired tomographic signals A H, the phase difference ΔΦ between them and A V, the Stokes vector S for each pixel (equation 3).

ただし、ΔΦは2つの断層画像を計算する際に得られる各信号の位相ΦとΦからΔΦ=Φ−Φとして計算する。 However, ΔΦ is calculated as ΔΦ = Φ V −Φ H from the phases Φ H and Φ V of each signal obtained when calculating two tomographic images.

次に画像生成部193は、各Bスキャン画像を概ね計測光の主走査方向に70μm、深度方向に18μm程度の大きさのウィンドウを設定し、各ウィンドウ内において画素毎に計算されたストークスベクトルの各要素を平均し、(式4)により当該ウィンドウ内の偏光の均一性DOPU(Degree Of Polarization Uniformity)を(式4)により計算する。   Next, the image generation unit 193 sets a window having a size of about 70 μm in the main scanning direction of the measurement light and a size of about 18 μm in the depth direction for each B-scan image, and the Stokes vector calculated for each pixel in each window. Each element is averaged, and the polarization uniformity DOPU (Degree Of Polarization Uniformity) in the window is calculated by (Expression 4) according to (Expression 4).

ただし、Q、U、Vは各ウィンドウ内のストークスベクトルの要素Q,U,Vを平均した値である。この処理をBスキャン画像内の全てのウィンドウに対して行うことで、図2(e)に示す視神経乳頭部のDOPU画像が生成される。ここで、上述した通り、DOPU画像は、2つの偏光の均一度を示す断層画像のことである。 However, Q m , U m , and V m are values obtained by averaging the Stokes vector elements Q, U, and V in each window. By performing this process on all the windows in the B-scan image, the DOPU image of the optic papilla shown in FIG. 2 (e) is generated. Here, as described above, the DOPU image is a tomographic image showing the uniformity of two polarizations.

DOPUは偏光の均一性を表す数値であり、偏光が保たれている箇所においては1に近い数値となり、偏光が解消された保たれない箇所においては1よりも小さい数値となるものである。網膜内の構造においては、RPEが偏光状態を解消する性質があるため、DOPU画像においてRPEに対応する部分は、他の領域に対してその値が小さくなる。図において、濃淡が淡い場所210はRPEを示しており、濃淡が濃い場所220は偏光が保たれている網膜層領域を示している。DOPU画像は、RPE等の偏光を解消する層を画像化しているので、病気などによりRPEが変形している場合においても、輝度の変化よりも確実にRPEを画像化出来る。   DOPU is a numerical value indicating the uniformity of polarization, and is a value close to 1 at a portion where polarization is maintained, and is a value smaller than 1 at a portion where polarization is not maintained. In the structure in the retina, the RPE has a property of canceling the polarization state. Therefore, the value of the portion corresponding to the RPE in the DOPU image is smaller than that in other regions. In the figure, a lightly shaded area 210 indicates RPE, and a darkly shaded area 220 indicates a retinal layer region where polarization is maintained. Since the DOPU image is an image of a layer that eliminates polarization, such as RPE, even when the RPE is deformed due to a disease or the like, the RPE can be imaged more reliably than a change in luminance.

また、同様に、画像生成部193は、APD152及び153からの出力に基づいて眼底の平面方向のDOPU画像を生成することもできる。   Similarly, the image generation unit 193 can also generate a DOPU image in the planar direction of the fundus based on the outputs from the APDs 152 and 153.

なお、本明細書において、上述した第一及び第二の偏光に対応する断層輝度画像、リターデーション画像、DOPU画像等を、偏光状態を示す断層画像や偏光断層画像とも言うことにする。また、本明細書において、上述したリターデーションマップや複屈折マップ等を、偏光状態を示す眼底画像や偏光眼底画像とも言うことにする。   In the present specification, the above-described tomographic luminance image, retardation image, DOPU image and the like corresponding to the first and second polarized light are also referred to as a tomographic image or a polarized tomographic image indicating a polarization state. In the present specification, the retardation map, birefringence map, and the like described above are also referred to as a fundus image or a polarized fundus image indicating a polarization state.

抽出手段の一例である画像解析部194は、DOPU画像やリターデーション画像等の偏光状態を示す断層画像から、偏光が解消された領域(箇所)、例えば、RNFL等の層を抽出(検出)することができる。また、特定手段の一例である画像解析部194は、偏光が解消された領域のうち所定の形状を病変部として特定する。なお、偏光が解消された領域とは、例えば、2つの偏光が被検眼で受ける影響の違いが比較的大きな領域のことである。   The image analysis unit 194, which is an example of an extraction unit, extracts (detects) a region (location) from which polarization is removed, for example, a layer such as RNFL, from a tomographic image indicating a polarization state such as a DOPU image or a retardation image. be able to. In addition, the image analysis unit 194, which is an example of the specifying unit, specifies a predetermined shape as a lesioned part in the region where the polarization is eliminated. In addition, the area | region from which polarization | polarized-light was canceled is an area | region where the difference of the influence which two polarized light receives with a to-be-tested eye is comparatively large, for example.

[処理動作]
次に本画像処理装置による処理動作について説明する。
[Processing operation]
Next, a processing operation by the image processing apparatus will be described.

図3は、本画像処理装置の処理動作を示すフローチャートである。   FIG. 3 is a flowchart showing the processing operation of the image processing apparatus.

<調整>
まず、ステップS101において、被検眼を本装置に配置した状態で、本装置と被検眼のアライメントを行う。アライメントの説明に関して、本実施形態に特有な処理について説明し、ワーキングディスタンス等のXYZ方向のアライメント、フォーカス、コヒーレンスゲートの調整等は一般的であるのでその説明は省略する。
<Adjustment>
First, in step S101, the apparatus and the eye to be examined are aligned with the eye to be examined being placed on the apparatus. Regarding the description of the alignment, processing unique to the present embodiment will be described, and alignment in the XYZ directions such as working distance, focus, adjustment of the coherence gate, and the like are common, and description thereof will be omitted.

(PS−OCT撮影位置の調整)
図4は、調整時に表示部192に表示されるウィンドウ400を示している。第一の表示領域の一例である表示領域410には、PS−SLO140で撮影され、画像生成部193で生成された眼底画像411が表示され、眼底画像411上に、PS−OCT100の撮影位置を示すガイド412が重畳表示されている。
(Adjustment of PS-OCT imaging position)
FIG. 4 shows a window 400 displayed on the display unit 192 during adjustment. In a display area 410 that is an example of the first display area, a fundus image 411 that is captured by the PS-SLO 140 and generated by the image generation unit 193 is displayed, and the imaging position of the PS-OCT 100 is displayed on the fundus image 411. A guide 412 shown is superimposed and displayed.

操作者がマウス等の指示装置(不図示)を用いて、ウィンドウ400に表示されるカーソルから、クリック操作やドラッグ操作等を行い指示する方法や、或いはウィンドウ400に数値入力枠を設け直接指定する方法を用いることにより、駆動制御部180の制御の下、撮影範囲の設定が行われる。これにより、駆動制御部180がスキャナの駆動角度を制御する撮影範囲を設定する。なお、本実施形態のマウスには、例えば、ユーザの手によってマウス本体が2次元的に移動させたときの移動信号を検出するセンサと、ユーザの手によって押圧されたことを検知するための左右2つのマウスボタンと、左右2つのマウスボタンの間に前後左右に回転可能なホイール機構と、が設けられている。また、指示装置は、表示部にタッチパネル機能を搭載させ、タッチパネル上で取得位置を指定しても良い。   A method in which an operator uses a pointing device (not shown) such as a mouse to perform an instruction by performing a click operation or a drag operation from a cursor displayed on the window 400, or a numerical input frame is provided in the window 400 and designated directly. By using the method, the shooting range is set under the control of the drive control unit 180. Thereby, the drive control unit 180 sets an imaging range for controlling the drive angle of the scanner. The mouse of this embodiment includes, for example, a sensor that detects a movement signal when the mouse body is moved two-dimensionally by the user's hand, and a left and right for detecting that the mouse is pressed by the user's hand. Two mouse buttons and a wheel mechanism that can rotate back and forth and right and left are provided between the two left and right mouse buttons. In addition, the pointing device may include a touch panel function on the display unit and specify an acquisition position on the touch panel.

(λ/4偏光板の調整)
λ/4偏光板113の調整について説明する。
(Adjustment of λ / 4 polarizing plate)
Adjustment of the λ / 4 polarizing plate 113 will be described.

図4において、指示部413、414は、λ/4偏光板113の角度を調整するための表示であり、操作者が指示装置を用いて指示することにより、駆動制御部180の制御の下、λ/4偏光板113の角度が調整される。指示部413は反時計回りの調整を、指示部414は時計回りの調整を指示するための表示である。指示部413、414の横に表示されている数値は、現在のλ/4偏光板113の角度を表している。なお、表示制御部191は、λ/4偏光板119の角度を調整する指示部を、指示部413と並べて表示部192に表示させても良いし、指示部413の代わりに表示させても良い。   In FIG. 4, instruction units 413 and 414 are displays for adjusting the angle of the λ / 4 polarizing plate 113, and are controlled by the drive control unit 180 by an operator using an instruction device. The angle of the λ / 4 polarizing plate 113 is adjusted. The instruction unit 413 is a display for instructing counterclockwise adjustment, and the instruction unit 414 is an instruction for instructing clockwise adjustment. The numerical value displayed beside the instruction units 413 and 414 represents the current angle of the λ / 4 polarizing plate 113. The display control unit 191 may display an instruction unit for adjusting the angle of the λ / 4 polarizing plate 119 along with the instruction unit 413 on the display unit 192 or may be displayed instead of the instruction unit 413. .

操作者は、第三の表示領域の一例である表示領域430と、第四の表示領域の一例である表示領域440にそれぞれ表示された各偏光の断層輝度画像の輝度が同じになるように、マウスを用いてカーソルで指示する。なお、各偏光の断層輝度画像431、441と共にピーク輝度値を表示し、あるいは、それぞれの干渉信号の波形そのものを表示し、それを見ながら調整を行う構成でも良い。ここで、各偏光の断層輝度画像431、441は、第一の偏光に対応する断層輝度画像、第二の偏光に対応する断層輝度画像の一例である。なお、各偏光の断層輝度画像431、441には、それぞれの画像の種類を示す表示形態、例えば、P偏光を示す「P」の文字や、S偏光を示す「S」の文字を画像に重ねて表示させることが好ましい。これにより、ユーザが画像を誤って認識することを防ぐことができる。もちろん、画像に重ねて表示させずに、画像の上側や横側に表示させても良く、画像と対応させるように表示させれば良い。   The operator makes the luminance of the tomographic luminance images of the respective polarizations displayed in the display area 430, which is an example of the third display area, and the display area 440, which is an example of the fourth display area, the same. Point with the cursor using the mouse. A configuration may be adopted in which the peak luminance value is displayed together with the tomographic luminance images 431 and 441 of each polarized light, or the waveform of each interference signal itself is displayed and the adjustment is performed while viewing the waveform. Here, the tomographic luminance images 431 and 441 of each polarization are examples of a tomographic luminance image corresponding to the first polarized light and a tomographic luminance image corresponding to the second polarized light. In addition, in the tomographic luminance images 431 and 441 of each polarization, a display form indicating the type of each image, for example, a letter “P” indicating P polarization or a letter “S” indicating S polarization is superimposed on the image. Are preferably displayed. Thereby, it can prevent that a user recognizes an image accidentally. Of course, the image may be displayed on the upper side or the side of the image without being superimposed on the image, or may be displayed so as to correspond to the image.

また、第二の表示領域の一例である表示領域420には、この段階では何も表示させなくても良いし、オート調整等の場合には現在の調整状態を示す表示形態、例えば、「λ/4偏光板の調整中」等のメッセージを表示させても良い。また、ウィンドウ400には、被検眼の左右眼等の患者情報を示す表示形態や、撮影モード等の撮影情報を示す表示形態を表示させても良い。なお、眼底輝度画像と偏光状態を示す断層輝度画像とを交互に取得するように、光路に対するλ/4偏光板113の挿脱を繰り返すことが望ましい。これにより、できるだけ小型な眼科装置において、表示制御部191は、例えば、眼底輝度画像を表示領域410に表示させ、偏光状態を示す断層輝度画像を表示領域420に表示させることができる。ここで、調整の順番は、前眼部画像や角膜輝点を用いたアライメント調整、偏光状態を示す眼底画像を用いたフォーカス調整、偏光状態を示す断層輝度画像を用いたコヒーレンスゲート調整、λ/4偏光板113の調整の順番が好ましい。なお、偏光状態を示す断層輝度画像の取得位置の決定は、偏光状態を示す断層輝度画像を用いたコヒーレンスゲート調整前が好ましいが、偏光状態を示す眼底画像の中心領域を取得するように初期設定で決めるようにしても良い。これにより、偏光状態を示す眼底画像よりも精細で狭い範囲を対象にする偏光状態を示す断層輝度画像を精度良く取得可能に簡単に調整することができる。このとき、コヒーレンスゲート調整の完了に応じてλ/4偏光板113を自動的に調整しても良いし、偏光状態を示す画像を取得するための信号の入力に応じてλ/4偏光板113を自動的に調整しても良い。もちろん、眼科装置の起動時に初期設定画面等でλ/4偏光板113を予め調整しておき、撮影毎に調整しないように構成しても良い。   In addition, in the display area 420 as an example of the second display area, nothing may be displayed at this stage, and in the case of auto adjustment or the like, a display form indicating the current adjustment state, for example, “λ A message such as “Adjusting the / 4 polarizing plate” may be displayed. The window 400 may display a display form indicating patient information such as the left and right eyes of the eye to be examined and a display form indicating imaging information such as an imaging mode. Note that it is desirable to repeatedly insert and remove the λ / 4 polarizing plate 113 with respect to the optical path so that the fundus luminance image and the tomographic luminance image indicating the polarization state are alternately acquired. Thereby, in the ophthalmologic apparatus as small as possible, for example, the display control unit 191 can display a fundus luminance image on the display area 410 and can display a tomographic luminance image indicating a polarization state on the display area 420. Here, the order of adjustment includes alignment adjustment using the anterior ocular segment image and corneal bright spot, focus adjustment using the fundus image indicating the polarization state, coherence gate adjustment using the tomographic luminance image indicating the polarization state, λ / The order of adjustment of the four polarizing plates 113 is preferable. Note that the determination of the acquisition position of the tomographic luminance image indicating the polarization state is preferably performed before the coherence gate adjustment using the tomographic luminance image indicating the polarization state, but the initial setting is to acquire the central region of the fundus image indicating the polarization state. You may make it decide with. Accordingly, it is possible to easily adjust the tomographic luminance image indicating the polarization state that covers a narrower range that is finer and narrower than the fundus image indicating the polarization state so that the tomographic luminance image can be accurately acquired. At this time, the λ / 4 polarizing plate 113 may be automatically adjusted according to the completion of the coherence gate adjustment, or the λ / 4 polarizing plate 113 according to the input of a signal for obtaining an image indicating the polarization state. May be adjusted automatically. Of course, the λ / 4 polarizing plate 113 may be adjusted in advance on the initial setting screen or the like when the ophthalmologic apparatus is started up, and may not be adjusted for each photographing.

また、λ/4偏光板113を光路に対して挿脱可能に構成している場合、調整の順番は、前眼部画像や角膜輝点を用いたアライメント調整、SLO眼底画像を用いたフォーカス調整、OCT断層輝度画像を用いたコヒーレンスゲート調整、λ/4偏光板113を光路に挿入、λ/4偏光板113の調整の順番が好ましい。これにより、偏光状態を示す画像の取得前の調整を、ユーザが直感的に慣れている通常のSLO眼底画像やOCT断層輝度画像を用いて行うことができる。ただし、フォーカス調整の後に、λ/4偏光板113を挿入してからPS−OCTの偏光状態を示す断層輝度画像を用いたコヒーレンスゲート調整を行っても良い。このとき、コヒーレンスゲート調整の完了あるいはフォーカス調整の完了に応じてλ/4偏光板113を自動的に光路に挿入しても良いし、偏光状態を示す画像を取得するための信号の入力に応じてλ/4偏光板113を自動的に光路に挿入しても良い。   Further, when the λ / 4 polarizing plate 113 is configured to be detachable from the optical path, the adjustment order is alignment adjustment using an anterior segment image or corneal bright spot, and focus adjustment using an SLO fundus image. The order of coherence gate adjustment using the OCT tomographic luminance image, insertion of the λ / 4 polarizing plate 113 into the optical path, and adjustment of the λ / 4 polarizing plate 113 is preferable. Thereby, the adjustment before acquisition of the image indicating the polarization state can be performed using the normal SLO fundus image and the OCT tomographic luminance image that the user is intuitively accustomed to. However, after the focus adjustment, the coherence gate adjustment using the tomographic luminance image indicating the polarization state of PS-OCT may be performed after the λ / 4 polarizing plate 113 is inserted. At this time, the λ / 4 polarizing plate 113 may be automatically inserted into the optical path in accordance with completion of coherence gate adjustment or focus adjustment, or in response to input of a signal for obtaining an image indicating a polarization state. Then, the λ / 4 polarizing plate 113 may be automatically inserted into the optical path.

なお、フォーカス調整は、SLO眼底画像を用いた粗フォーカス調整の後、OCT断層輝度画像を用いた微フォーカス調整を行っても良い。   In the focus adjustment, fine focus adjustment using an OCT tomographic luminance image may be performed after coarse focus adjustment using an SLO fundus image.

また、これらの調整は、上記順番で全て自動的に調整しても良いし、表示部に表示された各調整に対応したスライダにカーソルを合わせてドラッグ操作等を行うようにしても良い。また、λ/4偏光板113を挿脱する場合、λ/4偏光板113を光路に挿入あるいは光路から離脱を指示するためのアイコンを表示部に表示させてもよい。   These adjustments may all be automatically performed in the above order, or the cursor may be placed on a slider corresponding to each adjustment displayed on the display unit and a drag operation may be performed. When the λ / 4 polarizing plate 113 is inserted / removed, an icon for instructing to insert / remove the λ / 4 polarizing plate 113 into / from the optical path may be displayed on the display unit.

<眼底撮影>〜<眼底画像生成>
ステップS102〜S103において、光源141から測定光を出射して、網膜Erからの戻り光を、APD152、153で受光して、画像生成部193にて前述の通り眼底画像を生成する。また、比較部196は取得した眼底データを記録する。
<Fundus photography> to <fundus image generation>
In steps S102 to S103, the measurement light is emitted from the light source 141, the return light from the retina Er is received by the APDs 152 and 153, and the fundus image is generated by the image generation unit 193 as described above. The comparison unit 196 records the acquired fundus data.

<OCTスキャン位置設定>
ステップS104では、ステップS102〜S103にて撮影された眼底画像と、過去撮影され、取得された眼底画像を比較し、PS−OCT100のスキャン位置を設定する。
<OCT scan position setting>
In step S104, the fundus image captured in steps S102 to S103 is compared with the fundus image acquired in the past and acquired, and the scan position of the PS-OCT 100 is set.

まず、比較部196は、過去に取得され、記録された眼底画像内の特徴点の位置情報を抽出する。特徴点の抽出は、1点のみの場合スキャン方向を一致させることが出来ないため、抽出点数は2点以上あることが望ましい。ここで、特徴点とは、視神経乳頭や黄斑、毛細血管などの組織である。次に、抽出した特徴点の位置情報に対して、過去取得し、記録されたOCTスキャン位置の相対位置情報を各々算出する。そして、現在取得され、記録された眼底画像の特徴点を上記と同様の方法にて抽出した上で、過去の眼底画像から抽出した特徴点と一致する点を更に抽出する。最後に、現在の眼底画像から抽出した特徴点の位置情報と前記算出した相対位置情報に基づき、OCTスキャン位置を設定する。   First, the comparison unit 196 extracts position information of feature points in the fundus image acquired and recorded in the past. In the case of extracting feature points, it is desirable that the number of extracted points is two or more because the scanning direction cannot be matched when only one point is extracted. Here, the feature points are tissues such as the optic disc, the macula, and the capillaries. Next, the relative position information of the OCT scan position acquired and recorded in the past is calculated for the position information of the extracted feature points. Then, the feature points of the currently acquired and recorded fundus image are extracted by the same method as described above, and further points that match the feature points extracted from the past fundus image are further extracted. Finally, an OCT scan position is set based on the position information of the feature points extracted from the current fundus image and the calculated relative position information.

尚、OCTのスキャン位置は、上述したような自動抽出に限定されない。図5に示すように、ウィンドウから手動で選択しても良い。   The OCT scan position is not limited to the automatic extraction as described above. As shown in FIG. 5, you may select manually from a window.

第一の表示領域の一例である表示領域510には、PS−SLO140で撮影され、画像生成部193で生成された現在の眼底画像511が表示される。眼底画像511としては、眼底輝度画像が表示されるが、偏光信号に基づく眼底画像であっても良い。眼底画像511上にはPS−OCT100の撮影位置を示すガイド512が重畳表示されている。   In a display area 510 that is an example of the first display area, a current fundus image 511 that is captured by the PS-SLO 140 and generated by the image generation unit 193 is displayed. A fundus luminance image is displayed as the fundus image 511, but may be a fundus image based on a polarization signal. A guide 512 indicating the imaging position of the PS-OCT 100 is superimposed on the fundus image 511.

第二の表示領域の一例である表示領域520には、PS−SLO140で撮影され、画像生成部193で生成された過去の眼底画像521が表示される。眼底画像521としては、眼底輝度画像が表示されるが、偏光信号に基づく眼底画像であっても良い。眼底画像521上には過去に画像撮影を行ったPS−OCT100の撮影位置を示すガイド522が重畳表示される。   In a display area 520 that is an example of the second display area, a past fundus image 521 that is captured by the PS-SLO 140 and generated by the image generation unit 193 is displayed. A fundus luminance image is displayed as the fundus image 521, but may be a fundus image based on a polarization signal. On the fundus image 521, a guide 522 indicating the imaging position of the PS-OCT 100 that has taken an image in the past is superimposed and displayed.

OCTのスキャン位置は、表示領域520に表示される過去眼底画像521と、該眼底画像521上に表示されるガイド522との位置関係に対応するように、表示領域510に表示される眼底画像511に重畳表示されたガイド512をマウスのクリック操作やドラッグ操作などで設定する。   The OCT scan position corresponds to the positional relationship between the past fundus image 521 displayed in the display area 520 and the guide 522 displayed on the fundus image 521, and the fundus image 511 displayed in the display area 510. The guide 512 superimposed on is set by a mouse click operation or a drag operation.

<断層撮影>〜<断層輝度画像生成>
ステップS105〜S106においては、光源101からそれぞれ測定光を出射して、網膜Erからの戻り光を、ラインカメラ129、133で受光して、画像生成部193で、前述の通り断層輝度画像を生成する。
<Tomography> to <Generation of tomographic luminance image>
In steps S105 to S106, the measurement light is emitted from the light source 101, the return light from the retina Er is received by the line cameras 129 and 133, and the tomographic luminance image is generated by the image generation unit 193 as described above. To do.

設定された断層輝度画像位置に対してステップS105〜S106をN回繰り返すことで、N枚の断層輝度画像の取得を行う。尚、その取得手順については操作者が任意に決めてもよい。すなわち、ステップS105をN回繰り返してN枚の断層輝度画像データの取得を行った後に、ステップS106をまとめて実施してもよいし、1枚の断層輝度画像取得時にステップS105〜S106を実施し、それをN回繰り返して実施してもよい。   By repeating steps S105 to S106 N times for the set tomographic luminance image position, N pieces of tomographic luminance images are acquired. Note that the operator may arbitrarily determine the acquisition procedure. That is, after step S105 is repeated N times to acquire N pieces of tomographic luminance image data, step S106 may be performed collectively, or steps S105 to S106 are performed when one piece of tomographic luminance image is acquired. , It may be repeated N times.

また、ステップS105〜S106にて断層輝度画像の撮影・生成を行う中の任意のタイミングで、ステップS102〜S103を並行して実行し、SLO画像の微小移動量を信号処理部190で検知し、駆動制御部180にフィードバックを行うことで追尾機能を持たせても良い。例えば、連続取得されるSLO画像データを信号処理部190に渡し、各SLO画像の相対位置について並進方向や回転方向の微小移動量を算出する。次に、算出した微小移動量を補正するためのスキャナ駆動波形を駆動制御部180にて生成し、Xスキャナ107、Yスキャナ110を駆動することで追尾機能を持たす方法がある。   In addition, steps S102 to S103 are executed in parallel at an arbitrary timing during photographing and generation of the tomographic luminance image in steps S105 to S106, and the minute movement amount of the SLO image is detected by the signal processing unit 190. The drive control unit 180 may have a tracking function by performing feedback. For example, the continuously acquired SLO image data is passed to the signal processing unit 190, and the minute movement amount in the translation direction and the rotation direction is calculated for the relative position of each SLO image. Next, there is a method of providing a tracking function by generating a scanner drive waveform for correcting the calculated minute movement amount by the drive control unit 180 and driving the X scanner 107 and the Y scanner 110.

<OCT断層像重ね合わせ>
N枚の画像撮影と画像処理の後、ステップS107において、位置合わせ手段の一例である画像重ね合わせ部195は、まず、複数の断層輝度画像の位置合わせを行う。以下、図6の説明図を用いて位置合わせの方法を説明する。ここで、複数の断層輝度画像の位置合わせは、まず、例えば、基準となる第一の輝度画像601に対して第二の輝度画像602のパターンマッチングを行うことにより、眼球運動を検出する。パターンマッチングとは、基準となる画像に対して類似度が最も高くなる領域を探索する技術である。基準となる第一の輝度画像から特徴のある部分を抽出し、第二の輝度画像に対してパターンマッチングを行って一致或いは類似度が最も高い箇所を探索し、その座標から画像取得間における眼球運動を検出してもよい。例えば輝度画像601中の黄斑部603を用いてパターンマッチングをすることも可能である。
<OCT tomographic image overlay>
After N images are captured and processed, in step S107, the image superimposing unit 195, which is an example of an alignment unit, first aligns a plurality of tomographic luminance images. Hereinafter, the alignment method will be described with reference to FIG. Here, for alignment of the plurality of tomographic luminance images, for example, eye movement is detected by performing pattern matching of the second luminance image 602 with respect to the first luminance image 601 serving as a reference. Pattern matching is a technique for searching for a region having the highest degree of similarity to a reference image. A characteristic part is extracted from the first luminance image serving as a reference, pattern matching is performed on the second luminance image to search for a portion having the highest degree of coincidence or similarity, and an eyeball between image acquisitions from the coordinates. Motion may be detected. For example, pattern matching can be performed using the macular portion 603 in the luminance image 601.

パターンマッチングは画像重ね合わせ部195において実施され、基準となる第一の輝度画像に対してその他の複数枚の輝度画像それぞれの類似度を算出する。類似度の算出には例えば相関関数を用いることが出来る。   Pattern matching is performed in the image superimposing unit 195, and the similarity between each of the other plurality of luminance images is calculated with respect to the reference first luminance image. For example, a correlation function can be used for calculating the similarity.

本実施形態では、例えば被検体の同一箇所におけるN枚の断層輝度画像の重ねあわせを行う場合は、N−1枚の輝度画像の一枚一枚が第一の輝度画像に対して最も高い類似度となるようにパターンマッチングを行えば良い。また、パターンマッチングを行う際に類似度をパラメータとして表示すれば、断層輝度画像の重ね合わせ時に、重ね合わせを行うかどうかの指標として用いることも可能である。すなわち、類似度を表示させることにより、ユーザは、類似度が低い断層輝度画像は重ね合わせに用いない、といった判断が可能である。   In the present embodiment, for example, when N tomographic luminance images are overlapped at the same location of the subject, each of the N−1 luminance images has the highest similarity to the first luminance image. Pattern matching may be performed so that the degree is appropriate. In addition, if similarity is displayed as a parameter when pattern matching is performed, it can be used as an index for determining whether or not tomographic images are to be superimposed when tomographic luminance images are superimposed. That is, by displaying the similarity, the user can determine that a tomographic luminance image having a low similarity is not used for superposition.

画像重ね合わせ部195はパターンマッチングを行った後、最も高い類似度とするために輝度画像を移動させた変位量を記憶する。例えば図7において、時間tmにおける輝度画像に対して時間t(m+1)における輝度画像の類似度が最も高くなる時の輝度画像の変位量が(x(m+1)、y(m+1))である場合、この変位量(x(m+1)、y(m+1))を記憶しておく。ここで、記憶する変位量は平行移動に限定されない。例えば、必要に応じて回転や伸縮の変位量を記憶することが可能である。また、画像重ね合わせ部195に記憶されている変位量は、同じタイミングで取得されて画像生成部193において生成される各画像すべてに対して適応することが可能である。   After performing pattern matching, the image superimposing unit 195 stores a displacement amount by which the luminance image is moved in order to obtain the highest similarity. For example, in FIG. 7, the displacement amount of the luminance image when the similarity of the luminance image at time t (m + 1) is the highest with respect to the luminance image at time tm is (x (m + 1), y (m + 1)). The displacement amount (x (m + 1), y (m + 1)) is stored. Here, the amount of displacement to be stored is not limited to parallel movement. For example, it is possible to store the amount of displacement of rotation or expansion / contraction as required. Further, the displacement amount stored in the image superimposing unit 195 can be applied to all the images acquired at the same timing and generated in the image generating unit 193.

画像重ね合わせ部195は、画像生成部193より生成された断層輝度画像に対し、前述の通り各画像の変形を行い、変形した画像同士の同位置にある画素を平均することで、重ね合わせ画像を生成する。このとき、検出された眼球運動に基づいて、複数の断層輝度画像の位置ずれを補正することが好ましい。また、瞬きにより一定の輝度値が得られない断層輝度画像は重ね合わせ画像の中から除くことが好ましい。重ね合わせ処理が終了すると、表示制御部191は、出力情報を生成し、表示部192に出力して表示を行う。また、比較部196は生成された重ね合わせ画像のデータを記録する。   The image superimposing unit 195 deforms each image as described above with respect to the tomographic luminance image generated by the image generating unit 193, and averages the pixels at the same position of the deformed images, so that the superimposed image is obtained. Is generated. At this time, it is preferable to correct misalignment of the plurality of tomographic luminance images based on the detected eye movement. Moreover, it is preferable to remove the tomographic luminance image from which a constant luminance value cannot be obtained by blinking from the superimposed image. When the superimposition process is completed, the display control unit 191 generates output information and outputs it to the display unit 192 for display. Further, the comparison unit 196 records the generated superimposed image data.

<比較>
ステップS108では、過去取得され、重ね合わせにより生成された過去断層輝度画像831と現在取得され、重ね合わせにより生成された現在断層輝度画像841の両画像において、対応する画素同士のリターデーションを減算処理することで比較を行う。そのため、まずは比較を行うために過去断層輝度画像831と現在断層輝度画像841の位置合わせを行う。位置合わせは、過去断層輝度画像831と比較して最も相関関数が高くなるように、アフィン変換などの処理を行うことで現在断層輝度画像841を変形させる。このとき、比較対象となる過去断層輝度画像831に関しても、変形される現在断層輝度画像841と同一の領域を表示するように、共通領域を抽出し変形される。尚、変形された過去断層輝度画像831と現在断層輝度画像841の両画像は、各画素の輝度値や偏光パラメータに関して補間を行い再構成される。補間の方法は、例えば最近傍補間や双一次補間、双三次補間などにより行われる。なお、本発明において、過去の断層画像と現在の断層画像とは、異なる時刻に被検体を撮影して得た複数の断層画像であれば良い。
<Comparison>
In step S108, the retardation of corresponding pixels is subtracted in both images of the past tomographic luminance image 831 acquired in the past and generated by superposition and the current tomographic luminance image 841 currently acquired and generated by superposition. To make a comparison. Therefore, first, the past tomographic luminance image 831 and the current tomographic luminance image 841 are aligned for comparison. In the alignment, the current tomographic luminance image 841 is deformed by performing processing such as affine transformation so that the correlation function is highest as compared with the past tomographic luminance image 831. At this time, with respect to the past tomographic luminance image 831 to be compared, the common region is extracted and deformed so as to display the same region as the current tomographic luminance image 841 to be deformed. Note that both the modified past tomographic luminance image 831 and current tomographic luminance image 841 are reconstructed by interpolating the luminance value and polarization parameter of each pixel. As the interpolation method, for example, nearest neighbor interpolation, bilinear interpolation, bicubic interpolation, or the like is performed. In the present invention, the past tomographic image and the current tomographic image may be a plurality of tomographic images obtained by imaging the subject at different times.

次に、差分情報生成手段の一例である比較部196は、過去断層輝度画像831と現在断層輝度画像841とにおいて、互いに対応するピクセル同士のリターデーションを減算することで比較を行う。すなわち、差分情報生成手段は、過去断層輝度画像831に対応する過去偏光断層画像と、現在断層輝度画像841に対応する現在偏光断層画像との差分を示す情報を生成する。ここで、差分を示す情報は、例えば、差分画像、差分を示すグラフ、差分値である。なお、差分を示す情報を生成する前に、過去断層輝度画像及び現在断層輝度画像に基づいて、過去偏光断層画像及び現在偏光断層画像の位置合わせが行われている。これにより、偏光断層画像において、所定の領域の一例である偏光が解消された領域以外の領域で位置合わせを行うことができる。このため、偏光が解消された領域が病気等により経時変化していた場合においても、位置合わせを精度良く行うことができる。このとき、検出された眼球運動に基づいて、複数の断層輝度画像に対応する複数の偏光断層画像の位置ずれを補正することが好ましい。図8に示すように、減算結果は表示領域820に差分画像821として表示される。得られた減算処理の結果を読み取ることで、神経線維層の密度に関する経時変化を追うことが可能となる。例えば、減算値が正の値の領域は、すなわち複屈折性が弱まっている領域であり、一方で負の値の領域は、複屈折性が強まっている領域であることを示唆している。ここで、本実施形態では、過去断層輝度画像831に対応する過去偏光断層画像の一例であるリターデーションから現在断層輝度画像841に対応する現在偏光断層画像の一例であるリターデーションを減算する例を示した。しかし、本実施形態では、現在断層輝度画像841に対応するリターデーションから過去断層輝度画像831に対応するリターデーションを減算しても良い。その場合、減算値が負の値の領域は複屈折性が弱まっている領域であり、正の値の領域は、複屈折性が強まっている領域であることを示唆している。   Next, the comparison unit 196, which is an example of the difference information generation unit, performs comparison by subtracting the retardation of pixels corresponding to each other in the past tomographic luminance image 831 and the current tomographic luminance image 841. That is, the difference information generation unit generates information indicating a difference between the past polarization tomographic image corresponding to the past tomographic luminance image 831 and the current polarization tomographic image corresponding to the current tomographic luminance image 841. Here, the information indicating the difference is, for example, a difference image, a graph indicating the difference, or a difference value. Prior to generating the information indicating the difference, the past polarization tomographic image and the current polarization tomographic image are aligned based on the past tomographic luminance image and the current tomographic luminance image. Thereby, in the polarization tomographic image, it is possible to perform alignment in a region other than the region where the polarization, which is an example of the predetermined region, is eliminated. For this reason, alignment can be performed with high accuracy even when the region where the polarization is eliminated has changed over time due to illness or the like. At this time, it is preferable to correct the positional deviation of the plurality of polarization tomographic images corresponding to the plurality of tomographic luminance images based on the detected eye movement. As shown in FIG. 8, the subtraction result is displayed as a difference image 821 in the display area 820. By reading the result of the obtained subtraction process, it is possible to follow a change with time regarding the density of the nerve fiber layer. For example, a region where the subtraction value is a positive value is a region where birefringence is weakened, while a region where the negative value is negative is a region where birefringence is increased. Here, in the present embodiment, an example of subtracting a retardation that is an example of a current polarized tomographic image corresponding to the current tomographic luminance image 841 from a retardation that is an example of a past polarized tomographic image corresponding to the past tomographic luminance image 831. Indicated. However, in the present embodiment, the retardation corresponding to the past tomographic luminance image 831 may be subtracted from the retardation corresponding to the current tomographic luminance image 841. In this case, it is suggested that the region where the subtraction value is negative is a region where the birefringence is weakened, and the region where the positive value is positive is a region where the birefringence is increased.

また、ステップS108では、現在のRNFLの膜厚情報とRNFLのリターデーション情報をそれぞれ測定し、記録する。このRNFLの膜厚情報とリターデーション情報は、操作者が任意に選択できる。RFNLの膜厚情報は、セグメンテーションで抽出されるRNFLを示す2本の境界線の座標値から、同一のX座標を有する2点のZ成分の差分を計算することで、X座標毎の値を求めることが出来る。このように取得された膜厚データの内、任意のX座標の膜厚データ、或いは任意のX座標区間の膜厚データの平均値をRFNLの膜厚情報とする。   In step S108, the current RNFL film thickness information and RNFL retardation information are measured and recorded. The film thickness information and retardation information of the RNFL can be arbitrarily selected by the operator. The film thickness information of RFNL is calculated by calculating the difference between two Z components having the same X coordinate from the coordinate values of two boundary lines indicating RNFL extracted by segmentation. You can ask. Of the film thickness data acquired in this way, the film thickness data of an arbitrary X coordinate or the average value of the film thickness data of an arbitrary X coordinate section is used as the RFNL film thickness information.

また、RNFLのリターデーション情報は、膜厚情報を取得したX座標に対応するAスキャンライン上のRNFL内のリターデーション、或いはリターデーションの平均値として取得する。   Moreover, the retardation information of RNFL is acquired as the retardation in the RNFL on the A scan line corresponding to the X coordinate from which the film thickness information is acquired, or the average value of the retardation.

<出力>
次に、生成した各画像及び解析した結果の出力処理ステップS109について説明する。本実施形態おける出力処理は、ステップS102〜S108で取得・生成された画像と比較結果を表示する。
<Output>
Next, each generated image and the analysis result output processing step S109 will be described. In the output process in the present embodiment, the image acquired and generated in steps S102 to S108 and the comparison result are displayed.

信号処理部190内の画像生成部193、画像解析部194、画像重ね合わせ部195において、各画像の生成、解析、重ね合わせが終了すると、その結果に基づき、表示制御部191は、出力情報を生成し、表示部192に出力して表示を行う。   When the image generation unit 193, the image analysis unit 194, and the image superposition unit 195 in the signal processing unit 190 complete the generation, analysis, and superposition of each image, the display control unit 191 outputs output information based on the results. Generate and output to the display unit 192 for display.

図8は、本実施形態における表示部192における表示例である。図において、800は表示部192に表示されるウィンドウであり、表示領域810、820、830、840を有する。   FIG. 8 is a display example on the display unit 192 in the present embodiment. In the figure, reference numeral 800 denotes a window displayed on the display unit 192, and includes display areas 810, 820, 830, and 840.

第一の表示領域の一例である表示領域810には、PS−SLO140で撮影され、画像生成部193で生成された眼底画像511が表示される。眼底画像511としては、眼底輝度画像が表示されるが、偏光信号に基づく眼底画像であっても良い。眼底画像511上には画像撮影を行ったPS−OCT100の撮影位置を示すガイド522が重畳表示される。   In a display area 810 that is an example of a first display area, a fundus image 511 that is captured by the PS-SLO 140 and generated by the image generation unit 193 is displayed. A fundus luminance image is displayed as the fundus image 511, but may be a fundus image based on a polarization signal. On the fundus image 511, a guide 522 indicating the imaging position of the PS-OCT 100 that has taken the image is superimposed and displayed.

第二の表示領域である表示領域820には、過去と現在に取得された略同一箇所のリターデーションの差分が、断層画像821として表示される。このとき、差分画像に加え、セグメンテーションを重畳表示させ、各層を明示化しても良い。   In the display area 820 that is the second display area, the difference between the retardations of substantially the same location acquired in the past and the present is displayed as a tomographic image 821. At this time, in addition to the difference image, segmentation may be displayed in a superimposed manner so that each layer is made explicit.

尚、リターデーションの差分画像820の代わりに、選択された領域の比較情報を示すグラフを表示しても良い。図9においては、ステップS108にて取得されたRNFLの膜厚とリターデーションに関し、過去取得された値との比較を示すグラフ921と、リターデーションを膜厚で割って得られる膜厚当たりのリターデーション値に関する過去取得値との比較を示すグラフ922が表示されている例を示している。グラフの横軸は日付であり、取得されたデータは横軸に時系列に並べられる。また、長期に渡る経過観察の結果、取得データが多数に及ぶ場合には、任意の過去取得データを比較部196の中から選択しグラフ上に表示させることが出来る。   Instead of the retardation difference image 820, a graph indicating comparison information of the selected area may be displayed. In FIG. 9, regarding the RNFL film thickness and retardation acquired in step S108, a graph 921 showing a comparison with the previously acquired value, and the retard per film thickness obtained by dividing the retardation by the film thickness. The example which the graph 922 which shows the comparison with the past acquisition value regarding a foundation value is displayed is shown. The horizontal axis of the graph is the date, and the acquired data is arranged in time series on the horizontal axis. In addition, as a result of follow-up over a long period of time, if there are a large number of acquired data, arbitrary past acquired data can be selected from the comparison unit 196 and displayed on the graph.

第三の表示領域の一例である表示領域830には、過去断層画像831が表示される。断層画像831は、断層画像841と同一の領域を表示するように変形される。リターデーション画像に加え、セグメンテーションを重畳表示させ、各層を明示化しても良い。   A past tomographic image 831 is displayed in a display area 830 which is an example of a third display area. The tomographic image 831 is deformed so as to display the same region as the tomographic image 841. In addition to the retardation image, segmentation may be superimposed and each layer may be clearly indicated.

第四の表示領域の一例である表示領域840には、現在取得された断層画像841が表示される。断層画像841は断層画像831と比較して相関(相関関数の値)が閾値よりも大きくなるように、画像の拡大、回転、抽出などを行い変形させる(位置合わせの一例)。リターデーション画像に加え、セグメンテーションを重畳表示させ、各層を明示化しても良い。   The currently acquired tomographic image 841 is displayed in the display area 840 that is an example of the fourth display area. The tomographic image 841 is deformed by enlarging, rotating, and extracting the image so that the correlation (correlation function value) is larger than the threshold value compared to the tomographic image 831 (an example of alignment). In addition to the retardation image, segmentation may be superimposed and each layer may be clearly indicated.

なお、表示制御部191は、上述したリターデーション断層画像の代わりに、リターデーションマップを表示部192の各表示領域のいずれかに表示させても良い。また、表示制御部191は、リターデーションマップを眼底輝度画像511に重ねて表示させても良い。   The display control unit 191 may display a retardation map in any of the display areas of the display unit 192 instead of the above-described retardation tomographic image. Further, the display control unit 191 may display the retardation map so as to overlap the fundus luminance image 511.

(第2の実施形態)
第2の実施形態について、図10と図11を用いて説明する。本実施形態では、OCT断層画像で3D画像(3次元画像)を生成し、過去に診断で利用したOCT断層画像に対して、現在取得した3D画像データの中から類似度の高い断層画像を抽出し、比較する方法について説明する。
(Second Embodiment)
A second embodiment will be described with reference to FIGS. 10 and 11. In the present embodiment, a 3D image (three-dimensional image) is generated from the OCT tomographic image, and a tomographic image having a high similarity is extracted from the currently acquired 3D image data with respect to the OCT tomographic image used in the past in the diagnosis. A method for comparison will be described.

図10に示すように、3D画像を構成する各Bスキャン画像は、重ね合わせにより構成される。例えば、断層輝度画像1001は、同じスキャン位置において取得されるN枚の断層輝度画像群1011を重ね合わせることで生成される。同様にして、断層輝度画像1002〜1006も、対応するN枚の断層輝度画像群1012〜1016をそれぞれ重ね合わせることで生成する。このようにして、各Bスキャン画像が重ね合わせ画像から構成される3D画像を作成する。   As shown in FIG. 10, each B-scan image constituting the 3D image is formed by superposition. For example, the tomographic brightness image 1001 is generated by superimposing N tomographic brightness image groups 1011 acquired at the same scan position. Similarly, tomographic luminance images 1002 to 1006 are also generated by superimposing corresponding N pieces of tomographic luminance images 1012 to 1016, respectively. In this way, a 3D image in which each B-scan image is composed of superimposed images is created.

[処理動作]
次に、図11のフローチャートを用いて本実施形態の特徴的な処理動作について説明する。尚、第1の実施形態と同様の処理動作はここでは説明を割愛する。
[Processing operation]
Next, a characteristic processing operation of the present embodiment will be described using the flowchart of FIG. Note that description of processing operations similar to those of the first embodiment is omitted here.

ステップS202の撮影ステップでは、駆動制御部180がXスキャナ107、Yスキャナ110の駆動角度を各々制御し、3D画像データ取得中に各Bスキャン画像をN枚ずつ撮影する。例えば、Yスキャナ110を固定してXスキャナ107をN回スキャンすることで同一領域におけるN枚の断層輝度画像を取得し、その後、Yスキャナ110はスキャン位置を1ステップ送るように駆動制御部180によって制御される。Yスキャナ110が設定された範囲をスキャンすることでN枚ずつのBスキャン画像を有する3D画像データを取得すことが可能となる。   In the shooting step of step S202, the drive control unit 180 controls the drive angles of the X scanner 107 and the Y scanner 110, respectively, and takes N B-scan images while acquiring 3D image data. For example, the Y scanner 110 is fixed and the X scanner 107 is scanned N times to acquire N pieces of tomographic luminance images in the same area, and then the Y scanner 110 sends the scan position by one step. Controlled by. By scanning the set range by the Y scanner 110, it is possible to acquire 3D image data having N B scan images.

次に、ステップS204では、重ね合わせ部195がBスキャン画像の1枚1枚に対して、対応する同一箇所N−1枚のBスキャン画像を重ね合わせることにより、重ね合わせ画像から構成される3D画像を生成し、比較部196が生成した3D画像データを記録する。   Next, in step S204, the superimposing unit 195 superimposes the corresponding N-1 B scan images at the same location on each B scan image, thereby forming a 3D image composed of the superimposed images. An image is generated, and the 3D image data generated by the comparison unit 196 is recorded.

ステップS205では、ステップS204で構成された3D画像データを元に、過去断層輝度画像と現在断層輝度画像の比較位置を指定する。すなわち、ステップS205では、過去断層輝度画像に対して、重ね合わせ処理された現在断層輝度画像を比較し、最も類似度の高い現在断層輝度画像を、3D画像の中から抽出する。尚、類似度の計算は例えば相関関数より求める。類似度を比較する画像データはすでに重ね合わせ処理がされているので、より高精度な比較位置の抽出が可能となる。   In step S205, a comparison position between the past tomographic luminance image and the current tomographic luminance image is designated based on the 3D image data configured in step S204. That is, in step S205, the current tomographic luminance image subjected to the overlay process is compared with the past tomographic luminance image, and the current tomographic luminance image having the highest similarity is extracted from the 3D image. The similarity is calculated from, for example, a correlation function. Since the image data to be compared for similarity is already subjected to the overlay process, it is possible to extract a comparison position with higher accuracy.

以上、本実施形態のように、被検体の同一対象組織を輝度画像より抽出し、経時変化をリターデーションの差異から評価することで、医師が病理診断を行う上で有用な情報を提供出来る。例えば患眼が緑内障である場合、診療のための経過観察として定期的に画像を取得すると輝度画像では変化が殆ど見られないのに対して、複屈折率が変化する場合がある。この性質を利用し、経時的に変化しづらい輝度画像で位置合わせを行うことで、経過観察時の位置合わせがずれるリスクを回避しつつ、同一対象組織のリターデーションの差異を評価することで、輝度画像では変化が現れにくい同一対象組織の病変進行の程度を可視化することが出来る。   As described above, by extracting the same target tissue of the subject from the luminance image and evaluating the change with time from the retardation difference as in the present embodiment, it is possible to provide information useful for a doctor performing pathological diagnosis. For example, when the affected eye has glaucoma, when the image is periodically acquired as a follow-up for medical care, there is a case where the birefringence changes while the luminance image hardly changes. By using this property, by performing alignment with a luminance image that is difficult to change over time, while avoiding the risk of misalignment during follow-up observation, by evaluating the difference in retardation of the same target tissue, It is possible to visualize the extent of lesion progression of the same target tissue that hardly changes in the luminance image.

更に、RNFL膜厚とリターデーションを定期的に取得し、経過観察を行うことで診断に有効な情報を提供することができる。例えば、被検体の網膜神経線維の密度が低下した場合では複屈折率が低下するため、RNFLの膜厚が等しくとも、リターデーションが低下していくデータが得られ、緑内障の早期発見に貢献することが出来る。   Furthermore, information effective for diagnosis can be provided by periodically acquiring the RNFL film thickness and retardation and performing follow-up observation. For example, when the density of the retinal nerve fiber of the subject is decreased, the birefringence is decreased, so that even if the RNFL film thickness is equal, data with decreasing retardation can be obtained, which contributes to early detection of glaucoma. I can do it.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (19)

測定光を照射した被検体からの戻り光と参照光による共通のOCT信号を処理することで得られる被検体の断層輝度画像及び偏光断層画像であって、異なる時間に被検体を撮影して得た複数の断層輝度画像と、前記複数の断層輝度画像に対応する複数の偏光断層画像とを取得する断層画像取得手段と、
前記取得された複数の断層輝度画像の位置ずれ情報を用いて、前記取得された複数の偏光断層画像の位置合わせを行う位置合わせ手段と、
を有することを特徴とする画像処理装置。
A tomographic luminance image and a polarized tomographic image of a subject obtained by processing a common OCT signal by the return light and the reference light from the subject irradiated with the measurement light, obtained by photographing the subject at different times A plurality of tomographic image acquisition means for acquiring a plurality of tomographic luminance images and a plurality of polarized tomographic images corresponding to the plurality of tomographic luminance images;
Alignment means for aligning the plurality of polarization tomographic images acquired using the positional deviation information of the plurality of acquired tomographic luminance images;
An image processing apparatus comprising:
前記位置合わせが行われた複数の偏光断層画像の差分を示す情報を生成する生成手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a generation unit configured to generate information indicating a difference between the plurality of polarization tomographic images subjected to the alignment. 前記生成手段は、前記位置合わせが行われた複数の偏光断層画像の差分画像を、前記差分を示す情報として生成することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the generation unit generates a difference image of the plurality of polarization tomographic images subjected to the alignment as information indicating the difference. 前記生成された差分を示す情報を表示手段に表示させる表示制御手段を更に有することを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising display control means for causing the display means to display information indicating the generated difference. 前記断層画像取得手段が、前記複数の断層輝度画像として、過去断層輝度画像及び現在断層輝度画像を取得し、前記複数の偏光断層画像として、前記過去断層輝度画像に対応する過去偏光断層画像及び前記現在断層輝度画像に対応する現在偏光断層画像を取得し、
前記位置合わせ手段が、前記取得された過去断層輝度画像及び現在断層輝度画像の位置ずれ情報を用いて、前記取得された過去偏光断層画像及び現在偏光断層画像の位置合わせを行い、
前記生成手段が、前記位置合わせが行われた過去偏光断層画像及び現在偏光断層画像の差分を示す情報を生成することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
The tomographic image acquisition means acquires a past tomographic luminance image and a current tomographic luminance image as the plurality of tomographic luminance images, and the past polarized tomographic image corresponding to the past tomographic luminance image as the plurality of polarized tomographic images and the Obtain the current polarization tomographic image corresponding to the current tomographic luminance image,
The alignment means performs alignment of the acquired past polarization tomographic image and current polarization tomographic image using the positional deviation information of the acquired past tomographic luminance image and current tomographic luminance image,
5. The image processing apparatus according to claim 2, wherein the generation unit generates information indicating a difference between the past polarization tomographic image and the current polarization tomographic image in which the alignment is performed. .
前記断層画像取得手段が、前記複数の断層輝度画像として、複数の過去断層輝度画像及び複数の現在断層輝度画像を取得し、前記複数の偏光断層画像として、前記複数の過去断層輝度画像に対応する複数の過去偏光断層画像及び前記複数の現在断層輝度画像に対応する複数の現在偏光断層画像を取得し、
前記位置合わせ手段が、前記取得された複数の過去断層輝度画像の位置ずれ情報を用いて前記取得された複数の過去偏光断層画像の位置合わせを行い、前記取得された複数の現在断層輝度画像の位置ずれ情報を用いて前記取得された複数の現在偏光断層画像の位置合わせを行い、
前記生成手段が、前記位置合わせが行われた複数の過去偏光断層画像を重ね合わせて得た新たな過去偏光断層画像と、前記位置合わせが行われた複数の現在偏光断層画像を重ね合わせて得た新たな現在偏光断層画像との差分を示す情報を生成することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
The tomographic image acquisition means acquires a plurality of past tomographic luminance images and a plurality of current tomographic luminance images as the plurality of tomographic luminance images, and corresponds to the plurality of past tomographic luminance images as the plurality of polarized tomographic images. Obtaining a plurality of current polarization tomographic images corresponding to a plurality of past polarization tomographic images and the plurality of current tomographic luminance images;
The alignment means performs alignment of the acquired plurality of past polarization tomographic images using positional deviation information of the acquired plurality of past tomographic luminance images, and the plurality of acquired current tomographic luminance images. Alignment of the plurality of current polarization tomographic images acquired using the positional deviation information,
The generation means superimposes a new past polarization tomographic image obtained by superimposing the plurality of past polarization tomographic images on which the alignment has been performed and a plurality of current polarization tomographic images on which the alignment has been performed. 5. The image processing apparatus according to claim 2, wherein information indicating a difference from the new current polarization tomographic image is generated.
前記生成手段が、前記被検体を撮影する毎に前記被検体の膜厚情報とリターデーション情報とのうち少なくとも一方の情報を記録し、経過観察において、現在の撮影における該情報と過去の撮影における該情報との差分を示す情報を生成することを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。   Each time the generation means images the subject, it records at least one of the film thickness information and retardation information of the subject, and in the follow-up observation, the information in the current photographing and the past photographing The image processing apparatus according to claim 2, wherein information indicating a difference from the information is generated. 前記位置合わせが行われた複数の偏光断層画像を用いて、新たな偏光断層画像を生成する生成手段を更に有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a generation unit configured to generate a new polarization tomographic image using the plurality of polarization tomographic images subjected to the alignment. 前記断層画像取得手段は、前記複数の偏光断層画像として、過去偏光断層画像及び現在偏光断層画像を取得し、
前記生成手段は、前記新たな偏光断層画像として、前記位置合わせが行われた過去偏光断層画像及び現在偏光断層画像の差分画像を生成することを特徴とする請求項8に記載の画像処理装置。
The tomographic image acquisition means acquires a previous polarized tomographic image and a current polarized tomographic image as the plurality of polarized tomographic images,
The image processing apparatus according to claim 8, wherein the generation unit generates a difference image between the past polarization tomographic image and the current polarization tomographic image on which the alignment has been performed, as the new polarization tomographic image.
前記生成手段は、前記新たな偏光断層画像として、前記位置合わせが行われた複数の偏光断層画像の重ね合わせ画像を生成することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the generation unit generates a superimposed image of the plurality of polarization tomographic images subjected to the alignment as the new polarization tomographic image. 前記生成手段は、前記重ね合わせ画像として、過去偏光断層画像及び現在偏光断層画像を生成し、
前記位置合わせ手段が、前記生成された過去偏光断層画像に対応する過去断層輝度画像及び前記生成された現在偏光断層画像に対応する現在断層輝度画像に基づいて、前記生成された過去偏光断層画像及び前記生成された現在偏光断層画像の位置合わせを行い、
前記生成手段は、前記位置合わせが行われた過去偏光断層画像及び現在偏光断層画像の差分を示す情報を生成することを特徴とする請求項10に記載の画像処理装置。
The generation means generates a past polarization tomographic image and a current polarization tomographic image as the superimposed image,
The alignment unit is configured to generate the past polarization tomographic image generated based on the past tomographic luminance image corresponding to the generated past polarization tomographic image and the current tomographic luminance image corresponding to the generated current polarization tomographic image. Aligning the generated current polarization tomographic image,
The image processing apparatus according to claim 10, wherein the generation unit generates information indicating a difference between the past polarization tomographic image and the current polarization tomographic image on which the alignment is performed.
前記位置ずれ情報は、前記取得された複数の断層輝度画像の相関であり、
前記位置合わせ手段は、前記取得された複数の断層輝度画像の相関が大きくなるように、前記取得された複数の偏光断層画像の位置合わせを行うことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
The positional deviation information is a correlation between the acquired plurality of tomographic luminance images,
12. The alignment unit according to claim 1, wherein the alignment unit aligns the plurality of acquired polarization tomographic images so that a correlation between the acquired plurality of tomographic luminance images is increased. The image processing apparatus according to item 1.
前記位置合わせ手段は、前記取得された複数の断層輝度画像の相関が閾値を超えるように前記取得された複数の偏光断層画像の少なくとも1つを変形することにより、前記取得された複数の偏光断層画像の位置合わせを行うことを特徴とする請求項12に記載の画像処理装置。   The alignment means deforms at least one of the acquired plurality of polarization tomographic images so that a correlation between the acquired plurality of tomographic luminance images exceeds a threshold value, thereby obtaining the plurality of acquired polarization tomographic images. The image processing apparatus according to claim 12, wherein alignment of images is performed. 前記断層画像取得手段は、測定光を照射した前記被検体からの戻り光と前記測定光に対応する参照光とを合波した光を分割して得た互いに異なる偏光の光に基づいて、前記複数の断層輝度画像及び前記複数の偏光断層画像を取得することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。   The tomographic image acquisition means is based on light of different polarizations obtained by dividing light obtained by combining return light from the subject irradiated with measurement light and reference light corresponding to the measurement light. The image processing apparatus according to claim 1, wherein a plurality of tomographic luminance images and the plurality of polarization tomographic images are acquired. 前記互いに異なる偏光の光を検出する検出手段を有する撮影装置と通信可能に接続され、
前記断層画像取得手段は、前記検出された互いに異なる偏光の光に基づいて、前記複数の断層輝度画像及び前記複数の偏光断層画像を取得することを特徴とする請求項14に記載の画像処理装置。
It is connected so as to be communicable with an imaging device having a detection means for detecting light of different polarizations,
The image processing apparatus according to claim 14, wherein the tomographic image acquisition unit acquires the plurality of tomographic luminance images and the plurality of polarized tomographic images based on the detected lights of different polarizations. .
光を照射した前記被検体からの戻り光を分割して得た互いに異なる偏光の光に基づく該被検体の偏光状態を示す異なる時間の複数の平面画像を取得する平面画像取得手段と、
前記複数の平面画像の位置ずれ情報を用いて、前記被検体の移動量を検知する検知手段と、
前記検知された移動量に関する情報を用いて、前記複数の断層輝度画像及び前記複数の偏光断層画像の取得位置を補正するように、前記撮影装置を制御する制御手段と、
を更に有することを特徴とする請求項15に記載の画像処理装置。
Plane image acquisition means for acquiring a plurality of plane images at different times indicating the polarization states of the object based on lights of different polarizations obtained by dividing return light from the object irradiated with light;
Detecting means for detecting the amount of movement of the subject using positional deviation information of the plurality of planar images;
Control means for controlling the imaging apparatus so as to correct the acquisition positions of the plurality of tomographic luminance images and the plurality of polarized tomographic images using information on the detected movement amount;
The image processing apparatus according to claim 15, further comprising:
前記被検体は被検眼であることを特徴とする請求項1乃至16のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 16 subject to being a subject's eye. 測定光を照射した被検体からの戻り光と参照光による共通のOCT信号を処理することで得られる被検体の断層輝度画像及び偏光断層画像であって、異なる時間に被検体を撮影して得た複数の断層輝度画像と、前記複数の断層輝度画像に対応する複数の偏光断層画像とを取得する工程と、
前記取得された複数の断層輝度画像の位置ずれ情報を用いて、前記取得された複数の偏光断層画像の位置合わせを行う工程と、
を有することを特徴とする画像処理方法。
A tomographic luminance image and a polarized tomographic image of a subject obtained by processing a common OCT signal by the return light and the reference light from the subject irradiated with the measurement light, obtained by photographing the subject at different times Obtaining a plurality of tomographic luminance images and a plurality of polarization tomographic images corresponding to the plurality of tomographic luminance images;
Using the positional deviation information of the plurality of acquired tomographic luminance images to perform alignment of the plurality of acquired polarization tomographic images;
An image processing method comprising:
請求項18に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。 A program causing a computer to execute each step of the image processing method according to claim 18 .
JP2017138324A 2017-07-14 2017-07-14 Image processing apparatus and image processing method Active JP6437055B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017138324A JP6437055B2 (en) 2017-07-14 2017-07-14 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017138324A JP6437055B2 (en) 2017-07-14 2017-07-14 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013159177A Division JP6184232B2 (en) 2013-07-31 2013-07-31 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2017200613A JP2017200613A (en) 2017-11-09
JP2017200613A5 JP2017200613A5 (en) 2017-12-21
JP6437055B2 true JP6437055B2 (en) 2018-12-12

Family

ID=60264487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017138324A Active JP6437055B2 (en) 2017-07-14 2017-07-14 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6437055B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7443400B2 (en) * 2019-05-31 2024-03-05 株式会社ニコン Ophthalmology equipment and tomographic image generation equipment

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869756B2 (en) * 2006-03-24 2012-02-08 株式会社トプコン Fundus observation device
JP2010259675A (en) * 2009-05-08 2010-11-18 Nidek Co Ltd Retinal function measuring apparatus
JP5436076B2 (en) * 2009-07-14 2014-03-05 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5582772B2 (en) * 2009-12-08 2014-09-03 キヤノン株式会社 Image processing apparatus and image processing method
JP5698465B2 (en) * 2010-04-22 2015-04-08 キヤノン株式会社 Ophthalmic apparatus, display control method, and program
JP6039156B2 (en) * 2010-06-08 2016-12-07 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5610884B2 (en) * 2010-07-09 2014-10-22 キヤノン株式会社 Optical tomographic imaging apparatus and optical tomographic imaging method
JP5627321B2 (en) * 2010-07-09 2014-11-19 キヤノン株式会社 Optical tomographic imaging apparatus and imaging method thereof
JP5242716B2 (en) * 2011-02-08 2013-07-24 株式会社ニデック Fundus image processing device
JP5639523B2 (en) * 2011-03-31 2014-12-10 キヤノン株式会社 Optical coherence tomography apparatus, control method of optical coherence tomography apparatus, program, and ophthalmic system

Also Published As

Publication number Publication date
JP2017200613A (en) 2017-11-09

Similar Documents

Publication Publication Date Title
JP6184232B2 (en) Image processing apparatus and image processing method
JP6071331B2 (en) Image processing apparatus and image processing method
JP5988772B2 (en) Image processing apparatus and image processing method
JP6202924B2 (en) Imaging apparatus and imaging method
JP6061554B2 (en) Image processing apparatus and image processing method
JP6184231B2 (en) Image processing apparatus and image processing method
JP2014110883A (en) Image processor and image processing method
JP6061555B2 (en) Image processing apparatus and image processing method
JP2014155694A (en) Ophthalmologic apparatus and ophthalmologic method
JP2014110884A (en) Image processor and image processing method
JP2017131550A (en) Mage processing device and image processing method
JP2013146447A (en) Imaging apparatus, image processing method, and program
JP2014083285A (en) Image processor and image processing method
JP6146951B2 (en) Image processing apparatus, image processing method, photographing apparatus, and photographing method
JP5988883B2 (en) Image processing apparatus and image processing method
JP6381622B2 (en) Image processing apparatus and image processing method
JP6437055B2 (en) Image processing apparatus and image processing method
JP6505072B2 (en) Image processing apparatus and image processing method
JP2013148509A (en) Image processing device and image processing method
JP5936368B2 (en) Optical coherence tomography apparatus and method for operating the same
JP6039185B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181113

R151 Written notification of patent or utility model registration

Ref document number: 6437055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151