JP2018051177A - Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus - Google Patents

Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus Download PDF

Info

Publication number
JP2018051177A
JP2018051177A JP2016193511A JP2016193511A JP2018051177A JP 2018051177 A JP2018051177 A JP 2018051177A JP 2016193511 A JP2016193511 A JP 2016193511A JP 2016193511 A JP2016193511 A JP 2016193511A JP 2018051177 A JP2018051177 A JP 2018051177A
Authority
JP
Japan
Prior art keywords
eye
light
examined
information
scan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016193511A
Other languages
Japanese (ja)
Inventor
佐藤 眞
Makoto Sato
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016193511A priority Critical patent/JP2018051177A/en
Publication of JP2018051177A publication Critical patent/JP2018051177A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently perform the rendering of both a vascular structure and an anatomical structure and lesion of a subject eye.SOLUTION: Provided is an ophthalmic imaging apparatus, including: detection means 141, 142 for detecting light beams of different polarization obtained by splitting light obtained by multiplexing return light from a subject eye irradiated with measurement light and reference light corresponding to the measurement light; scan means 114 for scanning the subject eye with the measurement light; and control means for controlling the scan means such that the same site of the subject eye is scanned with the measurement light by a plurality of times. The ophthalmic imaging apparatus acquires motion contrast information in the subject eye using light beams of different polarization detected under control of the control means. When different sites of the subject eye corresponding to a movement of the subject eye are scanned with the measurement light under control of the control means, the ophthalmic imaging apparatus acquires information indicating the depolarization of the subject eye using light beams of different polarization detected in regions corresponding to between the different sites in the scan direction of the scan means and the depth direction of the subject eye.SELECTED DRAWING: Figure 2

Description

本発明は、眼科撮影装置に関し、特に、被検眼の血管構造の描出と解剖学的構造・病変の描出との両方を効率的に行う眼科撮影装置、及び眼科撮影装置の作動方法に関する。   The present invention relates to an ophthalmologic photographing apparatus, and more particularly to an ophthalmic photographing apparatus that efficiently draws both a blood vessel structure and an anatomical structure / lesion of an eye to be examined, and a method for operating the ophthalmic photographing apparatus.

近年、低コヒーレンス光による干渉を利用した光干渉断層撮像装置(Optical Coherence Tomography:以下、OCTと記載)が眼科用検査機器として実用化されている。OCT装置は、網膜の3次元構造を描出可能であるが、近年は単に網膜構造のみならず、連続して取得された断層像間の信号変化を利用して網膜血管を非浸襲に描出するOCTアンギオグラフィー(OCT Angiograpy:以下、OCTAと記載)や、網膜の偏光特性を利用して特定の解剖学的構造や病変を描出する偏光感受型OCT(Polarization Sensitive OCT:以下、PS−OCTと記載)が開発されている(特許文献1参照)。   In recent years, an optical coherence tomography (hereinafter referred to as OCT) using interference by low-coherence light has been put into practical use as an ophthalmic examination apparatus. Although the OCT apparatus can depict the three-dimensional structure of the retina, in recent years, not only the retinal structure but also the retinal blood vessels are rendered non-invasively using signal changes between successively acquired tomographic images. OCT angiography (hereinafter referred to as OCTA) and polarization-sensitive OCT (Polarization Sensitive OCT: hereinafter referred to as PS-OCT) that depicts specific anatomical structures and lesions using polarization characteristics of the retina. ) Has been developed (see Patent Document 1).

US2014/0228681 A1US2014 / 0228681 A1

ここで、OCTは、加齢黄斑変性や糖尿病網膜症などの失明の可能性がある疾患の診断や治療管理に有効であると考えられている。特に、これらの疾患の適切な診断および治療管理を行う上では、網膜新生血管の発生に伴って生じる病変の把握が重要である。このため、前述のOCTAによる網膜の血管構造の描出と、PS−OCTによる解剖学的構造・病変の描出との両方を効率的に実施可能な撮影装置が望まれる。   Here, OCT is considered to be effective for diagnosis and treatment management of diseases that may cause blindness such as age-related macular degeneration and diabetic retinopathy. In particular, in order to perform appropriate diagnosis and treatment management of these diseases, it is important to grasp lesions that occur with the development of retinal neovascularization. Therefore, an imaging apparatus that can efficiently perform both the above-described depiction of the vascular structure of the retina by OCTA and the depiction of the anatomical structure / lesion by PS-OCT is desired.

そこで、本発明の目的の一つは、上記課題に鑑み、被検眼の血管構造の描出と解剖学的構造・病変の描出との両方を効率的に行うことである。   Accordingly, in view of the above problems, one of the objects of the present invention is to efficiently perform both the depiction of the blood vessel structure of the eye to be examined and the depiction of the anatomical structure / lesion.

本発明に係る眼科撮影装置の一つは、
測定光を照射した被検眼からの戻り光と前記測定光に対応する参照光とを合波して得た光を分割して得た互いに異なる偏光の光を検出する検出手段と、
前記被検眼に対して前記測定光を走査する走査手段と、
前記被検眼の同一位置に対して前記測定光を複数回走査するように前記走査手段を制御する制御手段と、
前記制御手段による制御下において前記検出された互いに異なる偏光の光を用いて、前記被検眼におけるモーションコントラスト情報を取得する第1の情報取得手段と、
前記制御手段による制御下において前記被検眼の動きに対応する前記被検眼の異なる位置で前記測定光が走査された場合に、前記走査手段による走査方向及び前記被検眼の深さ方向における前記異なる位置の間で対応する領域の前記検出された互いに異なる偏光の光を用いて、前記被検眼の偏光解消性を示す情報を取得する第2の情報取得手段と、を有する。
One of the ophthalmologic photographing apparatuses according to the present invention is
Detection means for detecting light of different polarizations obtained by dividing light obtained by combining return light from the eye to be examined irradiated with measurement light and reference light corresponding to the measurement light;
Scanning means for scanning the measurement light with respect to the eye to be examined;
Control means for controlling the scanning means so as to scan the measurement light multiple times with respect to the same position of the eye to be examined;
First information acquisition means for acquiring motion contrast information in the eye to be examined using the detected lights of different polarizations under the control of the control means;
When the measurement light is scanned at different positions of the eye corresponding to the movement of the eye under control by the control means, the different positions in the scanning direction by the scanning means and the depth direction of the eye to be examined 2nd information acquisition means which acquires the information which shows the depolarization property of the said to-be-tested eye using the light of the mutually detected mutually different polarized light of the area | region corresponding to between.

本発明の一つによれば、被検眼の血管構造の描出と解剖学的構造・病変の描出との両方を効率的に行うことができる。   According to one aspect of the present invention, it is possible to efficiently perform both the depiction of the blood vessel structure of the eye to be examined and the depiction of the anatomical structure / lesion.

本実施形態による眼科撮影装置の概略構成図Schematic configuration diagram of an ophthalmologic photographing apparatus according to the present embodiment 本実施形態による干渉計の構成図Configuration diagram of interferometer according to this embodiment 本実施形態による画像生成部の構成図Configuration diagram of an image generation unit according to the present embodiment 本実施形態による表示制御部による表示形態の概略説明図Schematic explanatory diagram of the display form by the display control unit according to the present embodiment 本実施形態による画像生成および表示のフローチャートFlow chart of image generation and display according to this embodiment 本実施形態による撮影データの説明図Explanatory drawing of shooting data according to this embodiment 本実施形態による輝度断層像の説明図Illustration of luminance tomogram according to this embodiment 本実施形態によるDOPU計算の説明図Explanatory drawing of DOPU calculation by this embodiment 本実施形態による偏光解消物質の説明図Illustration of depolarizing substance according to this embodiment 本実施形態による病変を表すマップの説明図Explanatory drawing of the map showing the lesion by this embodiment 本実施形態によるフィルタの特性の説明図Explanatory drawing of the characteristic of the filter by this embodiment 本実施形態による各画像の表示例Display example of each image according to this embodiment

本実施形態に係る眼科撮影装置は、測定光を照射した被検眼からの戻り光と前記測定光に対応する参照光とを合波して得た光を分割して得た互いに異なる偏光の光を検出する検出手段(例えば、ディテクタ141、142)を有する。また、本実施形態に係る眼科撮影装置は、被検眼に対して測定光を走査する走査手段(例えば、ガルバノスキャナ114)を有する。また、本実施形態に係る眼科撮影装置は、被検眼の同一位置に対して測定光を複数回走査するように走査手段を制御する制御手段(例えば、制御部200)を有する。また、本実施形態に係る眼科撮影装置は、制御手段による制御下(制御の実行中)において検出された互いに異なる偏光の光を用いて、被検眼におけるモーションコントラスト情報を取得する第1の情報取得手段(例えば、非相関演算部315)を有する。ここで、モーションコントラスト情報とは、非相関性の高い領域(例えば血管領域)と相関性の高い領域(例えば血管以外の領域)とのコントラストに関する情報であり、例えば、時間的に異なるBスキャン間の非相関性を表す非相関断層像である。また、本実施形態に係る眼科撮影装置は、制御手段による制御下において被検眼の動きに対応する被検眼の異なる位置で測定光が走査された場合が想定される。このとき、本実施形態に係る眼科撮影装置は、走査手段による走査方向及び被検眼の深さ方向(例えば、X方向及びZ方向)における上記異なる位置(例えば、Y方向の異なる位置)の間で対応する領域(例えば、図8のr1、r2、r3)の検出された互いに異なる偏光の光を用いて、被検眼の偏光解消性を示す情報を取得する第2の情報取得手段(例えば、DOPU計算部304)を有する。ここで、偏光解消性を示す情報とは、例えば、DOPU(Degree Of Polarization Uniformity)を画素値とするDOPUデータである。   The ophthalmologic imaging apparatus according to the present embodiment is configured to divide the light obtained by combining the return light from the eye to be examined that has been irradiated with the measurement light and the reference light corresponding to the measurement light, and having different polarization lights. Detection means (for example, detectors 141 and 142). In addition, the ophthalmologic photographing apparatus according to the present embodiment includes a scanning unit (for example, a galvano scanner 114) that scans the measurement eye with measurement light. Further, the ophthalmologic photographing apparatus according to the present embodiment includes a control unit (for example, the control unit 200) that controls the scanning unit so that the measurement light is scanned a plurality of times with respect to the same position of the eye to be examined. In addition, the ophthalmologic imaging apparatus according to the present embodiment acquires first information acquisition for acquiring motion contrast information in the eye to be examined using light of different polarizations detected under control by the control unit (during execution of control). Means (for example, a decorrelation calculation unit 315). Here, the motion contrast information is information relating to the contrast between a highly uncorrelated region (for example, a blood vessel region) and a highly correlated region (for example, a region other than a blood vessel). It is a non-correlated tomographic image showing the non-correlation of. Further, the ophthalmologic photographing apparatus according to the present embodiment is assumed to be a case where the measurement light is scanned at different positions of the subject eye corresponding to the movement of the subject eye under the control of the control unit. At this time, the ophthalmologic photographing apparatus according to the present embodiment is between the different positions (for example, different positions in the Y direction) in the scanning direction by the scanning unit and the depth direction (for example, the X direction and the Z direction) of the eye to be examined. Second information acquisition means (for example, DOPU, for example) that acquires information indicating the depolarization property of the eye to be inspected using light of different polarizations detected in corresponding regions (for example, r1, r2, r3 in FIG. 8). A calculation unit 304). Here, the information indicating the depolarization property is, for example, DOPU data whose pixel value is DOPU (Degree Of Polarization Uniformity).

これにより、同一のタイミングで検出された互いに異なる偏光の光を用いて、モーションコントラスト情報と偏光解消性を示す情報との両方を取得することができる。このため、網膜の血管構造の描出と解剖学的構造・病変の描出との両方を効率的に行うことができる。なお、本実施形態に係る眼科撮影装置は、その作動方法として実行させることができる。以下、本発明の一実施形態を、図面を用いて詳細に説明する。   As a result, it is possible to acquire both motion contrast information and information indicating depolarization using light of different polarizations detected at the same timing. For this reason, both the retinal vascular structure and the anatomical structure / lesion can be efficiently depicted. The ophthalmologic photographing apparatus according to the present embodiment can be executed as its operating method. Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

[眼科撮影装置の全体構成]
図1は、本発明による眼科撮影装置の一実施形態を表すものである。まず、制御部200により制御される干渉計100は被検眼118に対して測定光を照射し、被検眼118からの戻り光を検出し、2種類の信号SおよびSを画像生成部300に出力する。画像生成部300は、2種類の信号SおよびSを処理してマップMおよび断層像Tを生成し、表示制御部400に出力する。表示制御部400は液晶ディスプレイ等の表示デバイス(不図示)を含み、入力した画像を表示する。また、生成された画像は不図示の記憶装置に被検眼を特定する情報と共に記憶される。
[Overall configuration of ophthalmic imaging apparatus]
FIG. 1 shows an embodiment of an ophthalmologic photographing apparatus according to the present invention. First, the interferometer 100 controlled by the control unit 200 irradiates the test eye 118 with measurement light, detects return light from the test eye 118, and generates two types of signals S 0 and S 1 as the image generation unit 300. Output to. The image generation unit 300 processes the two types of signals S 0 and S 1 to generate a map M and a tomographic image T, and outputs them to the display control unit 400. The display control unit 400 includes a display device (not shown) such as a liquid crystal display, and displays an input image. The generated image is stored together with information for specifying the eye to be examined in a storage device (not shown).

図1に示す眼科撮影装置は、特定の機能を持つハードウェアに接続されたPC(パーソナルコンピュータ)によって実現することが出来る。例えば、干渉計100をハードウェアで実現し、制御部200、画像生成部300および表示制御部400を前記ハードウェアに接続されたPCに搭載可能なソフトウェアモジュールで実現することが出来る。本実施形態においてはPCの演算処理装置CPUが当該ソフトウェアモジュールを実行することで機能を実現するが、本発明はこのような方法に限定されるものではない。画像生成部300は、例えば、ASIC等の専用のハードウェアで実現してもよいし、表示制御部はCPUとは異なるGPU等の専用プロセッサによってもよい。また干渉計100とPCとの接続はネットワークを介した構成によっても本発明の主旨を変更することなく実現が可能である。次に、各部の詳細な構成について説明を行う。   The ophthalmologic photographing apparatus shown in FIG. 1 can be realized by a PC (personal computer) connected to hardware having a specific function. For example, the interferometer 100 can be realized by hardware, and the control unit 200, the image generation unit 300, and the display control unit 400 can be realized by software modules that can be mounted on a PC connected to the hardware. In this embodiment, the arithmetic processing unit CPU of the PC implements the function by executing the software module, but the present invention is not limited to such a method. The image generation unit 300 may be realized by dedicated hardware such as an ASIC, for example, and the display control unit may be a dedicated processor such as a GPU different from the CPU. In addition, the connection between the interferometer 100 and the PC can be realized by a configuration via a network without changing the gist of the present invention. Next, a detailed configuration of each unit will be described.

<干渉計100の構成>
次に、図2を参照して干渉計100の構成について説明する。光源101は、波長掃引型(Swept Source:以下SS)光源であり、例えば、掃引中心波長1050nm、掃引幅100nmで掃引しながら光を出射する。光源101から出射された光は、シングルモードファイバ(以下SMファイバと記載)102、偏光制御器103、コネクタ104、SMファイバ105、ポラライザ106、偏波保持(Polarization Maintaining:PM)ファイバ(以下PMファイバと記載)107、コネクタ108、PMファイバ109を介して、ビームスプリッタ110に導かれ、測定光(OCT測定光とも言う)と参照光(OCT測定光に対応する参照光とも言う)に分岐される。
<Configuration of Interferometer 100>
Next, the configuration of the interferometer 100 will be described with reference to FIG. The light source 101 is a swept source (SS) light source, and emits light while sweeping at a sweep center wavelength of 1050 nm and a sweep width of 100 nm, for example. The light emitted from the light source 101 is a single mode fiber (hereinafter referred to as SM fiber) 102, a polarization controller 103, a connector 104, an SM fiber 105, a polarizer 106, a polarization maintaining (PM) fiber (hereinafter PM fiber). The light is guided to the beam splitter 110 via the connector 107, the PM fiber 109, and branched into measurement light (also referred to as OCT measurement light) and reference light (also referred to as reference light corresponding to the OCT measurement light). .

ビームスプリッタ110の分岐比は、90(参照光):10(測定光)である。偏光制御器103は光源101から射出する光の偏光を所望の偏光状態へ変化させることが出来る。一方、ポラライザ106は特定の直線偏光成分のみを通過させる特性を持つ光学素子である。通常光源101から射出される光は偏光度が高く、特定の偏光方向を持つ光が支配的であるが、ランダム偏光成分と呼ばれる、特定の偏光方向を持たない光が含まれている。このランダム偏光成分は偏光OCT画像の画質を悪化させることが知られており、ポラライザによってランダム偏光成分をカットする。なお、ポラライザ106を通過できるのは特定の直線偏光状態の光のみであるため、所望の光量が被検眼118に入射するように偏光制御器103によって偏光状態を調整する。   The branching ratio of the beam splitter 110 is 90 (reference light): 10 (measurement light). The polarization controller 103 can change the polarization of the light emitted from the light source 101 to a desired polarization state. On the other hand, the polarizer 106 is an optical element having a characteristic of passing only a specific linearly polarized light component. Usually, light emitted from the light source 101 has a high degree of polarization, and light having a specific polarization direction is dominant, but light that does not have a specific polarization direction, which is called a random polarization component, is included. This random polarization component is known to deteriorate the image quality of the polarized OCT image, and the random polarization component is cut by a polarizer. Since only light in a specific linear polarization state can pass through the polarizer 106, the polarization controller 103 adjusts the polarization state so that a desired amount of light enters the eye to be examined 118.

分岐された測定光は、PMファイバ111を介して出射され、コリメータ112によって平行光とされる。平行光となった測定光は1/4波長板113を透過したのち、被検眼118の眼底Erにおいて測定光を走査するガルバノスキャナ114、ダイクロイックミラー148、スキャンレンズ115、フォーカスレンズ116を介して被検眼118に入射する。ここで、ガルバノスキャナ114は単一のミラーとして記載したが、実際は被検眼118の眼底Erをラスタースキャンするように2枚のガルバノスキャナによって構成している。もちろん、光を2次元方向に走査可能な単一のミラーで構成しても良い。また、2枚のガルバノスキャナを近接して配置しても良いし、両方とも被検眼118の前眼部に対して光学的に共役な位置に配置しても良い。   The branched measurement light is emitted through the PM fiber 111 and converted into parallel light by the collimator 112. The measurement light that has become parallel light passes through the quarter-wave plate 113, and then passes through the galvano scanner 114, the dichroic mirror 148, the scan lens 115, and the focus lens 116 that scans the measurement light on the fundus Er of the eye 118 to be examined. The light enters the optometry 118. Here, although the galvano scanner 114 is described as a single mirror, actually, the galvano scanner 114 is configured by two galvano scanners so as to raster scan the fundus Er of the eye 118 to be examined. Of course, a single mirror capable of scanning light in a two-dimensional direction may be used. Two galvano scanners may be arranged close to each other, or both may be arranged at a position optically conjugate with the anterior eye portion of the eye 118 to be examined.

また、フォーカスレンズ116はステージ117上に固定されており、光軸方向に動くことで、フォーカス調整することが出来る。ガルバノスキャナ114とステージ117は制御部200によって制御され、被検眼118の眼底Erの所望の範囲で測定光を走査することが出来る。また1/4波長板113は、1/4波長板の光学軸と、その光学軸に対して直交する軸との間の位相を1/4波長分だけ遅延させる特性を持つ光学素子である。本実施形態ではPMファイバ111より射出する測定光の直線偏光の方向に対して1/4波長板の光学軸を45°だけ光軸を回転軸として回転させ、被検眼118に入射する光を円偏光とする。測定光は、ステージ117上に乗ったフォーカスレンズ116により、被検眼118に入射し、眼底Erにフォーカスされる。眼底Erを照射した測定光は各網膜層で反射・散乱し、光学経路L101をビームスプリッタ110に戻る。ビームスプリッタ110に入射した測定光の戻り光はPMファイバ126を経由し、ビームスプリッタ128に入射する。   The focus lens 116 is fixed on the stage 117, and the focus can be adjusted by moving in the optical axis direction. The galvano scanner 114 and the stage 117 are controlled by the control unit 200 and can scan the measurement light in a desired range of the fundus Er of the eye 118 to be examined. The quarter-wave plate 113 is an optical element having a characteristic of delaying the phase between the optical axis of the quarter-wave plate and an axis orthogonal to the optical axis by a quarter wavelength. In this embodiment, the optical axis of the quarter-wave plate is rotated by 45 ° around the optical axis as the rotation axis with respect to the direction of linear polarization of the measurement light emitted from the PM fiber 111, and the light incident on the eye 118 to be examined is circular. Let it be polarized light. The measurement light is incident on the eye 118 to be examined and focused on the fundus Er by the focus lens 116 mounted on the stage 117. The measurement light irradiated on the fundus Er is reflected and scattered by each retinal layer and returns to the beam splitter 110 through the optical path L101. The return light of the measurement light incident on the beam splitter 110 enters the beam splitter 128 via the PM fiber 126.

一方、ビームスプリッタ106で分岐された参照光は、PMファイバ119を介して出射され、コリメータ120によって平行光とされる。参照光は1/2波長板121、分散補償ガラス122、NDフィルタ123、コリメータ124を介し、PMファイバ127に入射する。コリメータレンズ124とPMファイバ127の一端はコヒーレンスゲートステージ125の上に固定されており、被検者の眼軸長の相違等に対応して光軸方向に駆動するように、制御部200で制御される。1/2波長板121は、1/2波長板の光学軸と、その光学軸に対して直交する軸との間の位相を1/2波長分だけ遅延させる特性を持つ光学素子である。本実施形態ではPMファイバ119より射出する参照光の直線偏光がPMファイバ127において長軸が45°傾いた偏光状態となるように調整する。なお本実施形態では参照光の光路長を変更しているが、測定光の光路と参照光の光路との光路長差を変更出来ればよい。   On the other hand, the reference light branched by the beam splitter 106 is emitted through the PM fiber 119 and converted into parallel light by the collimator 120. The reference light is incident on the PM fiber 127 through the half-wave plate 121, the dispersion compensation glass 122, the ND filter 123, and the collimator 124. One end of the collimator lens 124 and the PM fiber 127 is fixed on the coherence gate stage 125, and is controlled by the control unit 200 so as to be driven in the optical axis direction corresponding to the difference in the eye axis length of the subject. Is done. The half-wave plate 121 is an optical element having a characteristic of delaying the phase between the optical axis of the half-wave plate and an axis orthogonal to the optical axis by a half wavelength. In the present embodiment, the linearly polarized light of the reference light emitted from the PM fiber 119 is adjusted so as to have a polarization state in which the major axis is inclined by 45 ° in the PM fiber 127. In the present embodiment, the optical path length of the reference light is changed, but it is only necessary to change the optical path length difference between the optical path of the measurement light and the optical path of the reference light.

PMファイバ127を通過した参照光はビームスプリッタ128に入射する。ビームスプリッタ128では参照光の戻り光と参照光が合波されて干渉光とされた上で二つに分割される。分割される干渉光は互いに反転した位相の干渉光(以下、正の成分および負の成分と表現する)となっている。分割された干渉光の正の成分はPMファイバ129、コネクタ131、PMファイバ133を経由して偏光ビームスプリッタ135に入射する。一方、干渉光の負の偏光成分はPMファイバ130、コネクタ132、PMファイバ134を経由して偏光ビームスプリッタ136に入射する。   The reference light that has passed through the PM fiber 127 enters the beam splitter 128. In the beam splitter 128, the return light of the reference light and the reference light are combined into interference light and then divided into two. The divided interference light is interference light having phases inverted from each other (hereinafter referred to as a positive component and a negative component). The positive component of the divided interference light enters the polarization beam splitter 135 via the PM fiber 129, the connector 131, and the PM fiber 133. On the other hand, the negative polarization component of the interference light enters the polarization beam splitter 136 via the PM fiber 130, the connector 132, and the PM fiber 134.

偏光ビームスプリッタ135および136では、直交する二つの偏光軸に合わせて干渉光が分割され、水平(Horizontal)偏光成分(以下、H偏光成分)と垂直(Vertical)偏光成分(以下、V偏光成分)の二つの光にそれぞれ分割される。偏光ビームスプリッタ135に入射した正の干渉光は偏光ビームスプリッタ135において正のV偏光成分と正のH偏光成分の二つの干渉光に分割される。分割された正のH偏光成分はPMファイバ137を経由してディテクタ141に入射し、正のV偏光成分はPMファイバ138を経由してディテクタ142に入射する。   In the polarization beam splitters 135 and 136, the interference light is split along two orthogonal polarization axes, and a horizontal (Horizontal) polarization component (hereinafter referred to as an H polarization component) and a vertical (Vertical) polarization component (hereinafter referred to as a V polarization component). Are divided into two lights. The positive interference light incident on the polarization beam splitter 135 is split into two interference lights of a positive V polarization component and a positive H polarization component in the polarization beam splitter 135. The divided positive H-polarized component enters the detector 141 via the PM fiber 137, and the positive V-polarized component enters the detector 142 via the PM fiber 138.

一方、偏光ビームスプリッタ136に入射した負の干渉光は偏光ビームスプリッタ136において負のH偏光成分と負のV偏光成分に分割される。負のH偏光成分はPMファイバ139を経由してディテクタ141に入射し、負のV偏光成分はPMファイバ140を経由してディテクタ142に入射する。ディテクタ141および142はいずれも差動検出器となっており、位相が180°反転した二つの干渉信号が入力すると、直流成分を除去し、干渉成分のみを出力する。ディテクタ141で検出された干渉信号のH偏光成分とディテクタ142で検出された干渉信号のV偏光成分はそれぞれ光の強度に応じた信号SおよびSとして出力され、画像生成部300に入力される。 On the other hand, the negative interference light incident on the polarization beam splitter 136 is split into a negative H polarization component and a negative V polarization component in the polarization beam splitter 136. The negative H-polarized component is incident on the detector 141 via the PM fiber 139, and the negative V-polarized component is incident on the detector 142 via the PM fiber 140. The detectors 141 and 142 are both differential detectors. When two interference signals whose phases are inverted by 180 ° are input, the DC components are removed and only the interference components are output. The H polarization component of the interference signal detected by the detector 141 and the V polarization component of the interference signal detected by the detector 142 are output as signals S 0 and S 1 corresponding to the light intensity, respectively, and input to the image generation unit 300. The

なお、ディテクタ141および142は光源101が出力するトリガ信号(不図示)に同期して前述の信号SおよびSを検出する。光源101が出力するトリガ信号は、掃引される測定光の波数に同期しており、信号SおよびSは波数に対して線形な信号として出力される。 The detectors 141 and 142 detect the signals S 0 and S 1 described above in synchronization with a trigger signal (not shown) output from the light source 101. The trigger signal output from the light source 101 is synchronized with the wave number of the measurement light to be swept, and the signals S 0 and S 1 are output as signals that are linear with respect to the wave number.

(SLO構成)
SLO光源150は780nm付近に中心値を持つ眼底撮像用の光源であり、APD(Avalanche Photodiode)152は780nm付近に感度を持つ眼底撮像用のセンサである。一方、固視灯149は可視光を発生して被検者の固視を促すものである。151、157はレンズである。154、156、158、162、163はミラーである。光源149、150から出た光束はいずれもスキャナ153の付近で一度結像し、被検眼118の眼底Er付近で再度結像される。スキャナ153は制御部200によって制御され、被検眼118の眼底Erの所望の範囲で測定光を走査することが出来る。
(SLO configuration)
An SLO light source 150 is a fundus imaging light source having a center value near 780 nm, and an APD (Avalanche Photodiode) 152 is a fundus imaging sensor having sensitivity near 780 nm. On the other hand, the fixation lamp 149 generates visible light to promote fixation of the subject. Reference numerals 151 and 157 denote lenses. Reference numerals 154, 156, 158, 162, and 163 denote mirrors. The light beams emitted from the light sources 149 and 150 once form an image in the vicinity of the scanner 153 and form an image again in the vicinity of the fundus Er of the eye 118 to be examined. The scanner 153 is controlled by the control unit 200 and can scan the measurement light in a desired range of the fundus Er of the eye 118 to be examined.

ここで、スキャナ153は、単一のミラーとして記載したが、実際はSLO測定光をX方向に主走査する共振スキャナと、SLO測定光をY方向に副走査するガルバノスキャナによって構成されている。光を2次元方向に走査可能な単一のミラーで構成しても良い。また、2枚のガルバノスキャナを近接して配置しても良いし、両方とも被検眼118の前眼部に対して光学的に共役な位置に配置しても良い。OCTと同様に、2度目の結像位置が被検眼118の眼底面と一致するようにレンズ117が駆動制御される。レンズ117の光軸上に位置するダイクロイックミラー148によって、前述のOCT光学系の光路L101と、固視灯およびSLO光学系の光路L102とに波長帯域ごとに分岐される。光路L102は、SLO光源150、固視灯149からの光を眼底Erへ入射、そして、眼底からの反射光をSLO光学系へ入射させる光軸である。光路L102の方向に反射した眼底からの光がミラー156で反射してAPD152で検知される。   Here, although the scanner 153 is described as a single mirror, it is actually configured by a resonant scanner that performs main scanning with SLO measurement light in the X direction and a galvano scanner that performs sub-scanning with SLO measurement light in the Y direction. You may comprise with the single mirror which can scan light to a two-dimensional direction. Two galvano scanners may be arranged close to each other, or both may be arranged at a position optically conjugate with the anterior eye portion of the eye 118 to be examined. Similarly to the OCT, the lens 117 is driven and controlled so that the second imaging position coincides with the fundus oculi of the eye 118 to be examined. A dichroic mirror 148 positioned on the optical axis of the lens 117 branches the optical path L101 of the OCT optical system and the optical path L102 of the fixation lamp and SLO optical system for each wavelength band. The optical path L102 is an optical axis through which light from the SLO light source 150 and the fixation lamp 149 enters the fundus Er, and reflected light from the fundus enters the SLO optical system. The light from the fundus reflected in the direction of the optical path L102 is reflected by the mirror 156 and detected by the APD 152.

<制御部200>
次に、制御部200について説明する。前述したように、本実施形態において制御部200は、CPUにより実行されるソフトウェアモジュールであり、干渉計100の各部を制御すると共に本実施形態による眼科撮影装置全体の動作を制御する。また、制御部200は眼科撮影装置を操作するユーザの入力も受け付けるものとする。具体的には、制御部200には被検眼を特定する患者ID等の情報、撮影に必要なパラメータ、眼底をスキャンするパターンの選択等を不図示のキーボードやマウス等のデバイスから入力し、これに基づいて各部を制御すると共に得られた信号、画像等のデータを不図示の記憶装置に保存する機能を有する。すなわち、制御部200は、被検眼の情報を入力し、干渉計100を制御して2種類の信号SおよびSを出力させると共に、画像生成部300で生成された画像を表示制御部400が表示する流れの全体を制御する。制御部200の動作フローについては後述する。
<Control unit 200>
Next, the control unit 200 will be described. As described above, in the present embodiment, the control unit 200 is a software module executed by the CPU, and controls each unit of the interferometer 100 and controls the operation of the entire ophthalmologic photographing apparatus according to the present embodiment. The control unit 200 also receives input from a user who operates the ophthalmologic photographing apparatus. Specifically, information such as a patient ID for specifying an eye to be examined, parameters necessary for imaging, selection of a pattern for scanning the fundus, and the like are input to the control unit 200 from a device such as a keyboard or a mouse (not shown). And a function of saving the obtained data such as signals and images in a storage device (not shown). That is, the control unit 200 inputs information on the eye to be examined, controls the interferometer 100 to output two types of signals S 0 and S 1 , and displays the image generated by the image generation unit 300 as a display control unit 400. Controls the overall flow displayed by. The operation flow of the control unit 200 will be described later.

<画像生成部300>
図3は、画像生成部300の構成を示すものである。画像生成部300は、干渉計100から出力された2つの信号SおよびSに対して様々な処理を行う事で、被検眼に関する以下の画像を生成・出力する。
<Image Generation Unit 300>
FIG. 3 shows the configuration of the image generation unit 300. The image generation unit 300 generates and outputs the following images related to the eye to be examined by performing various processes on the two signals S 0 and S 1 output from the interferometer 100.

(1)被検眼の偏光特性を描出する画像:Tδ、Tθ、Mδ、Mθ
(2)被検眼の網膜構造および病変の位置を表す情報および画像:P、P、T、M、M、M
(3)被検眼の血管構造を描出する画像:T、M
各画像の詳細およびその生成方法については、後述する撮像動作のフローにおいて説明する。
(1) Image depicting polarization characteristics of eye to be examined: T δ , T θ , M δ , M θ
(2) the subject's eye retinal structure and lesion information representative of the location and image: P R, P L, T I, M R, M L, M I
(3) Images depicting the blood vessel structure of the eye to be examined: T D , M V
Details of each image and a generation method thereof will be described in a flow of imaging operation described later.

<表示制御部400>
次に、表示制御部400について説明する。前述したように表示制御部400は液晶ディスプレイ等の表示デバイスを含み、画像生成部300から入力した画像を表示する。図4は、表示制御部400によって表示される画面の構成を示したものである。なお、同図において示される画面とは別に、制御部200によって入力される患者ID等の被検眼の特定情報の入力画面が必要であるが、これは公知の構成による事が出来、本発明の中心的部分ではないため説明は省略する。
図4において表示デバイス401には、被検眼情報の表示領域403と画像表示領域402で構成される画面が表示される。被検眼情報表示領域403には、患者ID、氏名、年齢等の情報が表示される。画像表示領域402は、後述する様々な種類の画像の表示領域404、405、406とそれらを選択するためのユーザインタフェース407、408、409、410が配置されている。なお、図4は、これらのユーザインタフェースの実装形態の一例を示すもので、本発明はこれに限定されるものではない。すなわち、画像の選択を行うものとして、図4に示すプルダウンメニューやスライダではなく、ラジオボタン、テキストボックス等のユーザインタフェースの要素を用いてもよい。各表示領域に表示される画像とユーザインタフェースの機能は、後述する撮影動作のフローにおいて説明する。
<Display control unit 400>
Next, the display control unit 400 will be described. As described above, the display control unit 400 includes a display device such as a liquid crystal display, and displays an image input from the image generation unit 300. FIG. 4 shows the configuration of the screen displayed by the display control unit 400. In addition, in addition to the screen shown in the figure, an input screen for specific information of the eye to be examined such as a patient ID input by the control unit 200 is necessary. Since it is not a central part, description is omitted.
In FIG. 4, the display device 401 displays a screen including a display area 403 for eye information and an image display area 402. In the eye information display area 403, information such as patient ID, name, and age is displayed. In the image display area 402, various types of image display areas 404, 405, and 406, which will be described later, and user interfaces 407, 408, 409, and 410 for selecting them are arranged. FIG. 4 shows an example of the implementation form of these user interfaces, and the present invention is not limited to this. That is, for selecting an image, elements of a user interface such as a radio button or a text box may be used instead of the pull-down menu and slider shown in FIG. The image displayed in each display area and the function of the user interface will be described in the flow of the photographing operation described later.

[撮像動作]
次に制御部200によって制御される、本発明による眼科撮影装置の動作を図5に示すフローチャートを参照しながら説明する。
[Imaging operation]
Next, the operation of the ophthalmologic photographing apparatus according to the present invention controlled by the control unit 200 will be described with reference to the flowchart shown in FIG.

<ステップS510:OCTスキャン>
制御部200は、前述した方法により干渉計100を制御する事で、被検眼からの異なる偏光成分を検出した信号SおよびSを出力させる。図6は、眼底Er上における測定領域と干渉計100から出力される信号を示すものである。図6(A)において、601は被検眼118の眼底Er上における測定領域を示している。制御部200は、干渉計100のガルバノスキャナ114を制御する事で、測定領域601において複数の測定光走査を行い、信号を取得する。図6(A)の602は、ガルバノスキャナ114による測定光の走査の軌跡の一例を示すものである。
<Step S510: OCT scan>
The control unit 200 controls the interferometer 100 by the method described above to output signals S 0 and S 1 in which different polarization components from the eye to be examined are detected. FIG. 6 shows a measurement region on the fundus oculi Er and a signal output from the interferometer 100. In FIG. 6A, reference numeral 601 denotes a measurement region on the fundus Er of the eye 118 to be examined. The control unit 200 controls the galvano scanner 114 of the interferometer 100 to perform a plurality of measurement light scans in the measurement region 601 and acquire signals. Reference numeral 602 in FIG. 6A shows an example of the scanning trajectory of the measurement light by the galvano scanner 114.

本実施形態において、制御部200は、干渉計100を制御して同一のY座標に対して測定光を複数回走査し、各走査において信号SおよびSを取得する。これを測定領域602の全てのY方向の範囲に対して繰り返す事により、図6(B)で示すボリュームデータ603を取得する。同図の604は、あるY座標位置におけるN回分の走査に対応して得られる信号を1枚の平面として表したものである。また、図6(C)および図6(D)は1回の走査により得られるN回分の信号を表しており、図6(C)は、水平偏光成分の信号、図6(D)は垂直偏光成分の信号に対応している。すなわち、図6(B)の604で示されるデータは、図6(C)および図6(D)で示すデータから構成されている。 In the present embodiment, the control unit 200 controls the interferometer 100 to scan the measurement light with respect to the same Y coordinate a plurality of times, and obtains signals S 0 and S 1 in each scan. By repeating this for all the Y-direction ranges of the measurement region 602, the volume data 603 shown in FIG. 6B is acquired. 604 in the figure represents a signal obtained as a single plane corresponding to N scans at a certain Y coordinate position. 6C and 6D show N signals obtained by one scan, FIG. 6C shows a signal of a horizontal polarization component, and FIG. 6D shows a vertical signal. It corresponds to the signal of the polarization component. That is, the data indicated by 604 in FIG. 6B is composed of the data indicated in FIGS. 6C and 6D.

詳細は後述するが、本実施形態では、図6(C)および図6(D)で示すN回分の信号から、図6(B)の604に対応した複数の種類の画像、すなわち被検眼の偏光特性、病変、血管構造等に関わる画像を生成する。なお、以降の説明において上記1回分の走査により得られる信号をBスキャンと呼ぶ。また、同一のY座標において取得されたN枚のBスキャン群をBスキャングループと呼ぶ。また、以降の説明において各処理部の動作は制御部200によって全体が制御され、必要なデータの入出力が行われるものとする。   Although details will be described later, in the present embodiment, a plurality of types of images corresponding to 604 in FIG. 6B, that is, the eye of the eye to be examined, are obtained from the N times of signals shown in FIGS. 6C and 6D. Generate images related to polarization characteristics, lesions, vascular structures, etc. In the following description, the signal obtained by the above-mentioned scanning is called a B scan. Further, N B scan groups acquired at the same Y coordinate are referred to as B scan groups. In the following description, it is assumed that the operation of each processing unit is entirely controlled by the control unit 200, and necessary data is input / output.

ここで、制御部200は、被検眼の動きを検知する等によって、被検眼の同一位置に対して測定光を複数回走査するように走査手段を制御する場合、被検眼の動きを検知してから走査手段を制御するまでの遅延等によって、被検眼の同一位置に対して測定光を正確に走査することは難しい。このため、実際には、被検眼の動きに対応する被検眼の異なる位置で測定光が走査されることになる。すなわち、本実施形態では、N枚のBスキャン群が取得される位置が「同一位置」になるように測定光が走査されてはいるが、被検眼の動きの影響を受けてしまうため、実際には、被検眼の動きに対応する被検眼の「異なる位置」で測定光が走査される場合を想定している。ただし、上述した遅延が限りなくゼロで測定光を走査できる場合には、この限りではない。   Here, the control unit 200 detects the movement of the eye to be examined when the scanning unit is controlled to scan the measurement light multiple times with respect to the same position of the eye by detecting the movement of the eye to be examined. It is difficult to accurately scan the measurement light with respect to the same position of the eye to be inspected due to a delay or the like until the scanning means is controlled. Therefore, actually, the measurement light is scanned at different positions of the subject eye corresponding to the movement of the subject eye. That is, in this embodiment, the measurement light is scanned so that the position where the N B scan groups are acquired is the “same position”, but it is affected by the movement of the eye to be examined. In this case, it is assumed that the measurement light is scanned at “different positions” of the eye to be examined corresponding to the movement of the eye to be examined. However, this is not the case when the measurement light can be scanned with the above-described delay being zero.

<ステップS520:再構成>
再構成部301は、干渉計100から出力された各偏光成分の信号SおよびSを断層信号rおよびrに変換する。この処理には波長掃引型のOCTの公知の技術を用いる事が出来る。すなわち、SおよびSに対して固定ノイズ除去、ウィンドウ処理等を行った後にフーリエ変換を施す事で断層信号rおよびrを生成する。また、必要に応じて分散補償等の位相補正を行うようにしてもよい。本ステップで生成された信号は、以下で示す被検眼の後方散乱光の各偏光成分の空間的な分布となる。
(式1)
={r(x,y,z,n)│(x,y,z,n)∈T}
={A(x,y,z,n)exp
{iΦ(x,y,z,n)}│(x,y,z,n)∈T}
={r(x,y,z,n)│(x,y,z,n)∈T}
={A(x,y,z,n)exp
{iΦ(x,y,z,n)}│(x,y,z,n)∈T}
<Step S520: Reconfiguration>
The reconstruction unit 301 converts the signals S 0 and S 1 of each polarization component output from the interferometer 100 into tomographic signals r 0 and r 1 . For this processing, a known technique of wavelength sweep type OCT can be used. That is, tomographic signals r 0 and r 1 are generated by performing Fourier transform after performing fixed noise removal, window processing, and the like on S 0 and S 1 . Further, phase correction such as dispersion compensation may be performed as necessary. The signal generated in this step is a spatial distribution of each polarization component of the backscattered light of the eye to be examined shown below.
(Formula 1)
r 0 = {r 0 (x, y, z, n) | (x, y, z, n) ∈T}
= {A 0 (x, y, z, n) exp
{IΦ 0 (x, y, z, n)} | (x, y, z, n) ∈T}
r 1 = {r 1 (x, y, z, n) | (x, y, z, n) ∈T}
= {A 1 (x, y, z, n) exp
{IΦ 1 (x, y, z, n)} | (x, y, z, n) ∈T}

ただし、x、y、z、は図6(A)および図6(B)に示す被検眼の計測範囲(X方向の長さW、Y方向の長さHおよびZ方向の大きさDにおける座標の値であり、   However, x, y, z are coordinates in the measurement range (length W in the X direction, length H in the Y direction, and size D in the Z direction) shown in FIGS. 6 (A) and 6 (B). Value of

Figure 2018051177
である。
Figure 2018051177
It is.

また、nはステップS510で説明したN回の走査におけるn番目のBスキャンであり、   N is the n-th B scan in the N scans described in step S510,

Figure 2018051177

である。
Figure 2018051177

It is.

図6(E)および図6(F)は生成された2種類の断層信号を示したものである。また、Tは1回の撮影において得られるデータのX、Y,Z方向および各Y座標位置においてN回繰り返される走査の添字の範囲を表している。上述のように再構成された断層信号rおよびrはStokesベクトル計算部303、Bスキャン位置合わせ部302、バンドパスフィルタH0(313)、バンドパスフィルタH1(314)およびBスキャン位置合わせ部302に出力される。 FIGS. 6E and 6F show the two types of generated tomographic signals. T represents a range of subscripts of scanning repeated N times in the X, Y, Z directions and each Y coordinate position of data obtained in one photographing. The tomographic signals r 0 and r 1 reconstructed as described above are the Stokes vector calculation unit 303, the B scan alignment unit 302, the band pass filter H0 (313), the band pass filter H1 (314), and the B scan alignment unit. 302 is output.

<ステップS530:Bスキャン位置合わせ>
制御部200は、Bスキャン位置合わせ部302を制御する事により、再構成されたBスキャングループ内の各Bスキャン間の位置合わせパラメータを計算する。すなわち、図6(E)および図6(F)に示したN枚のBスキャンの間には、被検眼の固視微動等による位置ずれが存在するが、Bスキャン位置合わせ部302はこのずれ量を検出して後続の処理パラメータとして出力する。
<Step S530: B-scan alignment>
The control unit 200 controls the B scan alignment unit 302 to calculate alignment parameters between the B scans in the reconfigured B scan group. In other words, there is a positional shift between the N B scans shown in FIGS. 6 (E) and 6 (F) due to the fixation eye movement of the eye to be examined. The amount is detected and output as a subsequent processing parameter.

まず、Bスキャン位置合わせ部302は、入力した各偏光成分の断層信号rおよびrから輝度信号Iを次式で計算する。
(式2)
I={I(x,y,z,n)│(x,y,z,n)∈T}
={A(x,y,z,n)+A(x,y,z,n)│(x,y,z,n)∈T}
First, the B scan alignment unit 302 calculates the luminance signal I from the input tomographic signals r 0 and r 1 of each polarization component by the following equation.
(Formula 2)
I = {I (x, y, z, n) | (x, y, z, n) ∈T}
= {A 0 (x, y, z, n) 2 + A 1 (x, y, z, n) 2 | (x, y, z, n) ∈T}

次に、Bスキャン位置合わせ部302は、同一のBスキャングループから位置合わせの基準となるBスキャン(以降参照Bスキャンと呼ぶ)を選択する。参照BスキャンはN枚のBスキャンの中から特定の位置(例えばN/2番目)を選択してもよいし、Bスキャン毎に輝度信号のコントラストが最も高くなるBスキャンを選択してもよい。   Next, the B scan alignment unit 302 selects a B scan (hereinafter referred to as a reference B scan) that serves as an alignment reference from the same B scan group. For the reference B scan, a specific position (for example, N / 2nd) may be selected from N B scans, or a B scan with the highest contrast of the luminance signal may be selected for each B scan. .

次に、Bスキャン位置合わせ部302は参照Bスキャンに対し、Bスキャングループ内の他のBスキャンの相対的な位置ずれ量を計算する。Bスキャン位置合わせ部302は、図7(A)に示すように選択した参照Bスキャン701において関心領域702を設定する。本実施形態において、関心領域702は、参照Bスキャン701において最も輝度信号の分散が高くなる領域を選択する。また、関心領域702の大きさは事前に被検眼の動きの大きさや計算に要する時間を考慮して決定され、画像生成部500内の不図示のメモリに記憶されているものとする。   Next, the B scan alignment unit 302 calculates the relative positional deviation amount of the other B scans in the B scan group with respect to the reference B scan. The B scan alignment unit 302 sets a region of interest 702 in the selected reference B scan 701 as shown in FIG. In the present embodiment, the region of interest 702 selects a region where the variance of the luminance signal is highest in the reference B scan 701. The size of the region of interest 702 is determined in advance in consideration of the size of the eye movement and the time required for calculation, and is stored in a memory (not shown) in the image generation unit 500.

Bスキャン位置合わせ部302は、参照Bスキャンにおける関心領域702をテンプレートとして、公知のテンプレートマッチングにより各Bスキャンの参照Bスキャンに対する相対位置を検出し、位置合わせパラメータΔ=Δ(y)={(Δx,Δz)}を生成して出力する。本実施形態において、位置合わせパラメータΔは、各Bスキャン内の各画素の座標を参照Bスキャンの座標に変換するためのオフセットである。すなわち、Bスキャン内の画素I(x,y,z,n)の、対応する参照Bスキャンにおける画素は、I(x+Δx,y,z+Δz,n)で計算される。   The B scan alignment unit 302 detects the relative position of each B scan with respect to the reference B scan by known template matching using the region of interest 702 in the reference B scan as a template, and alignment parameter Δ = Δ (y) = {( Δx, Δz)} is generated and output. In the present embodiment, the alignment parameter Δ is an offset for converting the coordinates of each pixel in each B scan into the coordinates of the reference B scan. That is, the pixel in the corresponding reference B scan of the pixel I (x, y, z, n) in the B scan is calculated as I (x + Δx, y, z + Δz, n).

なお、位置合わせパラメータとして他の形態を用いることもできる。例えば、関心領域を複数設定して参照Bスキャンと他のBスキャンとの間でアフィン変換を行うためのマトリクスを位置合わせパラメータとして計算してもよいし、複数の関心領域のマッチングに基づいて非線形な座標変換を行うためのパラメータを位置合わせパラメータとしてもよい。   It should be noted that other forms can be used as the alignment parameters. For example, a matrix for performing a affine transformation between a reference B scan and another B scan by setting a plurality of regions of interest may be calculated as an alignment parameter, or nonlinear based on matching of a plurality of regions of interest A parameter for performing coordinate conversion may be used as an alignment parameter.

いずれの場合も、Bスキャン位置合わせ部302は、画像生成部500内の不図示のメモリに輝度信号I、位置合わせパラメータΔ(y)およびBスキャングループ内の参照Bスキャンの番号nref(y)を保存する。 In any case, the B scan alignment unit 302 stores the luminance signal I, the alignment parameter Δ (y), and the reference B scan number n ref (y in the B scan group) in a memory (not shown) in the image generation unit 500. ).

<ステップS540:平均輝度断層像計算>
制御部200は、平均輝度断層像生成部310を制御することにより、平均輝度画像を生成する。平均輝度断層像生成部310は、Bスキャン位置合わせ部302から出力された輝度信号I、位置合わせパラメータΔ(y)およびBスキャングループ内の参照Bスキャンの番号nref(y)から各Bスキャングループ内のBスキャンを平均した平均輝度断層像
<Step S540: Average Luminance Tomographic Image Calculation>
The control unit 200 controls the average luminance tomographic image generation unit 310 to generate an average luminance image. The average luminance tomogram generation unit 310 performs each B scan from the luminance signal I output from the B scan alignment unit 302, the alignment parameter Δ (y), and the reference B scan number n ref (y) in the B scan group. Average luminance tomogram averaged over B scans within the group

Figure 2018051177
を計算する。
Figure 2018051177
Calculate

Figure 2018051177

但し、上式においてX方向およびZ方向の座標値は、前述した位置合わせパラメータΔ(y)で補正されているものとする。すなわち、参照Bスキャン以外の各Bスキャンにおける座標値は(x,y,z)は(x+Δx,y,z+Δz)として補正されている。
Figure 2018051177

However, in the above equation, the coordinate values in the X direction and the Z direction are corrected by the alignment parameter Δ (y) described above. That is, the coordinate values in each B scan other than the reference B scan are corrected as (x + Δx, y, z + Δz).

<ステップS550:網膜構造断層像計算>
制御部200は、層認識部311、Stokesベクトル計算部303〜偏光解消物質分類部305を制御することにより、被検眼の網膜構造を描出する断層像T、RPEと病変の位置情報PおよびPを生成する。網膜層認識部311は、平均輝度断層像
<Step S550: Retina Structure Tomographic Image Calculation>
Control unit 200, by controlling the layer recognition unit 311, Stokes vector calculating unit 303 to depolarizing material classification unit 305, the tomographic image T I to render retinal structure of the eye, RPE and lesion position information P R and to generate a P L. The retinal layer recognition unit 311 is configured to display an average luminance tomogram.

Figure 2018051177

のZ方向のデータ列(以降Aスキャンと呼ぶ)から内境界膜(ILM)を検出する。具体的には、層認識部311は、各Aスキャンに対し硝子体側からエッジを抽出し、当該エッジの座標をAスキャン毎に画像生成部500内の不図示のメモリにILM境界位置情報BILMとして記憶する。さらに、網膜層認識部311は、網膜層の内網状層(IPL)と内顆粒層(INL)の境界BIPLを抽出し、IPL境界位置情報として記憶する。
Figure 2018051177

The inner boundary film (ILM) is detected from the Z-direction data string (hereinafter referred to as A scan). Specifically, the layer recognizing unit 311 extracts an edge from the vitreous side for each A scan, and the coordinates of the edge are stored in a memory (not shown) in the image generating unit 500 for each A scan in the ILM boundary position information B ILM. Remember as. Further, the retinal layer recognition unit 311 extracts the boundary B IPL between the inner reticular layer (IPL) and the inner granular layer (INL) of the retinal layer and stores it as IPL boundary position information.

Figure 2018051177

また、網膜層認識部311は、平均輝度断層像
Figure 2018051177

In addition, the retinal layer recognition unit 311 performs an average luminance tomogram.

Figure 2018051177
とILM境界位置情報BILM、およびIPL境界位置情報BIPLを関連付けて輝度断層像Tとして記憶すると共に、表示制御部400に出力する。なお、上記抽出処理はこれに限定されることなくエッジ抽出に先立ちメディアンフィルタ等によりノイズ抑制を行ってもよい。また、ILMの平均的な境界位置、輝度情報を特徴量とした識別器を用いるようにしてもよい。次に、Stokesベクトル計算部303は、入力した各偏光成分の断層信号rおよびrから被検眼内の各座標位置におけるStokesベクトルS=S(x,y,z,n)を次式により計算する。
Figure 2018051177
, ILM boundary position information B ILM , and IPL boundary position information B IPL are stored in association with each other as a luminance tomographic image T I and output to the display control unit 400. The extraction process is not limited to this, and noise suppression may be performed by a median filter or the like prior to edge extraction. In addition, a discriminator having an average boundary position of ILM and luminance information as a feature amount may be used. Next, the Stokes vector calculation unit 303 calculates a Stokes vector S = S (x, y, z, n) at each coordinate position in the eye to be examined from the input tomographic signals r 0 and r 1 of each polarization component by the following equation. calculate.

Figure 2018051177
計算されたStokesベクトルSは、Stokesベクトル平均部307およびDOPU計算部304に出力される。DOPU計算部304は、Stokesベクトル計算部303で計算したStokesベクトルSから被写体の偏光解消性を示す情報であるDOPU(Degree Of Polarization Uniformity)を画素値とするDOPUデータであるDOPUを次式により計算する。ここで、DOPU計算部304は、互いに異なる偏光の光を用いて被検眼の偏光解消性を示す情報を取得する第2の情報取得手段の一例である。
Figure 2018051177
The calculated Stokes vector S is output to the Stokes vector averaging unit 307 and the DOPU calculation unit 304. The DOPU calculation unit 304 calculates DOPU, which is DOPU data whose pixel value is DOPU (Degree Of Polarization Uniformity), which is information indicating the depolarization property of the subject, from the Stokes vector S calculated by the Stokes vector calculation unit 303 by the following equation. To do. Here, the DOPU calculation unit 304 is an example of a second information acquisition unit that acquires information indicating the depolarization property of the eye to be examined using light of different polarizations.

Figure 2018051177
但し、上式においてX方向およびZ方向の座標値は、ステップS540で説明したと同様、座標値は(x,y,z)は(x+Δx,y,z+Δz)として補正されているものとする。
Figure 2018051177
However, in the above equation, the coordinate values in the X direction and the Z direction are corrected as (x + Δx, y, z + Δz) in the coordinate values (x, y, z) as described in step S540.

図8は、(式6)のDOPUのある特定位置Y=yにおける計算を繰り返し走査数N=3として模式化したものである。図8において、r1〜r3は、各Bスキャンの同一位置に設定された関心領域であり、(式6)のRは3つの関心領域全てを対象とした座標の範囲であり、Mは領域R内の全ての画素の数である。すなわち、DOPU計算部304は、R内の全てのストークスベクトルの要素から、(式6)に従ってDOPUを計算し、偏光解消物質分類部305に出力する。すなわち、DOPUは(式6)に示すように1枚のBスキャンに対応するものである。なお、この場合、被検眼の「同一位置」に対して測定光を複数回走査するように走査手段を制御してはいるが、上述したように、被検眼の動きの影響を受けてしまうため、実際には、被検眼の動きに対応する被検眼の「異なる位置」で測定光が走査される。   FIG. 8 schematically shows the calculation at the specific position Y = y of the DOPU in (Equation 6) as the number of repeated scans N = 3. In FIG. 8, r1 to r3 are regions of interest set at the same position in each B scan, R in (Expression 6) is a range of coordinates for all three regions of interest, and M is a region R. The number of all pixels in That is, DOPU calculation section 304 calculates DOPU from all Stokes vector elements in R according to (Equation 6), and outputs the result to depolarization substance classification section 305. That is, DOPU corresponds to one B-scan as shown in (Formula 6). In this case, although the scanning means is controlled to scan the measurement light with respect to the “same position” of the eye to be examined a plurality of times, as described above, it is affected by the movement of the eye to be examined. Actually, the measurement light is scanned at “different positions” of the eye to be examined corresponding to the movement of the eye to be examined.

次に、偏光解消物質分類部305は、入力したDOPUを網膜色素上皮(RPE)、脈絡膜内の偏光解消物質、病変およびその他の領域に分割する。まず、偏光解消物質分類部305は、DOPUに対して閾値処理を行う。DOPUの画素値は被写体の位置(x,y,z)における偏光解消度を示し、値が小さいほど偏光解消性が大きい。そこで、偏光解消物質分類部305は、閾値が例えば0.75以下の画素を閾値処理により抽出する。   Next, the depolarizing substance classification unit 305 divides the input DOPU into retinal pigment epithelium (RPE), depolarizing substance in the choroid, lesions, and other regions. First, the depolarizing substance classification unit 305 performs threshold processing on DOPU. The pixel value of DOPU indicates the degree of depolarization at the position (x, y, z) of the subject, and the smaller the value, the greater the depolarization. Therefore, the depolarizing substance classification unit 305 extracts pixels having a threshold value of, for example, 0.75 or less by threshold processing.

図9は、閾値処理後のDOPUデータの例であり、網膜層において強い偏光解消性を示すRPE901、脈絡膜偏光解消物質902および病変903が抽出されている。また、904は、これらのいずれにも属さない領域である。次に、偏光解消物質分類部305はこれらの3種類の被写体を分類する。まず、偏光解消物質分類部305は閾値処理されたDOPUデータから互いに連結した画素群を抽出し、当該画素群の中心を通る曲線905を決定する。次に、偏光解消物質分類部305は、曲線905からd以上離れた網膜内層側の偏光解消物質を病変903、脈絡膜側にd以上離れた偏光解消物質を脈絡膜偏光解消物質902として分類する。次に、偏光解消物質分類部305は、以下に示す3種類の座標値のリストP、PおよびPを画像生成部300内の不図示のメモリに記憶し、さらに網膜構造マップ生成部306に出力すると共に表示制御部400に出力する。
(式7)
={(x,y,z)│(x,y,z)∈V}
={(x,y,z)│(x,y,z)∈V}
={(x,y,z)│(x,y,z)∈V}
ここで、P、PおよびPは、各々RPE、病変、脈絡膜内の偏光解消物質して検出された画素の座標値のリストである。なお、上記dおよびdはRPEより内層側に発生する硬性白斑等の病変と脈絡膜内の偏光解消物質の位置の分布から予め設定され、画像生成部300内の不図示のメモリに記憶されている。また、本実施形態においては、特に、加齢黄斑変性を始めとする黄斑疾患において重要な観察対象となるRPEの形態を表すPと硬性白斑等の病変の形態を表すPを、以下に説明するように用いて、網膜構造マップを生成する。
FIG. 9 shows an example of DOPU data after threshold processing, in which RPE 901, choroid depolarization substance 902, and lesion 903 showing strong depolarization properties are extracted in the retinal layer. Reference numeral 904 denotes an area that does not belong to any of these. Next, the depolarizing substance classification unit 305 classifies these three types of subjects. First, the depolarizing substance classification unit 305 extracts pixel groups connected to each other from the threshold-processed DOPU data, and determines a curve 905 that passes through the center of the pixel group. Next, depolarizing material classification unit 305 classifies the depolarization substance retinal inner layer side away from the curve 905 above d u lesion 903, the depolarization substances or more away d l choroidal side as choroidal depolarizing material 902 . Next, depolarizing material classification unit 305, a list P R of the three coordinate values shown below, and stores the P L and P C in a memory (not shown) in the image generation unit 300 further retinal structure map generator The data is output to 306 and output to the display control unit 400.
(Formula 7)
P R = {(x, y, z) | (x, y, z) ∈V}
P L = {(x, y, z) | (x, y, z) ∈V}
P C = {(x, y, z) | (x, y, z) ∈V}
Here, P R, P L and P C is a list of each RPE, lesion, the coordinate values of the pixels detected by depolarizing agent in the choroid. Incidentally, the d u and d 1 is set in advance from the distribution of the position of the depolarizing agent in the lesions and choroid of hard exudates or the like generated on the inner side of the RPE, stored in a memory (not shown) in the image generation unit 300 ing. In the present embodiment, in particular, the P L representing the form of a lesion, such as P R and hard exudates showing the form of the RPE is an important observation target in macular diseases including age-related macular degeneration, below Use as described to generate a retinal structure map.

<ステップS560:網膜構造マップ生成>
網膜構造マップ生成部306は、偏光解消物質分類部305から入力したPおよびPから、偏光解消マップの一例であるRPE厚マップMおよび病変マップMを生成する。まず、網膜構造マップ生成部306は、図6(B)に示すボリュームデータ603内の全てのAスキャンを対象として、当該Aスキャン内の各画素の座標が座標リストPに含まれる個数をカウントし、そのカウント数を画素値とする画像MをRPE厚マップとして出力する。同様に、網膜構造マップ生成部306は、座標リストPに含まれる個数をカウントし、そのカウント数を画素値とする画像Mを病変マップとして出力する。ここで、画像生成部300は、互いに異なる偏光の光を用いて、被検眼の複数の層を抽出する層抽出部(不図示)を有することが好ましい。このとき、抽出された複数の層のうち選択された少なくとも1つの層を用いて特定の深さ範囲が選択されることが好ましい。これにより、ユーザは、容易に特定の深さ範囲を選択することができるため、ユーザの利便性を向上することができる。なお、特定の深さ範囲を選択する手法としては、偏光解消性を示す情報から深さ方向の一部の情報が選択できる手法であれば何でも良い。
<Step S560: Retinal structure map generation>
Retinal structure map generation unit 306, the P R and P L input from depolarizing material classification unit 305, generates the RPE thickness map M R and lesion map M L, which is an example of the depolarization map. First, the retinal structure map generation unit 306, as for all A-scan in the volume data 603 shown in FIG. 6 (B), counting the number of coordinates of each pixel in the A-scan is included in the coordinate list P R and outputs the image M R to the count number as the pixel value as RPE thickness map. Similarly, retinal structure map generating unit 306 counts the number contained in the coordinate list P L, and outputs the count number of the image M L to the pixel value as a lesion map. Here, it is preferable that the image generation unit 300 includes a layer extraction unit (not shown) that extracts a plurality of layers of the eye to be inspected using lights having different polarizations. At this time, it is preferable that a specific depth range is selected using at least one layer selected from the plurality of extracted layers. Thereby, since the user can select a specific depth range easily, the convenience of the user can be improved. In addition, as a method for selecting a specific depth range, any method may be used as long as a part of information in the depth direction can be selected from information indicating depolarization.

図10は、RPE厚マップMおよび病変マップMを例示したものであり、いずれも前述したカウント数が多いほど高い輝度レベルで表示されている。図10(A)は、RPE厚マップMを示したものであり、波線で示す位置のDOPUデータは、図9で例示されている。905は、RPEが部分的に委縮している部分であり、この部分がRPE厚マップMでは1001に対応している。また、図10(B)は、病変マップMを例示したものであり、同様に破線で示す位置のDOPUデータから抽出された病変903が1002として描出されている。網膜構造マップ生成部306は、これらのマップを表示制御部400に出力する。 Figure 10 is an illustration of a RPE thickness map M R and lesion map M L, both of which are displayed at a high luminance level larger the number of counts mentioned above. Figure 10 (A) is shows the RPE thickness map M R, DOPU data position indicated by the broken line is illustrated in FIG. 905 is a portion RPE is partially atrophy, this portion corresponds to 1001 in RPE thickness map M R. Further, FIG. 10 (B) is an illustration of a lesion map M L, similarly lesion 903 extracted from DOPU data position indicated by a broken line is depicted as 1002. The retinal structure map generation unit 306 outputs these maps to the display control unit 400.

<ステップS570:偏光特性断層像生成>
Stokesベクトル平均部307は、StokesベクトルSおよびステップS530で保存された置合わせパラメータΔ(y)およびBスキャングループ内の参照Bスキャンの番号nref(y)から、以下に示す(式7)および(式8)により平均Stokesベクトル
<Step S570: Generation of polarization characteristic tomographic image>
The Stokes vector averaging unit 307 obtains the following (formula 7) from the Stokes vector S and the alignment parameter Δ (y) stored in step S530 and the reference n-scan number n ref (y) in the B-scan group: The average Stokes vector according to (Equation 8)

Figure 2018051177
を計算する。
Figure 2018051177
Calculate

Figure 2018051177
Figure 2018051177

但し、上式において参照Bスキャン以外のBスキャンにおける座標値は(x,y,z)は(x+Δx,y,z+Δz)として補正されているものとする。   However, in the above equation, it is assumed that (x, y, z) is corrected as (x + Δx, y, z + Δz) in the coordinate values in the B scan other than the reference B scan.

Figure 2018051177
Figure 2018051177

ここで、Vは、図6に示すボリュームデータ603に対応するX,Y,およびZ方向のデータの添え字の範囲を表す。Stokesベクトル平均部307は、生成した平均Stokesベクトル   Here, V represents a subscript range of data in the X, Y, and Z directions corresponding to the volume data 603 shown in FIG. The Stokes vector average unit 307 generates the generated average Stokes vector

Figure 2018051177
を偏光特性計算部308に出力する。偏光特性計算部308は、平均Stokesベクトル
Figure 2018051177
Is output to the polarization characteristic calculator 308. The polarization characteristic calculator 308 calculates the average Stokes vector

Figure 2018051177
から被写体が有する位相遅延および進相軸方位の2種類の偏光特性を計算し、その値を画素値とする位相遅延断層像Tδおよび進相軸方位断層像Tθを、次式により生成する。
Figure 2018051177
The phase delay tomogram T δ and the fast axis azimuth tomographic image T θ having the values as pixel values are calculated from the following equations by calculating two types of polarization characteristics of the subject from the phase delay and the fast axis azimuth. .

Figure 2018051177
Figure 2018051177

位相遅延断層像Tδの画素値 Pixel value of phase delay tomogram

Figure 2018051177

は、被写体がその線維構造等により複屈折性を有する場合、位置(x,y,z)における偏光間の位相遅延量を表しており、網膜においては視神経繊維層で直線的に変化する。また、進相軸方位断層像Tθの画素値
Figure 2018051177

Represents the amount of phase delay between polarized light at the position (x, y, z) when the subject has birefringence due to its fiber structure or the like, and linearly changes in the optic nerve fiber layer in the retina. Further, the fast axis azimuth pixel values of the tomographic image T theta

Figure 2018051177

は被写体がその線維構造によって複屈折性を有する場合にその繊維質の方向を表しており、網膜内層の病変が瘢痕となり線維化すると、周期的な変化が観察されるようになる。偏光特性計算部308は、位相遅延断層像Tδおよび進相軸方位断層像Tθを偏光特性マップ生成部309および表示制御部400に出力する。
Figure 2018051177

Represents the direction of the fiber when the subject has birefringence due to its fiber structure, and when the lesion in the inner retina becomes a scar and becomes fibrotic, a periodic change is observed. The polarization characteristic calculator 308 outputs the phase delay tomogram T δ and the fast axis azimuth tomogram T θ to the polarization characteristic map generator 309 and the display controller 400.

<ステップS580:偏光特性マップ生成>
偏光特性マップ生成部309は、位相遅延断層像Tδおよび進相軸方位断層像Tθから、位相遅延マップMδおよび進相軸方位マップMθを生成する。すなわち、偏光特性マップ生成部309は位相遅延断層像Tδ内の各Aスキャンにおいて、ステップS550で記憶されたRPEの位置座標PとILM境界位置情報BILMに保持されたILM境界位置との間で、当該Aスキャンの位置(x,y)における位相遅延量のヒストグラムを生成し、その最頻値を位相遅延マップMδの画素値とする。同様に、偏光特性マップ生成部309は進相軸方位断層像Tθの各Aスキャンにおいて、RPEとILMの間でヒストグラムの最頻値を進相軸方位マップMθの画素値とする。偏光特性マップ生成部309は、このようにして生成した2つのマップを表示制御部400に出力する。
<Step S580: Polarization Characteristic Map Generation>
The polarization characteristic map generation unit 309 generates a phase delay map M δ and a fast axis orientation map M θ from the phase delay tomogram T δ and the fast axis azimuth tomogram T θ . In other words, polarization characteristic map generating unit 309 in each A-scan phase delay in the tomographic image T [delta], between the ILM boundary position held in the position coordinates P R and ILM boundary position information B ILM of the stored RPE in step S550 between, to produce a histogram of the phase delay at the position of the a-scan (x, y), and the mode value as the pixel value of the phase delay map M [delta]. Similarly, the polarization characteristic map generation unit 309 sets the mode value of the histogram between the RPE and the ILM as the pixel value of the fast axis orientation map M θ in each A scan of the fast axis orientation tomographic image T θ . The polarization characteristic map generation unit 309 outputs the two maps generated in this way to the display control unit 400.

<ステップS590:輝度マップ生成>
輝度マップ生成部312は、網膜層認識部311が生成した輝度断層像TをZ方向に積算した輝度マップMを生成し、表示制御部400に出力する。本実施形態では、積算の範囲はILM境界位置情報BILMで示されるILM境界とRPEの位置Pの間とする。しかし、本発明はこれに限定される必要は無く、BスキャンのZ方向の範囲全てで積算してもよい。
<Step S590: Brightness Map Generation>
Luminance map generation unit 312, a luminance tomographic image T I of retinal layer recognition unit 311 has generated to generate a luminance map M I obtained by integrating in the Z direction, and outputs to the display control unit 400. In the present embodiment, the range of integration is the between the positions P R of the ILM boundary and RPE represented by ILM boundary position information B ILM. However, the present invention is not limited to this, and the integration may be performed over the entire range in the Z direction of the B scan.

<ステップS600:血管マップ生成>
画像生成部300は、ステップS520において再構成部301で生成された2種類の断層信号rおよびrを、互いに通過帯域が異なるフィルタ313および314によって異なる空間周波数帯域を有する断層信号rfおよびrfに変換する変換部(不図示)を有することが好ましい。このとき、変換された断層信号は、非相関演算部315に出力される。ここで、非相関演算部315は、互いに異なる偏光の光を用いて被検眼におけるモーションコントラスト情報を取得する第1の情報取得手段の一例である。なお、モーションコントラスト情報とは、非相関性の高い領域(例えば血管領域)と相関性の高い領域(例えば血管以外の領域)とのコントラストに関する情報である。図11は、313(H0)および314(H1)の通過特性を図式化したものであり、互いに通帯域が重なる部分(図中A)を有している。次に、非相関演算部315は、入力した断層信号rfおよびrfから次式によって、時間的に異なるBスキャン間の非相関性を表す非相関断層像T(モーションコントラスト情報の一例)を計算する。
<Step S600: Blood vessel map generation>
The image generation unit 300 uses the two types of tomographic signals r 0 and r 1 generated by the reconstruction unit 301 in step S520 as the tomographic signals rf 0 and rf 0 having different spatial frequency bands by the filters 313 and 314 having different pass bands. It is preferable to have a conversion unit (not shown) for converting to rf 1 . At this time, the converted tomographic signal is output to the decorrelation calculation unit 315. Here, the decorrelation calculation unit 315 is an example of a first information acquisition unit that acquires motion contrast information in the eye to be examined using light of different polarizations. The motion contrast information is information relating to the contrast between a highly uncorrelated region (for example, a blood vessel region) and a highly correlated region (for example, a region other than a blood vessel). FIG. 11 schematically shows the pass characteristics of 313 (H0) and 314 (H1), and has a portion (A in the figure) where the passbands overlap each other. Next, the decorrelation calculation unit 315 obtains decorrelation tomographic images T D (an example of motion contrast information) representing non-correlation between temporally different B scans from the input tomographic signals rf 0 and rf 1 according to the following equation. Calculate

Figure 2018051177
Figure 2018051177

但し、上式において参照Bスキャン以外のBスキャンにおける座標値は(x,y,z)は(x+Δx,y,z+Δz)として補正されている。非相関演算部315は非相関断層像Tを血管マップ生成部316に出力する。 However, in the above equation, the coordinate values in the B scan other than the reference B scan are corrected as (x + Δx, y, z + Δz). Non-correlation calculating unit 315 outputs a decorrelated tomographic image T D in the blood vessel map generation unit 316.

血管マップ生成部316は、非相関断層像TとステップS550で生成された網膜内の構造および病変の位置を表す情報BILM、BIPL、P、PおよびP、またステップS570で生成された位相遅延断層像Tδおよび進相軸方位断層像Tθを用いて、網膜層内の特定の深度範囲における血管マップM={M,M,M}を生成し、不図示の内部メモリに記憶すると共に表示制御部400に出力する。ここで、画像生成部300は、互いに異なる偏光の光を用いて、被検眼の複数の層を抽出する層抽出部(不図示)を有することが好ましい。このとき、抽出された複数の層のうち選択された少なくとも1つの層を用いて特定の深さ範囲が選択されることが好ましい。これにより、ユーザは、容易に特定の深さ範囲を選択することができるため、ユーザの利便性を向上することができる。なお、特定の深さ範囲を選択する手法としては、モーションコントラスト情報から深さ方向の一部の情報が選択できる手法であれば何でも良い。血管マップ生成部316は、上記の情報を用いて以下に示すように複数の血管マップを生成し、それをまとめて血管マップMとして表示制御部400に出力する。 Vascular map generation unit 316, uncorrelated tomographic image T D and structure of the retina that is generated in step S550 and the information B ILM representing the position of the lesion, B IPL, P R, P L and P C, and in step S570 Using the generated phase delayed tomogram T δ and fast axis azimuth tomogram T θ , a blood vessel map M V = {M S , M D , M C } in a specific depth range in the retinal layer is generated, The data is stored in an internal memory (not shown) and output to the display control unit 400. Here, it is preferable that the image generation unit 300 includes a layer extraction unit (not shown) that extracts a plurality of layers of the eye to be inspected using lights having different polarizations. At this time, it is preferable that a specific depth range is selected using at least one layer selected from the plurality of extracted layers. Thereby, since the user can select a specific depth range easily, the convenience of the user can be improved. As a method for selecting a specific depth range, any method can be used as long as a part of information in the depth direction can be selected from motion contrast information. Vascular map generation unit 316, by using the above information to generate a plurality of blood vessel map as shown below, and outputs to the display control unit 400 sums it as a vascular map M V.

(網膜浅層血管マップM
血管マップ生成部316は、ILM境界位置情報BILMと位相遅延断層像Tδから網膜視神経繊維層(RNFL)の領域を決定する。RNFLは複屈折性を有するため、その領域内では位相遅延量が距離に比例して増加する。そこで、血管マップ生成部316は網膜浅層血管マップMの各画素位置(x,y)においてILM境界位置zから、Z方向に向かって位相遅延断層像Tδ内の画素
(Retina shallow blood vessel map M S )
The blood vessel map generation unit 316 determines the region of the retinal optic nerve fiber layer (RNFL) from the ILM boundary position information B ILM and the phase delay tomogram T δ . Since RNFL has birefringence, the amount of phase delay increases in proportion to the distance in that region. Therefore, the vascular map generation unit 316 each pixel position of the retinal superficial vascular map M S (x, y) from the ILM boundary position z L in the pixels of the phase delay in the tomographic image T [delta] toward the Z-direction

Figure 2018051177
が一定の割合で変化する範囲をRNFLの領域として決定する。一方、RNFLが網膜層内では比較的高い輝度レベルを有する事から、平均輝度断層像
Figure 2018051177
Is determined as a region of the RNFL. On the other hand, since the RNFL has a relatively high luminance level in the retinal layer, the average luminance tomogram

Figure 2018051177

の画素
Figure 2018051177

Pixels

Figure 2018051177

が平均的なRNFL周辺の輝度レベルより高い範囲をRNFLの範囲としてもよい。次に、血管マップ生成部316は、非相関断層像Tの当該領域内において非相関値
Figure 2018051177

A range that is higher than the luminance level around the average RNFL may be set as the RNFL range. Next, the vascular map generation unit 316, the non-correlation value in the region of the non-correlation tomographic image T D

Figure 2018051177
が閾値以下の画素をZ方向に積算投影し、網膜浅層血管マップMを生成する。この閾値は、予め構造的に血管が存在しない領域の非相関値に基づいて決定されているものとする。
Figure 2018051177
There the following pixel threshold integrated projected in the Z direction, to produce a retinal superficial vascular map M S. This threshold value is determined in advance based on a non-correlation value of a region where a blood vessel does not exist structurally.

(網膜深層血管マップM
血管マップ生成部316は、IPL境界位置情報BIPLとRPEの位置を表すPから、網膜の深層領域を決定する。すなわち、血管マップ生成部316は網膜浅層血管マップMの各画素位置(x,y)においてIPL境界位置zからZ方向に向かってPにおいて位置(x,y)において最も小さいZ座標までを深層領域とする。次に、血管マップ生成部316は非相関断層像Tの当該領域内において非相関値
(Retina deep blood vessel map M D )
Vascular map generation unit 316, the P R representing the position of the IPL boundary position information B IPL and RPE, determining a deep region of the retina. That is, the blood vessel map generation unit 316 each pixel position of the retinal superficial vascular map M D (x, y) position in the P R toward the IPL boundary position z L in the Z direction in the (x, y) the smallest Z coordinate in Up to the deep region. Next, the vascular map generation unit 316 uncorrelated values in the region of the non-correlation tomographic image T D

Figure 2018051177

が閾値以下の画素をZ方向に積算投影し、網膜浅層血管マップMを生成する。
Figure 2018051177

There the following pixel threshold integrated projected in the Z direction, to produce a retinal superficial vascular map M D.

(脈絡膜毛細血管板マップM
血管マップ生成部316は、RPEの位置を表すPからZ方向に解剖学的に脈絡膜毛細血管板を含む10μm離れた位置までを脈絡膜毛細血管板領域として決定する。次に、血管マップ生成部316は非相関断層像Tの当該領域内において非相関値
(Choroidal capillary plate map M C )
Vascular map generation unit 316 determines from P R representing the position of the RPE to a position spaced 10μm comprising anatomically choroidal capillaries plate in the Z direction as choroidal capillaries plate region. Next, the vascular map generation unit 316 uncorrelated values in the region of the non-correlation tomographic image T D

Figure 2018051177

が閾値以下の画素をZ方向に積算投影し、網膜浅層血管マップMを生成する。
Figure 2018051177

There the following pixel threshold integrated projected in the Z direction, to produce a retinal superficial vascular map M C.

<ステップS610:画像表示>
表示制御部400は、画像生成部300から入力した各種画像を図4に示す表示デバイス401の画像表示領域402内に表示する。画像表示領域402において404および405は、図6に示すX軸およびY軸が張る平面画像(Enface像)を表示する領域で、領域404には、M、M、M、Mδ、Mθが表示される。表示制御部400は、プルダウンメニュー408に対するユーザの操作に応じてこれらのマップを切換え表示する。また、領域405は、血管マップM={M,M,M}の表示領域であり、表示制御部400は、プルダウンメニュー409に対するユーザの操作に応じてこれらのマップを切換え表示する。すなわち、プルダウンメニュー408、409は、抽出された複数の層のうち少なくとも1つの層を選択するための第1の表示形態、第2の表示形態の一例である。このとき、第1の表示形態において選択された少なくとも1つの層を用いてモーションコントラスト情報から深さ方向の一部の情報が選択される。また、第2の表示形態において選択された少なくとも1つの層を用いて偏光解消性を示す情報から深さ方向の一部の情報が選択される。これにより、ユーザは、モーションコントラスト情報や偏光解消性を示す情報から深さ方向の一部の情報を容易に選択することができる。このため、ユーザの利便性を向上することができ、結果として診断効率が向上する。なお、本実施形態において、408および409はプルダウンメニューとしたが、同様の機能を持つラジオボタン等のユーザインタフェースであれば、どのようなものでもよい。また、領域406は断層像表示領域であり、ボリュームデータ内でXZ断面およびYZ断面の断層像が表示される。表示制御部400はプルダウンメニュー410の選択に応じて、T、Tδ、Tθ、T、およびそれらの断層像とRPE、病変部の位置を表す情報PおよびPを重畳した断層像を表示する。また、スライダ407は、ボリュームデータ内で領域406の各々に表示する断層像を指定するものである。
<Step S610: Image Display>
The display control unit 400 displays various images input from the image generation unit 300 in the image display area 402 of the display device 401 shown in FIG. In the image display area 402, 404 and 405 are areas for displaying a planar image (Enface image) stretched by the X axis and the Y axis shown in FIG. 6, and the area 404 includes M I , M R , M L , M δ , is displayed. The display control unit 400 switches and displays these maps in accordance with a user operation on the pull-down menu 408. A region 405 is a display region of the blood vessel map M V = {M S , M D , M C }, and the display control unit 400 switches and displays these maps according to the user's operation on the pull-down menu 409. . That is, the pull-down menus 408 and 409 are examples of the first display form and the second display form for selecting at least one layer from the plurality of extracted layers. At this time, partial information in the depth direction is selected from the motion contrast information using at least one layer selected in the first display form. Further, a part of the information in the depth direction is selected from the information indicating the depolarization property using at least one layer selected in the second display form. Thereby, the user can easily select partial information in the depth direction from the motion contrast information and the information indicating the depolarization property. For this reason, a user's convenience can be improved and the diagnostic efficiency improves as a result. In the present embodiment, 408 and 409 are pull-down menus, but any user interface such as a radio button having the same function may be used. An area 406 is a tomographic image display area in which tomographic images of the XZ cross section and the YZ cross section are displayed in the volume data. Fault display control unit 400 in response to selection of the pull-down menu 410, T I, T δ, T θ, T D, and their tomographic image and RPE, superimposed information P R and P L represents the position of the lesion Display an image. The slider 407 designates a tomographic image to be displayed in each area 406 in the volume data.

図12は、表示例を図示したものであり、図12(A)において領域404には、RPE厚マップM、領域405には、網膜浅層血管マップM、領域406には、平均輝度断層像 FIG. 12 shows a display example. In FIG. 12A, the region 404 has an RPE thickness map M R , the region 405 has a retinal shallow blood vessel map M S , and the region 406 has an average luminance. Tomogram

Figure 2018051177

が、XZ断面(水平H)およびYZ断面(垂直V)の各々に表示されている。また、ライン121および122は、各マップ上において断層像の取得位置を示すもので、各マップ上に重畳表示されている。ユーザは、ライン121および122をマウスで操作する事で各マップ上のラインを移動することができる。これにより、領域406に表示される断層像の位置を変更する事が出来る。ここで、ライン121および122は、点線である必要はなく、直線でも良いし、点滅させても良い。このとき、血管マップ及び偏光解消マップに重ねて表示された2つのラインのうち一方の移動に他方の移動を連動させることが好ましい。これにより、ユーザの利便性を向上することができる。また、図12(B)は、別の表示例である。この例においては、RPE厚マップM、領域405には網膜浅層血管マップM、領域406には平均輝度断層像
Figure 2018051177

Are displayed in each of the XZ cross section (horizontal H) and the YZ cross section (vertical V). Lines 121 and 122 indicate tomographic image acquisition positions on each map, and are superimposed on each map. The user can move the lines on each map by operating the lines 121 and 122 with a mouse. Thereby, the position of the tomographic image displayed in the area 406 can be changed. Here, the lines 121 and 122 do not need to be dotted lines, and may be straight lines or blinking. At this time, it is preferable that one of the two lines displayed superimposed on the blood vessel map and the depolarization map is linked to the other movement. Thereby, a user's convenience can be improved. FIG. 12B shows another display example. In this example, the RPE thickness map M R , the region 405 has a shallow retinal blood vessel map M S , and the region 406 has an average luminance tomogram.

Figure 2018051177

の各々に病変部の位置情報Pが重畳表示されている。図12(B)においては、123および124が病変部を表している。また、RPE厚マップMにはRPEの委縮領域125が描出されている。
Figure 2018051177

Each location P L of the lesion is displayed superimposed on the. In FIG. 12B, reference numerals 123 and 124 denote lesions. Further, the RPE thickness map M R atrophy region 125 of the RPE is depicted.

以上説明したように、本実施形態によれば、OCTスキャンによって得られた信号から複数の種類の画像、すなわち、血管構造を含む網膜の解剖構造および病変を効率的に生成し、表示する事が出来る。また、本実施形態においては、血管画像を生成する際に異なる偏光成分から得られた信号から異なる空間周波数帯域の信号を生成し、(式11)で示すように非相関演算を行っている。これにより、繰り返しスキャン数Nを実質的に2倍にする事が可能となり、さらに深さ方向の分解能を下げる事で、非相関演算に対する被検眼の動きによる僅かな位置ずれの影響を低減することで血管画像の画質を向上させる事が可能となる。   As described above, according to the present embodiment, it is possible to efficiently generate and display a plurality of types of images, that is, anatomical structures and lesions of the retina including vascular structures, from the signals obtained by the OCT scan. I can do it. In the present embodiment, when a blood vessel image is generated, signals in different spatial frequency bands are generated from signals obtained from different polarization components, and the uncorrelation calculation is performed as shown in (Equation 11). As a result, the number of repeated scans N can be substantially doubled, and further, the resolution in the depth direction can be reduced to reduce the effect of slight positional deviation due to the movement of the eye to be uncorrelated. Thus, it is possible to improve the image quality of the blood vessel image.

なお、本実施形態において、撮影データは被検眼118に対して円偏光となるよう調整した波長掃引型の偏光OCTによって得たが、本発明はこれに限定されるものではない。OCTの方式として、広帯域光源を用いたスペクトラルドメイン方式よってもよいし、計測光の偏光状態を偏光変調器によって動的に変化させるようにしてもよい。どのような構成であっても、被検眼からの散乱光から異なる偏光成分rおよびrを検出することで本実施形態と同様に画像を生成、表示する事が出来るものであれば何でも良い。
ここで、本実施形態として、測定光の走査位置が実際には異なる位置で走査される場合について記載したが、別の実施形態として、生成する画像の種類に応じて異なる方法で生成に用いる断層像を選択するようにしてもよい。すなわち、偏光解消性の画像化においては一定の空間的な広がりを持つ範囲のデータからDOPUを計算する必要があるため走査位置が完全に一致している必要性はないが、モーションコントラスト情報の取得においては、断層信号の取得位置誤差は極力小さい事が望ましい。
そこで、非相関演算部315はステップS600において、入力した断層信号rfおよびrfから非相関断層像Tを計算する際、走査位置ずれが大きいとみなせる断層信号を除外する。すなわち、式11においてn番目とn+1番目の断層信号との間で相関演算を行う際、走査位置ずれが無視できる程度に小さい場合は血管部分のみ非相関値が高くなるため、これを利用して血管を抽出することができる。しかし、走査位置ずれが大きいと非相関値は血管の有無にかかわらずBスキャン全体に渡って大きな値を持つ事となり、血管部分のみを抽出する事が出来ない。このため、非相関演算部315は、非相関値のBスキャン内の分布を解析し、非相関値が高い画素がBスキャン全体に均一に分布している場合は走査位置ずれが大きいと判断して、その断層信号の組合せは非相関断層像Tの計算から除外される。
この分布の解析としては、予め実験的に設定された血管に対応する非相関値の範囲外の画素の個数やその座標の分布を用いる事ができる。例えば非相関値が通常の血管が有する値の範囲外かどうかでBスキャンを2値化し、抽出された領域の個数が通常の解剖構造から予見される数より多い場合、あるいは領域の面積や中心座標の分布に連続性がある場合は広がりが大きいと判断される。制御部200の遅延によって計測光の走査位置がばらついた場合、非相関値の分布はBスキャン全体に渡るため、上述の方法によって適切な断層信号のみから非相関断層像Tを生成する事が出来る。一方、偏光解消性を示す情報であるDOPUの計算において、Bスキャンの選択は上述した理由により行われず、取得された断層信号全てが用いられる。もちろん、DOPUの計算においても、DOPUの計算には不適切な程度に走査位置ずれが大きい断層像については選択する必要はない。このとき、DOPUの計算に用いられる断層像を選択する際に用いられる第2の閾値は、モーションコントラスト情報の取得に用いられる断層像を選択する際に用いられる第1の閾値よりも大きいことが好ましい。
In the present embodiment, the imaging data is obtained by the wavelength sweep type polarization OCT adjusted to be circularly polarized with respect to the eye to be examined 118, but the present invention is not limited to this. As the OCT method, a spectral domain method using a broadband light source may be used, or the polarization state of measurement light may be dynamically changed by a polarization modulator. In any configuration, any configuration can be used as long as an image can be generated and displayed in the same manner as the present embodiment by detecting different polarization components r 0 and r 1 from the scattered light from the eye to be examined. .
Here, although the case where the scanning position of the measurement light is actually scanned at a different position has been described as this embodiment, as another embodiment, the tomogram used for generation by a different method depending on the type of image to be generated An image may be selected. In other words, in depolarization imaging, it is necessary to calculate DOPU from data in a range with a certain spatial extent, so there is no need for the scanning positions to be perfectly matched, but acquisition of motion contrast information In this case, it is desirable that the tomographic signal acquisition position error is as small as possible.
Therefore, the non-correlation calculation unit 315 At step S600, the time of calculating decorrelation tomographic image T D from the tomographic signal rf 0 and rf 1 entered excludes fault signal which can be regarded as the scanning position deviation is large. That is, when performing correlation calculation between the n-th and n + 1-th tomographic signals in Equation 11, if the scan position deviation is small enough to be ignored, the non-correlation value increases only in the blood vessel portion. Blood vessels can be extracted. However, if the scanning position deviation is large, the decorrelation value has a large value over the entire B scan regardless of the presence or absence of blood vessels, and it is impossible to extract only the blood vessel portion. For this reason, the decorrelation calculation unit 315 analyzes the distribution of the decorrelation values in the B scan, and determines that the scan position deviation is large if pixels with a high decorrelation value are uniformly distributed throughout the B scan. Te, the combination of the tomographic signal is excluded from the calculation of the decorrelation tomographic image T D.
For the analysis of this distribution, the number of pixels outside the range of the decorrelation value corresponding to the blood vessel set experimentally in advance and the distribution of the coordinates can be used. For example, if the uncorrelated value is outside the range of the value that a normal blood vessel has, the B scan is binarized and the number of extracted regions is larger than the number predicted from the normal anatomical structure, or the area or center of the region If the coordinate distribution is continuous, it is determined that the spread is large. If the delay of the control unit 200 varies the scanning position of the measuring light, because the distribution of the non-correlation values over the entire B-scan, is possible to generate a decorrelation tomographic image T D from only the appropriate fault signal by the method described above I can do it. On the other hand, in the calculation of DOPU which is information indicating the depolarization property, the selection of the B scan is not performed for the reason described above, and all acquired tomographic signals are used. Of course, in the calculation of DOPU, it is not necessary to select a tomographic image having a large scan position shift inappropriate to the DOPU calculation. At this time, the second threshold value used when selecting a tomographic image used for DOPU calculation is larger than the first threshold value used when selecting a tomographic image used for acquiring motion contrast information. preferable.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (10)

測定光を照射した被検眼からの戻り光と前記測定光に対応する参照光とを合波して得た光を分割して得た互いに異なる偏光の光を検出する検出手段と、
前記被検眼に対して前記測定光を走査する走査手段と、
前記被検眼の同一位置に対して前記測定光を複数回走査するように前記走査手段を制御する制御手段と、
前記制御手段による制御下において前記検出された互いに異なる偏光の光を用いて、前記被検眼におけるモーションコントラスト情報を取得する第1の情報取得手段と、
前記制御手段による制御下において前記被検眼の動きに対応する前記被検眼の異なる位置で前記測定光が走査された場合に、前記走査手段による走査方向及び前記被検眼の深さ方向における前記異なる位置の間で対応する領域の前記検出された互いに異なる偏光の光を用いて、前記被検眼の偏光解消性を示す情報を取得する第2の情報取得手段と、
を有することを特徴とする眼科撮影装置。
Detection means for detecting light of different polarizations obtained by dividing light obtained by combining return light from the eye to be examined irradiated with measurement light and reference light corresponding to the measurement light;
Scanning means for scanning the measurement light with respect to the eye to be examined;
Control means for controlling the scanning means so as to scan the measurement light multiple times with respect to the same position of the eye to be examined;
First information acquisition means for acquiring motion contrast information in the eye to be examined using the detected lights of different polarizations under the control of the control means;
When the measurement light is scanned at different positions of the eye corresponding to the movement of the eye under control by the control means, the different positions in the scanning direction by the scanning means and the depth direction of the eye to be examined Second information acquisition means for acquiring information indicating the depolarization property of the eye to be inspected using the detected lights of different polarizations in the corresponding region between
An ophthalmologic photographing apparatus comprising:
前記モーションコントラスト情報から選択された前記深さ方向の一部の情報を用いて前記被検眼の血管マップを生成し、前記偏光解消性を示す情報から選択された前記深さ方向の一部の情報を用いて前記被検眼の偏光解消マップを生成する画像生成手段を更に有することを特徴とする請求項1に記載の眼科撮影装置。   Using the partial information in the depth direction selected from the motion contrast information, a blood vessel map of the eye to be examined is generated, and the partial information in the depth direction selected from the information indicating the depolarization property The ophthalmologic photographing apparatus according to claim 1, further comprising: an image generating unit that generates a depolarization map of the eye to be examined using a lens. 前記血管マップと前記偏光解消マップと前記被検眼の輝度断層像とを並べて表示手段に表示させる表示制御手段を更に有することを特徴とする請求項2に記載の眼科撮影装置。   The ophthalmologic photographing apparatus according to claim 2, further comprising display control means for displaying the blood vessel map, the depolarization map, and a luminance tomographic image of the eye to be examined on a display means. 前記表示制御手段は、前記輝度断層像の取得位置を示すラインを前記血管マップ及び前記偏光解消マップにそれぞれ重ねて前記表示手段に表示させ、前記血管マップ及び前記偏光解消マップに重ねて表示された2つのラインのうち一方の移動に他方の移動を連動させることを特徴とする請求項3に記載の眼科撮影装置。   The display control unit causes the display unit to display a line indicating the acquisition position of the luminance tomographic image on the blood vessel map and the depolarization map, and displays the line on the blood vessel map and the depolarization map. The ophthalmologic photographing apparatus according to claim 3, wherein the movement of one of the two lines is linked to the movement of the other. 前記検出された互いに異なる偏光の光を用いて、前記被検眼の複数の層を抽出する層抽出手段を更に有し、
前記表示制御手段は、前記抽出された複数の層のうち少なくとも1つの層を選択するための第1の表示形態と、前記抽出された複数の層のうち少なくとも1つの層を選択するための第2の表示形態とを前記表示手段に表示させ、
前記第1の表示形態において選択された少なくとも1つの層を用いて前記モーションコントラスト情報から前記深さ方向の一部の情報が選択され、前記第2の表示形態において選択された少なくとも1つの層を用いて前記偏光解消性を示す情報から前記深さ方向の一部の情報が選択されることを特徴とする請求項3または4に記載の眼科撮影装置。
A layer extraction means for extracting a plurality of layers of the eye to be examined using the detected lights of different polarizations;
The display control means includes a first display form for selecting at least one layer among the plurality of extracted layers, and a first display mode for selecting at least one layer among the plurality of extracted layers. 2 is displayed on the display means,
A part of the information in the depth direction is selected from the motion contrast information using at least one layer selected in the first display form, and at least one layer selected in the second display form is selected. The ophthalmologic photographing apparatus according to claim 3 or 4, wherein a part of information in the depth direction is selected from information indicating the depolarization property.
前記制御手段による制御下において前記検出された互いに異なる偏光の光から互いに異なる空間周波数帯域を有する複数の断層信号に変換する変換手段を更に有し、
前記第1の情報取得手段は、前記変換された複数の断層信号を用いて、前記モーションコントラスト情報を取得することを特徴とする請求項1乃至5のいずれか1項に記載の眼科撮影装置。
Conversion means for converting the detected light of different polarizations into a plurality of tomographic signals having different spatial frequency bands under the control of the control means;
The ophthalmologic imaging apparatus according to claim 1, wherein the first information acquisition unit acquires the motion contrast information using the converted plurality of tomographic signals.
前記第1の情報取得手段は、前記被検眼の動きに対応する前記被検眼の異なる位置の位置ずれに基づいて前記複数回走査から選択された複数の走査に対応する前記検出された互いに異なる偏光の光を用いて、前記モーションコントラスト情報を取得することを特徴とする請求項1乃至6のいずれか1項に記載の眼科撮影装置。   The first information acquisition unit is configured to detect the different polarized lights corresponding to a plurality of scans selected from the plurality of scans based on a positional shift of different positions of the eye to be examined corresponding to the movement of the eye to be examined. The ophthalmologic photographing apparatus according to claim 1, wherein the motion contrast information is acquired by using the light of. 前記第1の情報取得手段は、前記被検眼の動きに対応する前記被検眼の異なる位置の位置ずれが第1の閾値よりも小さい複数の走査に対応する前記検出された互いに異なる偏光の光を用いて、前記モーションコントラスト情報を取得し、
前記第2の情報取得手段は、前記被検眼の動きに対応する前記被検眼の異なる位置の位置ずれが前記第1の閾値よりも大きい第2の閾値よりも小さい複数の走査に対応する前記検出された互いに異なる偏光の光を用いて、前記偏光解消性を示す情報を取得することを特徴とする請求項1乃至6のいずれか1項に記載の眼科撮影装置。
The first information acquisition unit is configured to output the detected lights of different polarizations corresponding to a plurality of scans in which positional shifts of different positions of the subject eye corresponding to the movement of the subject eye are smaller than a first threshold. To obtain the motion contrast information,
The second information acquisition unit is configured to detect the detection corresponding to a plurality of scans in which a positional shift of a different position of the eye to be examined corresponding to the movement of the eye to be examined is smaller than a second threshold value that is larger than the first threshold value. 7. The ophthalmologic photographing apparatus according to claim 1, wherein information indicating the depolarization property is acquired using the light beams having different polarizations.
測定光を照射した被検眼からの戻り光と前記測定光に対応する参照光とを合波して得た光を分割して得た互いに異なる偏光の光を検出する検出手段と、前記被検眼に対して前記測定光を走査する走査手段と、を有する眼科撮影装置の作動方法であって、
前記被検眼の同一位置に対して前記測定光を複数回走査するように前記走査手段を制御する工程と、
前記制御する工程の実行中において前記検出された互いに異なる偏光の光を用いて、前記被検眼におけるモーションコントラスト情報を取得する工程と、
前記制御する工程の実行中において前記被検眼の動きに対応する前記被検眼の異なる位置で前記測定光が走査された場合に、前記走査手段による走査方向及び前記被検眼の深さ方向における前記異なる位置の間で対応する領域の前記検出された互いに異なる偏光の光を用いて、前記被検眼の偏光解消性を示す情報を取得する工程と、
を有することを特徴とする眼科撮影装置の作動方法。
Detecting means for detecting light of different polarizations obtained by dividing light obtained by combining return light from the eye to be examined irradiated with measurement light and reference light corresponding to the measurement light; and the eye to be examined Scanning means for scanning the measurement light, and an operation method of an ophthalmologic photographing apparatus comprising:
Controlling the scanning means to scan the measurement light multiple times with respect to the same position of the eye to be examined;
Using the detected lights of different polarizations during the controlling step to obtain motion contrast information in the eye to be examined;
When the measurement light is scanned at different positions of the subject eye corresponding to the movement of the subject eye during the execution of the controlling step, the different in the scanning direction by the scanning unit and the depth direction of the subject eye Obtaining information indicating the depolarization of the eye to be examined using the differently polarized light detected in the corresponding regions between positions;
A method of operating an ophthalmologic photographing apparatus comprising:
請求項9に記載の眼科撮影装置の作動方法の各工程をコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute each step of the operation method of the ophthalmologic photographing apparatus according to claim 9.
JP2016193511A 2016-09-30 2016-09-30 Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus Pending JP2018051177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016193511A JP2018051177A (en) 2016-09-30 2016-09-30 Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016193511A JP2018051177A (en) 2016-09-30 2016-09-30 Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018051177A true JP2018051177A (en) 2018-04-05

Family

ID=61834370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016193511A Pending JP2018051177A (en) 2016-09-30 2016-09-30 Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus

Country Status (1)

Country Link
JP (1) JP2018051177A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3566637A1 (en) * 2018-05-11 2019-11-13 Optos PLC Oct image processing

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3566637A1 (en) * 2018-05-11 2019-11-13 Optos PLC Oct image processing
CN110473265A (en) * 2018-05-11 2019-11-19 奥普托斯股份有限公司 OCT image processing
KR20190129760A (en) * 2018-05-11 2019-11-20 옵토스 피엘씨 OCT Image Processing
AU2019202426B2 (en) * 2018-05-11 2020-02-13 Optos Plc OCT Image Processing
KR102199134B1 (en) * 2018-05-11 2021-01-06 옵토스 피엘씨 OCT Image Processing
JP2021079144A (en) * 2018-05-11 2021-05-27 オプトス ピーエルシー Oct retina image data rendering method and oct retina image data rendering apparatus
JP2022033344A (en) * 2018-05-11 2022-02-28 オプトス ピーエルシー Oct retina image data rendering method and oct retina image data rendering device
EP4085819A1 (en) * 2018-05-11 2022-11-09 Optos PLC Oct image processing
JP7251028B2 (en) 2018-05-11 2023-04-04 オプトス ピーエルシー OCT retinal image data rendering method and OCT retinal image data rendering device
CN110473265B (en) * 2018-05-11 2023-06-16 奥普托斯股份有限公司 OCT image processing

Similar Documents

Publication Publication Date Title
JP5138977B2 (en) Optical image measuring device
US7604351B2 (en) Optical image measurement device and optical image measurement method
US8177362B2 (en) Optical image measurement device
EP2189109B1 (en) Eyeground observing device
US9033499B2 (en) Image processing apparatus and image processing method
JP6184232B2 (en) Image processing apparatus and image processing method
JP6685706B2 (en) Image processing apparatus and image processing method
JP2008267892A (en) Optical image measuring device and program for controlling same
JP6598466B2 (en) Tomographic imaging apparatus, tomographic imaging method, and program
JP2017196306A (en) Image processing apparatus and image processing method
JP6184231B2 (en) Image processing apparatus and image processing method
JP2008237724A (en) Optical image measurement device
WO2016110917A1 (en) Image processing apparatus and image processing method for polarization-sensitive optical coherence tomography
JP6503665B2 (en) Optical coherence tomography apparatus and program
JP2022176282A (en) Ophthalmologic apparatus and control method thereof
US10470653B2 (en) Image processing apparatus, image processing method, and storage medium that generate a motion contrast enface image
JP6429464B2 (en) Polarization OCT apparatus and control method thereof
JP2018051177A (en) Ophthalmic imaging apparatus and operation method for ophthalmic imaging apparatus
US11375892B2 (en) Method of processing optical coherence tomography (OCT) data and OCT data processing apparatus
JP6888643B2 (en) OCT analysis processing device and OCT data processing program
JP7204345B2 (en) Image processing device, image processing method and program
JP2017140316A (en) Image processing apparatus, image processing method, and program therefor
JP6437055B2 (en) Image processing apparatus and image processing method
JP2018033506A (en) Tomographic imaging device, image forming device, tomographic imaging method, image forming method, and program
JP6992030B2 (en) Image generator, image generation method and program