JP2021087817A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2021087817A
JP2021087817A JP2021027609A JP2021027609A JP2021087817A JP 2021087817 A JP2021087817 A JP 2021087817A JP 2021027609 A JP2021027609 A JP 2021027609A JP 2021027609 A JP2021027609 A JP 2021027609A JP 2021087817 A JP2021087817 A JP 2021087817A
Authority
JP
Japan
Prior art keywords
image
dimensional
information
subject
motion contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021027609A
Other languages
Japanese (ja)
Inventor
雅史 古徳
Masafumi Furutoku
雅史 古徳
好彦 岩瀬
Yoshihiko Iwase
好彦 岩瀬
佐藤 眞
Makoto Sato
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021027609A priority Critical patent/JP2021087817A/en
Publication of JP2021087817A publication Critical patent/JP2021087817A/en
Pending legal-status Critical Current

Links

Images

Abstract

To generate images making it possible to identify tissues such as newborn blood vessels and fibrotic tissue which are difficult to identify.SOLUTION: An image processing apparatus includes: information acquisition means for acquiring three-dimensional polarization tomographic information and three-dimensional motion contrast information of a subject based on tomographic signals of differently polarized light, which differently polarized light is obtained by dividing multiplexed light obtained by synthesizing return light from the subject illuminated with measurement light and reference light corresponding to the measurement light; extraction means for extracting a lesion region of the subject using the three-dimensional polarization tomographic information; and image generation means for generating an image in which the lesion region is superimposed on a motion contrast image generated using the three-dimensional motion contrast information.SELECTED DRAWING: Figure 5

Description

被検体の画像を処理する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for processing an image of a subject.

生体などの測定対象の断層像を非破壊、非侵襲で取得する方法として、光干渉断層撮像法(Optical Coherence Tomography、以下OCTという)が実用化されている。OCTは、特に眼科領域で被検眼の眼底における網膜の断層像が取得され、網膜の眼科診断等において広く利用されている。 Optical coherence tomography (hereinafter referred to as OCT) has been put into practical use as a non-destructive and non-invasive method for acquiring a tomographic image of a living body or the like. OCT is widely used in ophthalmic diagnosis of the retina because a tomographic image of the retina in the fundus of the eye to be examined is acquired, especially in the ophthalmic field.

OCTは、測定対象から反射した光と参照鏡から反射した光を干渉させ、その干渉した光強度の時間依存性または波数依存性を解析することにより断層像を得ている。このような光干渉断層像取得装置として、参照鏡の位置を変えることで測定対象の深さ情報を得るタイムドメインOCTが知られている。また、広帯域光源を使用したスペクトラルドメインOCT(SD−OCT:Spectral Domain Optical Coherence Tomography)が知られている。さらに、発振波長を変えることができる波長可変光源装置を光源として使用した波長掃引光コヒーレンストモグラフィー(SS−OCT:Swept Source Optical Coherence Tomography)装置が知られている。なお、SD−OCTとSS−OCTは総称してフーリエドメインOCT(FD−OCT:Fourier Domain Optical Coherence Tomography)と呼ばれる。 OCT obtains a tomographic image by interfering the light reflected from the measurement target with the light reflected from the reference mirror and analyzing the time dependence or wave number dependence of the interfering light intensity. As such an optical coherence tomographic image acquisition device, a time domain OCT that obtains depth information of a measurement target by changing the position of a reference mirror is known. Further, a spectral domain OCT (SD-OCT: Spectral Domain Optical Coherence Tomography) using a wide band light source is known. Further, a wavelength sweep optical coherence tomography (SS-OCT) device using a wavelength variable light source device capable of changing the oscillation wavelength as a light source is known. In addition, SD-OCT and SS-OCT are collectively called Fourier domain OCT (FD-OCT: Fourier Domain Optical Coherence Tomography).

近年、このFD−OCTを用いた擬似血管造影法が提案されており、OCTアンギオグラフィー(OCTA)と呼ばれている。現代の臨床医療で一般的な血管造影法である蛍光造影は、体内に蛍光色素(例えばフルオレセインまたはインドシアニングリーン)の注入を必要としている。蛍光色素の通り道となる血管を2次元的に表示する。これに対して、OCTAは非侵襲で擬似的な血管造影を可能にし、血流部位のネットワークを3次元的に表示することが可能である。さらに、蛍光造影に比べて高分解能であり、眼底の微小血管または血流を描出することができるため注目を集めている。 In recent years, a pseudo-angiography method using this FD-OCT has been proposed and is called OCT angiography (OCTA). Fluorescence, a common angiography technique in modern clinical practice, requires the injection of a fluorescent dye (eg, fluorescein or indocyanine green) into the body. The blood vessels that serve as the path of the fluorescent dye are displayed two-dimensionally. On the other hand, OCTA enables non-invasive and pseudo angiography and can display the network of blood flow sites three-dimensionally. Furthermore, it is attracting attention because it has a higher resolution than fluorescence contrast and can visualize microvessels or blood flow in the fundus.

OCTAは、血流検出方法の違いにより複数の方法が提案されている。例えば、非特許文献1には、OCT信号から時間変調が起こっている信号のみを抽出することで血流からのOCT信号を分離する方法が提案されている。また、血流による位相のバラツキを利用した方法(非特許文献2)、血流による強度のバラツキを利用した方法(非特許文献3、特許文献1)、なども提案されている。尚、本明細書中では、OCT信号から時間変調が起こっている信号を画像として表示したものをモーションコントラスト画像、またその画素値をモーションコントラスト、そのデータセットをモーションコントラストデータと呼ぶ場合がある。 A plurality of OCTA methods have been proposed depending on the difference in blood flow detection method. For example, Non-Patent Document 1 proposes a method of separating an OCT signal from a bloodstream by extracting only a time-modulated signal from an OCT signal. Further, a method utilizing a phase variation due to blood flow (Non-Patent Document 2), a method utilizing a strength variation due to blood flow (Non-Patent Document 3 and Patent Document 1), and the like have also been proposed. In the present specification, a signal obtained by displaying a time-modulated signal from an OCT signal as an image may be referred to as a motion contrast image, a pixel value thereof may be referred to as a motion contrast, and a data set thereof may be referred to as a motion contrast data.

一方、機能OCT装置の一つとして開発されている偏光OCT装置は、神経線維層や網膜層などの構造情報の描出が可能である。非特許文献4では、該偏光OCT装置を用いて、網膜神経線維層(RNFL)において、リターデーションと称呼される偏向パラメータについて、単位厚みあたりの3次元のデータを厚さ方向に積算して得られるEnfaceマップを得る技術が開示されている。 On the other hand, the polarized OCT device developed as one of the functional OCT devices can visualize structural information such as the nerve fiber layer and the retinal layer. In Non-Patent Document 4, the polarized OCT device is used to integrate three-dimensional data per unit thickness in the thickness direction for a deflection parameter called retardation in the retinal nerve fiber layer (RNFL). A technique for obtaining an Enface map to be obtained is disclosed.

米国特許出願公開第2014/221827号明細書U.S. Patent Application Publication No. 2014/221827

Fingler et al.“MoBility and transverse flow visualization using phasevariance contrast with spectral domainoptical coherence tomography”OpticsExpress.Vol.15,No.20.pp12637−12653(2007)Fingerr et al. "MoBiliity and transverse flow visualization using contrast contrast contrast dominant coherence tomography" Optics Express. Vol. 15, No. 20. pp12637-12655 (2007) Optics Letters Vol.33,Iss.13,pp.1530−1532(2008)”Speckle variance detectionof microvasculature usingswept−source optical coherence tomography”Optics Letters Vol. 33, Iss. 13, pp. 1530-1532 (2008) "Speckle variance detection of optical coherence tomography" Mariampillai et al.,“Optimized speckle variance OCT imaging of microvasculature,”Optics Letters35,1257−1259(2010)Mariampilai et al. , "Optimized speckle variance OCT imaging of optics culture," Optics Letters 35, 1257-1259 (2010). Invest Ophthalmol Vis Sci. 2013 Jan 7,Zotter S et al.“Measuring retinal nerve fiber layer birefiringence,retardation,and thickness using wide−field,high−speed polarization sensitive spectraldomain OCT”Invest Opthalmol Vis Sci. 2013 Jan 7, Zotter S et al. “Measurement retina nerve fiber layer birefiringence, retardation, andthickness sing wide-field, high-speed polarization sensitive spectrum OCT

新生血管を伴う加齢黄斑変性(AMD)において特徴的な新生血管は、脈絡膜からブルッフ膜を突き破って網膜色素上皮(RPE:Retinal pigment epithelium)の下あるいは上に生えだしてくると急速に増殖する。この新生血管から血液の漏出がおこることで、視機能が障害され、さらに漏出箇所周辺に線維化組織が形成される。新生血管を伴うAMD患者に対して適切な治療を行うためには、新生血管と線維化組織(線維症:Fibrosis)とを識別して把握することが必要である。それは、例えば、新生血管からの血液の漏出に対しては、血管内皮増殖因子(VEGF)を阻害する薬を投与することにより新生血管の増殖を抑制することができるが、既に繊維化組織に対しては効果が期待できないためである。また、治療の効果を判断するためにも、それぞれの組織の経時的な変化を把握することが必要である。 Neovascularization, which is characteristic of age-related macular degeneration (AMD) with neovascularization, proliferates rapidly when it penetrates the choroid through the Bruch's membrane and grows under or above the retinal pigment epithelium (RPE). .. Leakage of blood from these new blood vessels impairs visual function and further forms fibrotic tissue around the leaked site. In order to provide appropriate treatment for AMD patients with neovascularization, it is necessary to distinguish and understand the neovascularization and fibrosis (fibrosis). For example, for blood leakage from new blood vessels, the growth of new blood vessels can be suppressed by administering a drug that inhibits vascular endothelial growth factor (VEGF), but it is already for fibrotic tissue. This is because no effect can be expected. In addition, it is necessary to understand the changes over time in each tissue in order to judge the effect of treatment.

しかしながら、従来のOCTにおいて得られる輝度画像においては、RPEと繊維化組織と新生血管とが同じような高輝度反射領域となり、その識別は困難であった。また、OCTAや偏光OCTのいずれかでは、AMDの進行に関わる組織をトータルに識別し、把握することができなかった。また、それら組織の時間的あるいは空間的な変化を把握することが困難であった。そのため、疾患の進行を把握することが難しかった。 However, in the brightness image obtained by the conventional OCT, the RPE, the fibrotic tissue, and the new blood vessel have the same high-intensity reflection region, and it is difficult to distinguish them. In addition, either OCTA or polarized OCT could not totally identify and grasp the tissues involved in the progression of AMD. In addition, it was difficult to grasp the temporal or spatial changes of these tissues. Therefore, it was difficult to grasp the progress of the disease.

本発明の目的の一つは、上記の課題に鑑みてなされたものであり、新生血管や線維化組織等の識別が困難な組織を識別可能な画像を生成することである。なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。 One of the objects of the present invention has been made in view of the above problems, and is to generate an image capable of identifying a tissue that is difficult to distinguish, such as a new blood vessel or a fibrotic tissue. It should be noted that the other purpose of the present invention is not limited to the above-mentioned purpose, but is an action and effect derived by each configuration shown in the embodiment for carrying out the invention described later, and exerts an action and effect that cannot be obtained by the conventional technique. It can be positioned as one.

本発明に係る画像処理装置の一つは、
測定光を照射した被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光を分割して得た互いに異なる偏光の光の断層信号に基づいて、前記被検体の3次元偏光断層情報及び3次元モーションコントラスト情報を取得する情報取得手段と、
前記3次元偏光断層情報を用いて前記被検体の病変領域を抽出する抽出手段と、
前記病変領域が前記3次元モーションコントラスト情報を用いて生成されたモーションコントラスト画像に重畳された画像を生成する画像生成手段と、を有する。
One of the image processing devices according to the present invention is
The subject is based on a tomographic signal of light having different polarizations obtained by dividing the combined wave light obtained by combining the return light from the subject irradiated with the measurement light and the reference light corresponding to the measurement light. Information acquisition means for acquiring 3D polarized tomographic information and 3D motion contrast information of a sample,
An extraction means for extracting a lesion region of the subject using the three-dimensional polarized tomographic information, and an extraction means.
The lesion region has an image generation means for generating an image superimposed on a motion contrast image generated by using the three-dimensional motion contrast information.

本発明の一つによれば、新生血管や線維化組織等の識別が困難な組織を識別可能な画像を生成することができる。 According to one of the present inventions, it is possible to generate an image capable of identifying a tissue that is difficult to identify, such as a new blood vessel or a fibrotic tissue.

本実施形態における装置の全体構成の一例の概略を示す図。The figure which shows the outline of an example of the whole structure of the apparatus in this embodiment. 本実施形態におけるスキャンパターンの一例を表す図。The figure which shows an example of the scan pattern in this embodiment. 本実施形態における信号処理手順の一例を示す図。The figure which shows an example of the signal processing procedure in this embodiment. 本実施形態におけるセグメンテーション結果の一例を示す図。The figure which shows an example of the segmentation result in this embodiment. 本実施形態におけるGUIの一例を示す図。The figure which shows an example of GUI in this embodiment. 本実施形態におけるGUIの一例を示す図。The figure which shows an example of GUI in this embodiment. 本実施形態におけるRPE厚マップと血管画像との重畳表示の一例を示す図。The figure which shows an example of the superimposition display of the RPE thickness map and the blood vessel image in this embodiment.

以下、添付の図面を参照して、本実施形態に係る撮像装置を説明する。なお、以下の実施形態において示す構成および処理手順は一例に過ぎず、本発明は以下の実施形態に限定されるものではない。また、本実施形態で被検体を人眼(眼底)としているがこれに限るものではなく、例えば皮膚等に用いることとしてもよい。また、本実施形態において撮像対象は眼の眼底としているが、前眼を撮影対象とすることとしてもよい。 Hereinafter, the imaging apparatus according to the present embodiment will be described with reference to the attached drawings. The configuration and processing procedure shown in the following embodiments are merely examples, and the present invention is not limited to the following embodiments. Further, in the present embodiment, the subject is the human eye (fundus), but the present invention is not limited to this, and may be used, for example, on the skin or the like. Further, although the imaging target is the fundus of the eye in the present embodiment, the anterior eye may be the imaging target.

<偏光OCT装置の構成>
図1は、本実施形態における画像処理装置の構成例を示す図である。本実施形態ではSS‐OCTによる偏光OCT装置について説明する。なお、SD−OCTによる偏光OCT装置に本発明を適用することも可能である。本実施形態における装置は、光干渉断層信号を取得する光干渉断層取得部800と制御部143から構成される。このとき、光干渉断層取得部800は撮像装置の一例であり、本実施形態における画像処理装置の一例である制御部143と通信可能に接続されている。なお、このような形態以外にも、制御部143が撮像装置に内蔵されて一体となっている装置構成であっても良い。ここで、制御部143は、さらに信号処理部144、信号取得制御部145、表示制御部149と表示部146から構成される。信号処理部144は、さらに画像生成部とマップ生成部から構成される。
<Structure of polarized OCT device>
FIG. 1 is a diagram showing a configuration example of an image processing device according to the present embodiment. In this embodiment, a polarized OCT apparatus using SS-OCT will be described. It is also possible to apply the present invention to a polarized OCT apparatus using SD-OCT. The device in the present embodiment includes an optical interference tomographic acquisition unit 800 for acquiring an optical interference tomographic signal and a control unit 143. At this time, the optical interference tomographic acquisition unit 800 is an example of an image pickup apparatus, and is communicably connected to a control unit 143 which is an example of an image processing apparatus according to the present embodiment. In addition to this form, the device configuration may be such that the control unit 143 is built in the image pickup device and integrated. Here, the control unit 143 is further composed of a signal processing unit 144, a signal acquisition control unit 145, a display control unit 149, and a display unit 146. The signal processing unit 144 is further composed of an image generation unit and a map generation unit.

まず、光干渉断層取得部800の構成について説明する。光源801は波長掃引型(Swept Source:以下SS)光源であり、例えば、掃引中心波長1050nm、掃引幅100nmで掃引しながら光を出射する。光源801から出射された光は、シングルモードファイバ(以下SMファイバと記載)802、偏光制御器803コネクタ804、SMファイバ805、ポラライザ806、偏波保持(Polarization Maintaining:PM)ファイバ(以下PMファイバと記載)807、コネクタ808、PMファイバ809を介して、ビームスプリッタ810に導かれ、測定光(OCT測定光とも言う)と参照光(OCT測定光に対応する参照光とも言う)に分岐される。ビームスプリッタ810の分岐比は、90(参照光):10(測定光)である。偏光制御器103は光源101から射出する光の偏光を所望の偏光状態へ変化させることが出来る。一方、ポラライザ806は特定の直線偏光成分のみを通過させる特性を持つ光学素子である。通常光源801から射出される光は偏光度が高く、特定の偏光方向を持つ光が支配的であるが、ランダム偏光成分と呼ばれる、特定の偏光方向を持たない光が含まれている。このランダム偏光成分は偏光OCT画像の画質を悪化させることが知られており、ポラライザによってランダム偏光成分をカットしてやる。なお、ポラライザ806を通過できるのは特定の直線偏光状態の光のみであるため、所望の光量が被検眼118に入射するように偏光制御器803によって偏光状態を調整する。 First, the configuration of the optical interference fault acquisition unit 800 will be described. The light source 801 is a wavelength sweep type (Swept Source: hereinafter SS) light source, and emits light while sweeping at a sweep center wavelength of 1050 nm and a sweep width of 100 nm, for example. The light emitted from the light source 801 is a single mode fiber (hereinafter referred to as SM fiber) 802, a polarization controller 803 connector 804, an SM fiber 805, a polarizer 806, and a polarization balancing (PM) fiber (hereinafter referred to as PM fiber). Description) It is guided to a beam splitter 810 via a 807, a connector 808, and a PM fiber 809, and is split into a measurement light (also referred to as an OCT measurement light) and a reference light (also referred to as a reference light corresponding to the OCT measurement light). The branching ratio of the beam splitter 810 is 90 (reference light): 10 (measurement light). The polarization controller 103 can change the polarization of the light emitted from the light source 101 to a desired polarization state. On the other hand, the polarizer 806 is an optical element having a characteristic of passing only a specific linearly polarized light component. Normally, the light emitted from the light source 801 has a high degree of polarization and is dominated by light having a specific polarization direction, but includes light having no specific polarization direction called a random polarization component. It is known that this random polarization component deteriorates the image quality of the polarized OCT image, and the random polarization component is cut by the polarizer. Since only light in a specific linearly polarized state can pass through the polarizer 806, the polarization state is adjusted by the polarization controller 803 so that a desired amount of light is incident on the eye to be inspected 118.

分岐された測定光は、PMファイバ811を介して出射され、コリメータ812によって平行光とされる。平行光となった測定光は1/4波長板813を透過したのち、被検眼818の眼底Erにおいて測定光を走査するガルバノスキャナ814、スキャンレンズ815、フォーカスレンズ816を介して被検眼818に入射する。ここで、ガルバノスキャナ814は単一のミラーとして記載したが、実際は被検眼118の眼底Erをラスタースキャンするように2枚のガルバノスキャナによって構成している。また、フォーカスレンズ816はステージ817上に固定されており、光軸方向に動くことで、フォーカス調整することが出来る。ガルバノスキャナ814とステージ817は信号取得制御部145によって制御され、被検眼118の眼底Erの所望の範囲(断層画像の取得範囲、断層画像の取得位置、測定光の照射位置とも言う)で測定光を走査することが出来る。また1/4波長板813は、1/4波長板の光学軸と、その光学軸に対して直交する軸との間の位相を1/4波長分だけ遅延させる特性を持つ光学素子である。本実施例ではPMファイバ811より射出する測定光の直線偏光の方向に対して1/4波長板の光学軸を45°だけ光軸を回転軸として回転させ、被検眼118に入射する光を円偏光とする。なお、本実施形態では詳細な説明はしていないが、眼底Erの動きを検出し、ガルバノスキャナ114のミラーを眼底Erの動きに追従させて走査させるトラッキング機能が付与されていることが望ましい。トラッキング方法については一般的な技術を用いて行うことが可能であり、リアルタイムで行うことも、ポストプロセッシングで行うことも可能である。例えば、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope:SLO)を用いる方法がある。これは眼底Erについて、SLOを用いて光軸に対して垂直な面内の2次元画像を経時的に取得し、画像中の血管分岐などの特徴箇所を抽出する。取得する2次元画像中の特徴箇所がどのように動いたかを眼底Erの移動量として算出し、算出した移動量をガルバノスキャナ814にフィードバックすることでリアルタイムトラッキングを行うことが出来る。 The branched measurement light is emitted via the PM fiber 811 and is converted into parallel light by the collimator 812. The measurement light that has become parallel light passes through the 1/4 wave plate 813 and then enters the eye to be inspected 818 via the galvano scanner 814, the scan lens 815, and the focus lens 816 that scan the measurement light in the fundus Er of the eye to be inspected 818. To do. Here, the galvano scanner 814 is described as a single mirror, but in reality, it is composed of two galvano scanners so as to raster scan the fundus Er of the eye 118 to be inspected. Further, the focus lens 816 is fixed on the stage 817, and the focus can be adjusted by moving in the optical axis direction. The galvano scanner 814 and the stage 817 are controlled by the signal acquisition control unit 145, and the measurement light is measured in a desired range (also referred to as a tomographic image acquisition range, a tomographic image acquisition position, and a measurement light irradiation position) of the fundus Er of the eye to be inspected 118. Can be scanned. The 1/4 wave plate 813 is an optical element having a characteristic of delaying the phase between the optical axis of the 1/4 wave plate and the axis orthogonal to the optical axis by 1/4 wavelength. In this embodiment, the optical axis of the 1/4 wave plate is rotated by 45 ° with respect to the direction of linearly polarized light of the measurement light emitted from the PM fiber 811, and the light incident on the eye to be inspected 118 is circular. Polarized. Although detailed description is not given in this embodiment, it is desirable that a tracking function for detecting the movement of the fundus Er and scanning the mirror of the galvano scanner 114 by following the movement of the fundus Er is provided. The tracking method can be performed using a general technique, and can be performed in real time or by post-processing. For example, there is a method using a scanning laser ophthalmoscope (SLO). This involves acquiring a two-dimensional image of the fundus Er in a plane perpendicular to the optical axis over time using SLO, and extracting feature points such as blood vessel branches in the image. Real-time tracking can be performed by calculating how the feature portion in the acquired two-dimensional image moves as the movement amount of the fundus Er, and feeding back the calculated movement amount to the galvano scanner 814.

測定光は、ステージ817上に乗ったフォーカスレンズ816により、被検眼118に入射し、眼底Erにフォーカスされる。眼底Erを照射した測定光は各網膜層で反射・散乱し、上述の光学経路をビームスプリッタ810に戻る。ビームスプリッタ810に入射した測定光の戻り光はPMファイバ826を経由し、ビームスプリッタ828に入射する。 The measurement light is incident on the eye to be inspected 118 by the focus lens 816 mounted on the stage 817 and is focused on the fundus Er. The measurement light that irradiates the fundus Er is reflected and scattered in each retinal layer, and returns to the beam splitter 810 in the above-mentioned optical path. The return light of the measurement light incident on the beam splitter 810 passes through the PM fiber 826 and is incident on the beam splitter 828.

一方、ビームスプリッタ806で分岐された参照光は、PMファイバ819を介して出射され、コリメータ820によって平行光とされる。参照光は1/2波長板821、分散補償ガラス822、NDフィルタ823、コリメータ824を介し、PMファイバ827に入射する。コリメータレンズ824とPMファイバ827の一端はコヒーレンスゲートステージ825の上に固定されており、被検者の眼軸長の相違等に対応して光軸方向に駆動するように、信号取得制御部145で制御される。1/2波長板821は、1/2波長板の光学軸と、その光学軸に対して直交する軸との間の位相を1/2波長分だけ遅延させる特性を持つ光学素子である。本実施例ではPMファイバ819より射出する参照光の直線偏光がPMファイバ827において長軸が45°傾いた偏光状態となるように調整する。なお本実施形態では参照光の光路長を変更しているが、測定光の光路と参照光の光路との光路長差を変更出来ればよい。 On the other hand, the reference light branched by the beam splitter 806 is emitted via the PM fiber 819, and is converted into parallel light by the collimator 820. The reference light enters the PM fiber 827 via the 1/2 wavelength plate 821, the dispersion compensation glass 822, the ND filter 823, and the collimator 824. One end of the collimator lens 824 and the PM fiber 827 is fixed on the coherence gate stage 825, and the signal acquisition control unit 145 is driven in the optical axis direction in response to the difference in the axial length of the subject. Is controlled by. The 1/2 wavelength plate 821 is an optical element having a characteristic of delaying the phase between the optical axis of the 1/2 wavelength plate and the axis orthogonal to the optical axis by 1/2 wavelength. In this embodiment, the linearly polarized light of the reference light emitted from the PM fiber 819 is adjusted so as to be in a polarized state in which the major axis is tilted by 45 ° in the PM fiber 827. Although the optical path length of the reference light is changed in this embodiment, it is sufficient that the optical path length difference between the optical path of the measurement light and the optical path of the reference light can be changed.

PMファイバ827を通過した参照光はビームスプリッタ828に入射する。ビームスプリッタ828では参照光の戻り光と参照光が合波されることにより得られた合波光(干渉光)とされた上で二つに分割される。分割される干渉光は互いに反転した位相の干渉光(以下、正の成分および負の成分と表現する)となっている。分割された干渉光の正の成分はPMファイバ829、コネクタ831、PMファイバ833を経由して偏光ビームスプリッタ835に入射する。一方、干渉光の負の偏光成分はPMファイバ830、コネクタ832、PMファイバ834を経由して偏光ビームスプリッタ836に入射する。 The reference light that has passed through the PM fiber 827 is incident on the beam splitter 828. In the beam splitter 828, the return light of the reference light and the reference light are combined to form the combined light (interference light) and then split into two. The divided interference light is interference light having phases that are inverted from each other (hereinafter, referred to as a positive component and a negative component). The positive component of the divided interference light enters the polarization beam splitter 835 via the PM fiber 829, the connector 831 and the PM fiber 833. On the other hand, the negative polarization component of the interference light is incident on the polarization beam splitter 836 via the PM fiber 830, the connector 832, and the PM fiber 834.

偏光ビームスプリッタ835および836では、直交する二つの偏光軸に合わせて干渉光が分割され、垂直(Vertical)偏光成分(以下、V偏光成分)と水平(Horizontal)偏光成分(以下、H偏光成分)の二つの光にそれぞれ分割される。偏光ビームスプリッタ835に入射した正の干渉光は偏光ビームスプリッタ835において正のV偏光成分と正のH偏光成分の二つの干渉光に分割される。分割された正のV偏光成分はPMファイバ837を経由してディテクタ841に入射し、正のH偏光成分はPMファイバ838を経由してディテクタ842に入射する。一方、偏光ビームスプリッタ836に入射した負の干渉光は偏光ビームスプリッタ836において負のV偏光成分と負のH偏光成分に分割される。負のV偏光成分はPMファイバ839を経由してディテクタ841に入射し、負のH偏光成分はPMファイバ840を経由してディテクタ842に入射する。 In the polarizing beam splitters 835 and 836, the interference light is divided according to the two orthogonal polarization axes, and the vertical polarization component (hereinafter, V polarization component) and the horizontal (Horizontal) polarization component (hereinafter, H polarization component) are divided. It is divided into two lights. The positive interference light incident on the polarization beam splitter 835 is split into two interference lights, a positive V polarization component and a positive H polarization component, in the polarization beam splitter 835. The divided positive V-polarized light component is incident on the detector 841 via the PM fiber 837, and the positive H-polarized light component is incident on the detector 842 via the PM fiber 838. On the other hand, the negative interference light incident on the polarization beam splitter 836 is split into a negative V polarization component and a negative H polarization component in the polarization beam splitter 836. The negative V-polarized light component is incident on the detector 841 via the PM fiber 839, and the negative H-polarized light component is incident on the detector 842 via the PM fiber 840.

ディテクタ841および842はいずれも差動検出器となっており、位相が180°反転した二つの干渉信号が入力すると、直流成分を除去し、干渉成分のみを出力する。 Both the detectors 841 and 842 are differential detectors, and when two interference signals whose phases are inverted by 180 ° are input, the DC component is removed and only the interference component is output.

ディテクタ841で検出された干渉信号のV偏光成分とディテクタ842で検出された干渉信号のH偏光成分はそれぞれ光の強度に応じた電気信号として出力され、断層画像生成部の一例である信号処理部144に入力する。 The V-polarized light component of the interference signal detected by the detector 841 and the H-polarized light component of the interference signal detected by the detector 842 are output as electric signals according to the light intensity, respectively, and the signal processing unit is an example of the tomographic image generation unit. Enter in 144.

<スキャンパターン>
ここで、被検体118の奥行き方向の断層に関する情報を取得することをA−scanと呼ぶ。また、A−scanと直交する方向で被検体の断層に関する情報、すなわち2次元画像を取得するための走査方向をB−scan、更にB−scanにより得られた断層像に直交する方向に走査することをC−scanと呼ぶ。これは、3次元断層像を取得する際に眼底面内に2次元ラスター走査する場合、高速な走査方向がB−scan、B−scanをその直交方向に並べて走査する低速な走査方向をC−scanと呼ぶ。A−scan及びB−scanを行うことで2次元の断層像が得られ、A−scan、B−scan及びC−scanを行うことで、3次元の断層像を得ることができる。B−scan、C−scanは、上述したガルバノスキャナ114により行われる。
<Scan pattern>
Here, acquiring information about the tomographic fault of the subject 118 in the depth direction is called A-scan. In addition, information about the tomographic image of the subject in the direction orthogonal to A-scan, that is, the scanning direction for acquiring a two-dimensional image is scanned in the direction orthogonal to the tomographic image obtained by B-scan and B-scan. This is called C-scan. This is because when two-dimensional raster scanning is performed in the bottom surface of the eye when acquiring a three-dimensional tomographic image, the high-speed scanning direction is B-scan, and the low-speed scanning direction in which B-scan is arranged in the orthogonal direction is C-. Called scan. A two-dimensional tomographic image can be obtained by performing A-scan and B-scan, and a three-dimensional tomographic image can be obtained by performing A-scan, B-scan and C-scan. B-scan and C-scan are performed by the above-mentioned galvano scanner 114.

なお、不図示のX軸スキャナー114a、Y軸スキャナー114bは、それぞれ回転軸が互いに直交するよう配置された偏向ミラーで構成されている。X軸スキャナー114aは、X軸方向の走査を行い、Y軸スキャナー114bは、Y軸方向の走査を行う。X軸方向、Y軸方向の各方向は、眼球の眼軸方向に対して垂直な方向で、互いに垂直な方向である。また、B−scan、C−scanのようなライン走査方向と、X軸方向またはY軸方向とは、一致していなくてもよい。このため、B−scan、C−scanのライン走査方向は、撮像したい2次元の断層像あるいは3次元の断層像に応じて、適宜決めることができる。 The X-axis scanner 114a and the Y-axis scanner 114b (not shown) are each composed of deflection mirrors arranged so that their rotation axes are orthogonal to each other. The X-axis scanner 114a scans in the X-axis direction, and the Y-axis scanner 114b scans in the Y-axis direction. Each of the X-axis direction and the Y-axis direction is a direction perpendicular to the eye axis direction of the eyeball and is a direction perpendicular to each other. Further, the line scanning direction such as B-scan and C-scan does not have to coincide with the X-axis direction or the Y-axis direction. Therefore, the line scanning direction of B-scan and C-scan can be appropriately determined according to the two-dimensional tomographic image or the three-dimensional tomographic image to be imaged.

次に、図2を用いて本実施形態のスキャンパターンの一例を説明する。OCTアンギオグラフィーでは血流によるOCT干渉信号の時間変化を計測するため、同じ場所(または略同じ場所)で複数回の計測が必要となる。本実施形態ではOCT装置は同じ場所でのBスキャンをm回繰り返しつつ、n箇所のyポジションに移動するスキャンを行う。具体的なスキャンパターンを図2に示す。眼底平面上でy1〜ynのn箇所のyポジションについて、それぞれBスキャンを繰り返しm回ずつ実施する。mが大きいと同じ場所での計測回数が増えるため、血流の検出精度が向上する。その一方でスキャン時間が長くなり、スキャン中の眼の動き(固視微動)により画像にモーションアーチファクトが発生する問題と被検者の負担が増える問題が生じる。本実施形態では両者のバランスを考慮してm=4として実施した。なお、OCT装置のAスキャン速度、被検体118の眼底表面画像の運動解析に応じて、制御部143はmを変更してもよい。 Next, an example of the scan pattern of the present embodiment will be described with reference to FIG. Since OCT angiography measures the time change of the OCT interference signal due to blood flow, it is necessary to perform multiple measurements at the same place (or substantially the same place). In the present embodiment, the OCT apparatus repeats the B scan at the same location m times and performs a scan that moves to the y position at n locations. A specific scan pattern is shown in FIG. B scan is repeated m times for each of n positions of y1 to yn on the fundus plane. When m is large, the number of measurements at the same place increases, so that the accuracy of blood flow detection is improved. On the other hand, the scanning time becomes long, and there arises a problem that motion artifacts occur in the image due to eye movements (fixed vision fine movements) during scanning and a problem that the burden on the subject increases. In this embodiment, m = 4 is set in consideration of the balance between the two. The control unit 143 may change m according to the A scan speed of the OCT apparatus and the motion analysis of the fundus surface image of the subject 118.

図2においてpは1つのBスキャンにおけるAスキャンのサンプリング数を示している。すなわち、p×nにより平面画像サイズが決定される。p×nが大きいと、同じ計測ピッチであれば広範囲がスキャンできるが、スキャン時間が長くなり、上述のモーションアーチファクトおよび患者負担の問題が生じる。本実施形態では両者のバランスを考慮してn=p=300として実施した。なお、上記n,pは適宜自由に変更が可能である。 In FIG. 2, p indicates the number of samples of A scan in one B scan. That is, the plane image size is determined by p × n. If p × n is large, a wide range can be scanned at the same measurement pitch, but the scanning time becomes long, and the above-mentioned motion artifact and patient burden problems occur. In this embodiment, n = p = 300 in consideration of the balance between the two. The above n and p can be freely changed as appropriate.

また、図2におけるΔxは隣り合うxポジションの間隔(xピッチ)であり、Δyは隣り合うyポジションの間隔(yピッチ)である。本実施形態ではxピッチ、yピッチは眼底における照射光のビームスポット径の1/2として決定し、10μmとする。xピッチ、yピッチを眼底上ビームスポット径の1/2とすることで生成する画像を高精細に形成することができる。xピッチ、yピッチを眼底ビームスポット径の1/2より小さくしても生成する画像の精細度をそれ以上高くする効果は小さい。 Further, Δx in FIG. 2 is the interval (x pitch) between adjacent x positions, and Δy is the interval (y pitch) between adjacent y positions. In the present embodiment, the x-pitch and y-pitch are determined as 1/2 of the beam spot diameter of the irradiation light on the fundus and set to 10 μm. By setting the x-pitch and y-pitch to 1/2 the diameter of the beam spot on the fundus, it is possible to form a high-definition image to be generated. Even if the x-pitch and y-pitch are made smaller than 1/2 of the fundus beam spot diameter, the effect of further increasing the definition of the generated image is small.

逆にxピッチ、yピッチを眼底ビームスポット径の1/2より大きくすると精細度は悪化するが、小さなデータ容量で広い範囲の画像を取得することができる。臨床上の要求に応じてxピッチ、yピッチを自由に変更してもよい。 On the contrary, if the x-pitch and y-pitch are made larger than 1/2 of the fundus beam spot diameter, the definition deteriorates, but a wide range of images can be acquired with a small data capacity. The x-pitch and y-pitch may be freely changed according to clinical requirements.

<制御部143の構成>
本装置全体を制御するための制御部143の構成と機能について説明する。制御部143は、信号処理部144、信号取得制御部145、表示部146、表示制御部149によって構成される。また、信号処理部144は、さらに、画像生成部147とマップ生成部148を持つ構成となっている。なお、信号処理部144は、被検体の3次元偏光断層情報及び3次元モーションコントラスト情報を取得する情報取得手段の一例である。また、画像生成部147は、ディテクタ841および842から送られる電気信号(干渉信号)から輝度画像及びモーションコントラスト画像を生成する機能を有し、マップ生成部148は輝度画像から層情報(網膜のセグメンテーション)を生成する機能を有する。
<Structure of control unit 143>
The configuration and function of the control unit 143 for controlling the entire apparatus will be described. The control unit 143 is composed of a signal processing unit 144, a signal acquisition control unit 145, a display unit 146, and a display control unit 149. Further, the signal processing unit 144 further includes an image generation unit 147 and a map generation unit 148. The signal processing unit 144 is an example of information acquisition means for acquiring three-dimensional polarization tomographic information and three-dimensional motion contrast information of a subject. Further, the image generation unit 147 has a function of generating a luminance image and a motion contrast image from electrical signals (interference signals) sent from the detectors 841 and 842, and the map generator 148 has a function of generating a luminance image and a motion contrast image from the luminance image, and the map generator 148 has layer information (segmentation of the retina) from the luminance image. ) Has a function to generate.

さらに、画像生成部147は、信号処理部144に送られる電気信号から偏光特性画像を生成する機能を有し、マップ生成部148は線維化組織画像を生成する機能を有する。 Further, the image generation unit 147 has a function of generating a polarization characteristic image from an electric signal sent to the signal processing unit 144, and the map generation unit 148 has a function of generating a fibrotic tissue image.

信号取得制御部145は上述の通りに各部を制御する。信号処理部144はディテクタ841、842から出力される信号に基づき、画像の生成、生成された画像の解析、解析結果の可視化情報の生成を行う。 The signal acquisition control unit 145 controls each unit as described above. The signal processing unit 144 generates an image, analyzes the generated image, and generates visualization information of the analysis result based on the signals output from the detectors 841 and 842.

信号処理部144で生成された画像および解析結果は表示制御部149に送られ、表示制御部149は表示部146の表示画面に画像および解析結果を表示させる。ここで、表示部146は、例えば液晶等のディスプレイである。なお、信号処理部144で生成された画像データは表示制御部149に送られた後、表示部146に有線で送信されても良いし、無線で送信されても良い。また、本実施形態において表示部146等は制御部143に含まれているが、本発明はこれに限らず、制御部143とは別に設けられても良く、例えば検者が持ち運び可能な装置の一例であるタブレットでも良い。この場合、表示部にタッチパネル機能を搭載させ、タッチパネル上で画像の表示位置の移動、拡大縮小、表示される画像の変更等を操作可能に構成することが好ましい。 The image and analysis result generated by the signal processing unit 144 are sent to the display control unit 149, and the display control unit 149 displays the image and the analysis result on the display screen of the display unit 146. Here, the display unit 146 is a display such as a liquid crystal display. The image data generated by the signal processing unit 144 may be transmitted to the display control unit 149 and then to the display unit 146 by wire or wirelessly. Further, in the present embodiment, the display unit 146 and the like are included in the control unit 143, but the present invention is not limited to this, and the display unit 146 and the like may be provided separately from the control unit 143. An example tablet may be used. In this case, it is preferable that the display unit is equipped with a touch panel function so that the display position of the image can be moved, enlarged / reduced, the displayed image can be changed, and the like can be operated on the touch panel.

<信号処理>
以下、図3を用いて制御部143においておこなう主な信号処理の説明をおこなう。
<Signal processing>
Hereinafter, the main signal processing performed by the control unit 143 will be described with reference to FIG.

[偏光成分毎の断層信号生成]
ステップS301において、信号処理部144はポジションyiのインデックスiを1に設定する。ステップS302、S303において、信号処理部144はポジションyiにおけるディテクタ841、842から出力されたV偏光成分とH偏光成分それぞれの繰り返しBスキャンデータ(m回分)を抜き出す。ステップS304、S305において、信号処理部144は繰り返しBスキャンのインデックスjを1に設定する。ステップS306、S307において、信号処理部144は、V偏光成分とH偏光成分それぞれのj番目(1≦j≦m)のBスキャンデータを抜き出す。
[Generation of tomographic signals for each polarization component]
In step S301, the signal processing unit 144 sets the index i of the position yi to 1. In steps S302 and S303, the signal processing unit 144 extracts repeated B scan data (m times) of each of the V-polarized light component and the H-polarized light component output from the detectors 841 and 842 at the position yi. In steps S304 and S305, the signal processing unit 144 repeatedly sets the index j of the B scan to 1. In steps S306 and S307, the signal processing unit 144 extracts the j-th (1 ≦ j ≦ m) B scan data of each of the V-polarized light component and the H-polarized light component.

ステップS308、S309において、信号処理部144はS306、S307において抜き出されたV偏光成分とH偏光成分それぞれのBスキャンデータに対して、画像生成部147において一般的な再構成処理を行う。すなわち、画像生成部147は、V偏光成分とH偏光成分のBスキャンデータに対してそれぞれ以下のことをおこなう。まず、Bスキャンデータから固定パターンノイズの除去を行う。固定パターンノイズ除去は、ガルバノスキャナ814を被検眼118に測定光が入射されないポジションに移動して取得した複数のAスキャンデータを平均することで固定パターンノイズを抽出し、これを入力したBスキャンデータから減算することで行われる。次に、画像生成部147は、有限区間でフーリエ変換した場合にトレードオフの関係となる、深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。その後、FFT処理を行う事によって断層信号を生成する。以上の処理により2つの断層信号すなわち、V偏光成分の断層信号AvおよびH偏光成分AHおよびそれらの間の位相差ΔΦが生成される。 In steps S308 and S309, the signal processing unit 144 performs a general reconstruction process on the B scan data of each of the V-polarized light component and the H-polarized light component extracted in S306 and S307 in the image generation unit 147. That is, the image generation unit 147 performs the following for the B scan data of the V polarization component and the H polarization component, respectively. First, fixed pattern noise is removed from the B scan data. For fixed pattern noise removal, fixed pattern noise is extracted by moving the galvano scanner 814 to a position where the measurement light is not incident on the eye 118 and averaging the acquired multiple A scan data, and the input B scan data. It is done by subtracting from. Next, the image generation unit 147 performs a desired window function processing in order to optimize the depth resolution and the dynamic range, which are in a trade-off relationship when the Fourier transform is performed in a finite interval. After that, a tomographic signal is generated by performing FFT processing. By the above processing, two tomographic signals, that is, the tomographic signal Av of the V polarization component and the H polarization component AH, and the phase difference ΔΦ between them are generated.

ステップS310、S311において、信号処理部144は繰り返しBスキャンのインデックスjをインクリメントする。ステップS312、S313において信号処理部144がmより大きいか判断する。すなわち、ポジションyiでのBスキャンの輝度計算がm回繰り返されたかを判断する。noの場合はステップS306、S307に戻り、同一Y位置での繰り返しBスキャンの輝度計算を繰り返す。すなわち、画像生成部147は、それぞれ被検体の略同一箇所における断層を示す被検体の複数のHとVの偏光成分の断層信号(断層像)を取得する。 In steps S310 and S311 the signal processing unit 144 repeatedly increments the index j of the B scan. In steps S312 and S313, it is determined whether the signal processing unit 144 is larger than m. That is, it is determined whether the luminance calculation of the B scan at the position y is repeated m times. In the case of no, the process returns to steps S306 and S307, and the luminance calculation of the repeated B scan at the same Y position is repeated. That is, the image generation unit 147 acquires tomographic signals (tomographic images) of a plurality of H and V polarized components of the subject indicating a tomography at substantially the same location of the subject.

[輝度画像生成]
ステップS312、S313でyesと判断された場合はステップS314へ進み、画像生成部147は輝度画像を生成する。
輝度画像は、従来のOCTにおける断層画像と基本的に同じもので、その画素値rはH偏光成分の断層信号AHおよびV偏光成分の断層信号AVから式1によって計算される。
[Brightness image generation]
If yes is determined in steps S312 and S313, the process proceeds to step S314, and the image generation unit 147 generates a luminance image.
The luminance image is basically the same as the tomographic image in the conventional OCT, and its pixel value r is calculated by Equation 1 from the tomographic signal AH of the H-polarized light component and the tomographic signal AV of the V-polarized light component.

Figure 2021087817

[輝度平均化画像生成]
ステップS315において画像生成部147はおのおののyiポジションにおける繰り返しBスキャン(mフレーム)の輝度画像の位置合わせをおこない輝度平均化画像を生成する。
Figure 2021087817

[Brightness averaged image generation]
In step S315, the image generation unit 147 aligns the luminance image of the repeated B scan (m frame) at each y position to generate the luminance averaged image.

具体的には、まず画像生成部147はmフレームのうち、任意の1枚をテンプレートとして選択する。テンプレートとして選択するフレームは、互いに全ての組み合わせで相関を計算し、フレーム別に相関係数の和を求め、その和が最大となるフレームを選択してもよい。次に、画像生成部147はテンプレートでフレーム毎に照合し位置ずれ量(δX、δY、δθ)を求める。具体的には、画像生成部147はテンプレート画像の位置と角度を変えながら類似度を表す指標であるNormalized Cross−Correlation(NCC)を計算し、この値が最大となるときの画像位置の差を位置ずれ量として求める。 Specifically, first, the image generation unit 147 selects any one of the m frames as a template. For the frames selected as the template, the correlation may be calculated for all combinations of each other, the sum of the correlation coefficients may be obtained for each frame, and the frame having the maximum sum may be selected. Next, the image generation unit 147 collates each frame with the template and obtains the amount of misalignment (δX, δY, δθ). Specifically, the image generation unit 147 calculates Normalized Cross-Correlation (NCC), which is an index showing the degree of similarity while changing the position and angle of the template image, and determines the difference in image position when this value is maximized. Obtained as the amount of misalignment.

なお、本発明では、類似度を表す指標は、テンプレートとフレーム内の画像の特徴の類
似性を表す尺度であれば種々変更が可能である。
In the present invention, the index indicating the degree of similarity can be variously changed as long as it is a scale indicating the similarity between the features of the image in the template and the frame.

次に、画像生成部147は位置ずれ量(δX、δY、δθ)に応じて位置補正をテンプレート以外のm−1フレームに適用し、mフレームの位置合わせを行う。 Next, the image generation unit 147 applies the position correction to the m-1 frame other than the template according to the amount of misalignment (δX, δY, δθ), and aligns the m frame.

式2によって、この位置合わせされた輝度画像ri(1≦i≦m)を平均化し、輝度平均化画像 The aligned luminance image ri (1 ≦ i ≦ m) is averaged by the equation 2, and the luminance averaging image is obtained.

Figure 2021087817

を生成する。
Figure 2021087817

To generate.

Figure 2021087817

[線維化組織画像生成]
ステップS316において画像生成部147は、HとVの偏光成分の断層象データから複屈折性の高い領域の画像と偏光の保たれている領域の画像を求め、その2つの画像から線維化組織画像を生成する。
Figure 2021087817

[Fibrotic tissue image generation]
In step S316, the image generation unit 147 obtains an image of a region having high birefringence and an image of a region where polarization is maintained from the tomographic data of the polarized light components of H and V, and fibrous tissue image from the two images. To generate.

(リターデーション画像)
複屈折性の高い領域の画像の求め方を示す。まず、画像生成部147は、HとVの偏光成分の断層象データからリターデーション画像を生成する。リターデーション画像の各画素の値δは、断層画像を構成する各画素の位置において、垂直偏光成分と水平偏光成分の間の位相差を数値化したものであり、各断層信号AHおよびAVから式3によって計算される。
(Retention image)
The method of obtaining the image of the region with high birefringence is shown. First, the image generation unit 147 generates a retardation image from the tomographic data of the polarized light components of H and V. The value δ of each pixel of the retardation image is a numerical value of the phase difference between the vertically polarized light component and the horizontally polarized light component at the position of each pixel constituting the tomographic image, and is expressed from each tomographic signal AH and AV. Calculated by 3.

Figure 2021087817

各Bスキャン画像に対して式3を計算することによってリターデーション画像(偏光の位相差を示す断層画像とも言う)を得ることができる。リターデーション画像を生成することにより、複屈折性のある層を把握することが可能となる。とくに線維化した組織など、輝度断層画像では判別できない構造を抽出することが可能となる。
Figure 2021087817

A retardation image (also referred to as a tomographic image showing the phase difference of polarized light) can be obtained by calculating Equation 3 for each B-scan image. By generating a retardation image, it becomes possible to grasp the layer having birefringence. In particular, it is possible to extract structures that cannot be discriminated by luminance tomographic images, such as fibrotic tissues.

次に、複屈折性の高い領域の抽出をおこなう。ここで、抽出する領域の境界は、例えば、深度方向のリターデーション値の変化量が所定の閾値を超えた画素を特定して決定する。深度方向の変化量は、各画素で隣接する2つの画素のリターデーション値の差分から求めてもよいし、隣接する複数の画素のリターデーション値を線形フィッティングした傾きから求めてもよい。また、隣接する複数の画素のリターデーション値を多項式フィッティングし、それを微分して求めた各画素における接線の傾きから求めてもよい。また、SobelフィルタやPrewittフィルタの処理を行って求めてもよい。これにより、複屈折性の高い領域の画像を得る。 Next, a region having high birefringence is extracted. Here, the boundary of the region to be extracted is determined by, for example, specifying a pixel in which the amount of change in the retardation value in the depth direction exceeds a predetermined threshold value. The amount of change in the depth direction may be obtained from the difference between the retardation values of two adjacent pixels in each pixel, or may be obtained from the inclination of linear fitting of the retardation values of a plurality of adjacent pixels. Alternatively, the retardation values of a plurality of adjacent pixels may be polynomial-fitted and obtained by differentiating them from the slope of the tangent line in each pixel. Further, it may be obtained by processing a Sobel filter or a Prewitt filter. As a result, an image of a region having high birefringence is obtained.

(DOPU画像)
偏光の保たれている領域の画像の求め方を示す。画像生成部147は、取得した断層信号AH、AVとそれらの間の位相差ΔΦから、各画素のストークスベクトルSを式4により計算する。
(DOPU image)
The method of obtaining the image of the region where polarized light is maintained is shown. The image generation unit 147 calculates the Stokes vector S of each pixel from the acquired tomographic signals AH and AV and the phase difference ΔΦ between them by Equation 4.

Figure 2021087817

ただし、ΔΦは2つの断層画像を計算する際に得られる各信号の位相ΦHとΦVからΔΦ=ΦV−ΦHとして計算する。次に、各Bスキャン画像を概ね測定光の主走査方向に70μm、深度方向に18μm程度の大きさのウィンドウを設定し、各ウィンドウ内において式4で画素毎に計算されたストークスベクトルの各要素を平均し、当該ウィンドウ内の偏光の均一性DOPU(Degree Of Polarization Uniformity)を式5により計算する。
Figure 2021087817

However, ΔΦ is calculated as ΔΦ = ΦV−ΦH from the phases ΦH and ΦV of each signal obtained when calculating two tomographic images. Next, for each B-scan image, a window having a size of about 70 μm in the main scanning direction of the measurement light and about 18 μm in the depth direction is set, and each element of the Stokes vector calculated for each pixel by Equation 4 in each window. Is averaged, and the polarization uniformity DOPU (Degree Of Publication Uniformity) in the window is calculated by Equation 5.

Figure 2021087817

ただし、Qm、Um、Vmは各ウィンドウ内のストークスベクトルの要素Q,U,Vを平均した値である。この処理をBスキャン画像内の全てのウィンドウに対して行うことで、DOPU画像(偏光の均一度を示す断層画像とも言う)が生成される。DOPUは、偏光の均一性を表す数値であり、偏光が保たれている個所においては1に近い数値となり、偏光が解消された保たれない箇所においては1よりも小さい数値となるものである。網膜内の構造においては、網膜色素上皮が偏光状態を解消する性質があるため、DOPU画像において網膜色素上皮に対応する部分は、他の領域に対してその値が小さくなる。とくに病変で不連続になった網膜色素上皮など、輝度断層画像では判別できない構造を抽出することが可能となる。次に、DOPU画像を閾値処理(例えば、閾値0.75)することで、偏光が保たれている領域と、偏光が解消されている領域とを分ける。これにより、偏光が保たれている領域の画像を得る。なお、偏光特性画像には、この偏光解消情報に基づくDOPU画像の他に、例えば上述したリターデーション情報に基づく画像(リタデーション画像)、オリエンテーション情報に基づく画像、複屈折情報に基づく画像などがある。これら画像或いは情報は、3次元偏光断層情報を構成する。
Figure 2021087817

However, Qm, Um, and Vm are values obtained by averaging the elements Q, U, and V of the Stokes vector in each window. By performing this process on all windows in the B-scan image, a DOPU image (also referred to as a tomographic image showing the uniformity of polarization) is generated. DOPU is a numerical value indicating the uniformity of polarized light, and is a numerical value close to 1 at a place where polarized light is maintained, and a numerical value smaller than 1 at a place where polarized light is not maintained. In the structure in the retina, since the retinal pigment epithelium has a property of eliminating the polarized state, the value of the portion corresponding to the retinal pigment epithelium in the DOPU image becomes smaller than that of other regions. In particular, it is possible to extract structures that cannot be discriminated by luminance tomographic images, such as retinal pigment epithelium that is discontinuous due to lesions. Next, the DOPU image is subjected to threshold processing (for example, a threshold of 0.75) to separate a region in which polarized light is maintained and a region in which polarized light is depolarized. As a result, an image of a region where polarized light is maintained is obtained. In addition to the DOPU image based on the depolarization information, the polarization characteristic image includes, for example, an image based on the above-mentioned retardation information (retention image), an image based on the orientation information, an image based on the birefringence information, and the like. These images or information constitute three-dimensional polarized tomographic information.

(線維化組織画像)
以上の方法により画像生成部147で得た複屈折性の高い領域の画像と偏光が保たれている領域の画像とから、マップ生成部148は複屈折性が高くかつ偏光が保たれている領域を病変領域の一例として抽出することにより、線維化組織画像fを生成することができる。線維化組織画像fにおいては、複屈折性が高くかつ偏光が保たれている領域に対し、他の領域とは異なる画素値が設定されている。例えば、線維化組織画像fを8ビットの符号なし画像とした場合は、画素値0を繊維化していない領域、それ以外の値については繊維化の程度に応じた画素値を割り当てるようにすればよい。ここで、線維化の程度は複屈折性の大きさに応じて決めればよい。ここでは説明上、繰り返しBスキャンして求めたmフレームの偏光成分の断層像データのなかから任意の1フレームのHとVの偏光成分の断層象データを用いて線維化組織画像を求める方法について述べたが、mフレームを平均した偏光成分の断層像を用いて線維化組織画像fを生成して用いてもよい。
(Fibrotic tissue image)
From the image of the region having high birefringence and the image of the region where polarization is maintained obtained by the image generation unit 147 by the above method, the map generation unit 148 has high birefringence and the region where polarization is maintained. Can be generated as a fibrotic tissue image f by extracting as an example of the lesion region. In the fibrotic tissue image f, a pixel value different from that of the other regions is set for the region having high birefringence and maintaining polarization. For example, when the fibrous tissue image f is an 8-bit unsigned image, the pixel value 0 is assigned to the non-fibrous region, and the other values are assigned pixel values according to the degree of fibrosis. Good. Here, the degree of fibrosis may be determined according to the magnitude of birefringence. Here, for the sake of explanation, a method for obtaining a fibrotic tissue image using tomographic data of H and V polarized components of an arbitrary 1 frame from the tomographic image data of the polarized components of m frames obtained by repeated B scanning. As described above, a fibrous tissue image f may be generated and used by using a tomographic image of a polarized light component obtained by averaging m-frames.

[層情報生成(セグメンテーション)]
ステップS317においてマップ生成部148は、画像生成部147がステップS315で生成した輝度平均化画像
[Layer information generation (segmentation)]
In step S317, the map generation unit 148 uses the luminance averaging image generated by the image generation unit 147 in step S315.

Figure 2021087817

から、網膜の層情報生成(セグメンテーション)を行う。
網膜は10層から構成される事が知られているが、本実施例においては図4(A)および以下に示すように、いくつかの層をまとめて6つの層にセグメンテーションを行う。
Figure 2021087817

From, layer information generation (segmentation) of the retina is performed.
It is known that the retina is composed of 10 layers, but in this example, as shown in FIG. 4 (A) and the following, some layers are grouped together and segmentation is performed into 6 layers.

Layer1:神経繊維層(NFL)
Layer2:神経節細胞層(GCL)および内網状層(IPL)
Layer3:内顆粒層(INL)および外網状層(OPL)
Layer4:外顆粒層(ONL)および外境界膜(ELM)
Layer5:視細胞内節外節接合部(IS/OS)、錐体外節端(COST)および網膜視磯上皮層(RPE)
Layer6:脈絡膜毛細血管板(CC)
次に輝度平均化画像
Layer 1: Nerve Fiber Layer (NFL)
Layer2: Ganglion cell layer (GCL) and inner plexiform layer (IPL)
Layer3: Inner nuclear layer (INL) and outer plexiform layer (OPL)
Layer4: Outer nuclear layer (ONL) and external limiting membrane (ELM)
Layer5: Extrapyramidal junction (IS / OS), extrapyramidal end (COST) and retinal visual cortex epithelial layer (RPE)
Layer6: Choroidal Capillary Plate (CC)
Next, the brightness averaged image

Figure 2021087817

をもとに層情報lを得る方法を示す。
Figure 2021087817

The method of obtaining the layer information l based on the above is shown.

マップ生成部148は、輝度平均化画像 The map generation unit 148 is a brightness averaged image.

Figure 2021087817

から抜き出した処理の対象とする断層像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、それぞれメディアン画像、Sobel画像ともいう)。次に、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、Sobel画像から作成したプロファイル内のピークを検出する。検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を抽出する。但し、Layer6はLayer5の脈絡膜側の境界から脈絡膜毛細管板を含む一定の距離、例えば10μmに相当する位置までとしてセグメンテーションされる。
Figure 2021087817

An image is created by applying a median filter and a Sobel filter to the tomographic image to be processed extracted from the above (hereinafter, also referred to as a median image and a Sobel image, respectively). Next, a profile is created for each A scan from the created median image and Sobel image. The median image has a brightness value profile, and the Sobel image has a gradient profile. Then, the peak in the profile created from the Sobel image is detected. By referring to the profile of the median image corresponding to before and after the detected peak and between the peaks, the boundary of each region of the retinal layer is extracted. However, the Layer 6 is segmented from the boundary on the choroid side of the Layer 5 to a certain distance including the choroidal capillary plate, for example, a position corresponding to 10 μm.

また、Layer5のセグメンテーションにおいて、マップ生成部148は先に求めたDOPU画像を利用してRPEの境界を決定する。RPEは、それが含むメラニン細胞によって偏光状態を解消する性質があるため、DOPU画像においてRPEに対応する部分は、他の領域に対してその値が小さくなる。すなわちDOPU画像は、RPEの構造に由来する性質を画像化しているので、疾病によりRPEが変形している場合においても、輝度の変化のみを用いるよりも確実にRPEを画像化出来る。 Further, in the segmentation of Layer 5, the map generation unit 148 determines the boundary of the RPE by using the DOPU image obtained earlier. Since RPE has a property of eliminating the polarized state by the melanocytes contained therein, the value of the portion corresponding to RPE in the DOPU image becomes smaller than that of other regions. That is, since the DOPU image images the properties derived from the structure of the RPE, even when the RPE is deformed due to a disease, the RPE can be imaged more reliably than using only the change in brightness.

さらに、マップ生成部148は決定したRPEの境界から、RPEの厚みを計算してマップ化し、これをRPE厚マップとして不図示の内部メモリに記憶する。図4(B)はその一例を示すものであり、マップを構成する画素の値はRPEの厚みに対応する。この例においてマップ中央の領域GAは委縮型の加齢黄斑変性症により、RPEが委縮して厚みが0となった部分に対応する。 Further, the map generation unit 148 calculates and maps the thickness of the RPE from the determined boundary of the RPE, and stores this as an RPE thickness map in an internal memory (not shown). FIG. 4B shows an example thereof, and the values of the pixels constituting the map correspond to the thickness of the RPE. In this example, the region GA in the center of the map corresponds to the portion where the RPE is atrophied and the thickness becomes 0 due to atrophic age-related macular degeneration.

[血管画像生成(モーションコントラスト)]
ステップS318において画像生成部147は、輝度画像から血管画像を生成する。
[Blood vessel image generation (motion contrast)]
In step S318, the image generation unit 147 generates a blood vessel image from the luminance image.

まず、画像生成部147はモーションコントラストを計算する。本実施例ではステップS314にて信号処理部144が出力したmフレームの輝度画像から同じ位置のピクセルごとに信号強度(輝度)の分散値を計算し、その分散値をモーションコントラストとする。すなわち、画像生成部147は算出された複数の断層像データ間の対応する画素データを用いてモーションコントラストを算出する。なお、分散値以外に、標準偏差、差分値、非相関値および相関値の何れを用いることとしてもよい。また、信号強度ではなく位相を用いることとしてもよい。また、モーションコントラストの求め方は種々あり、本発明においてモーションコントラストの特徴量の種類は同一Y位置での複数Bスキャン像の各ピクセルの輝度値の変化を表す指標であれば適用が可能である。また、モーションコントラストはmフレームの断層像の輝度画像から同じ位置のピクセルごとに分散値の変わりに、各フレームの同ピクセルごとの平均値で正規化した変動係数を用いることも可能である。得られたモーションコントラストデータは、後述する3次元モーションコントラスト情報の一部を構成する。 First, the image generation unit 147 calculates the motion contrast. In this embodiment, the dispersion value of the signal intensity (luminance) is calculated for each pixel at the same position from the brightness image of the m frame output by the signal processing unit 144 in step S314, and the dispersion value is used as the motion contrast. That is, the image generation unit 147 calculates the motion contrast using the corresponding pixel data between the calculated tomographic image data. In addition to the variance value, any of the standard deviation, the difference value, the uncorrelated value, and the correlated value may be used. Further, the phase may be used instead of the signal strength. Further, there are various methods for obtaining the motion contrast, and in the present invention, the type of the feature amount of the motion contrast can be applied as long as it is an index showing the change in the brightness value of each pixel of the plurality of B scan images at the same Y position. .. Further, for the motion contrast, it is also possible to use a coefficient of variation normalized by the average value for each pixel of each frame instead of the variance value for each pixel at the same position from the luminance image of the tomographic image of m frame. The obtained motion contrast data constitutes a part of the three-dimensional motion contrast information described later.

次に、画像生成部147はモーションコントラストの閾値処理をする。画像生成部147は、各輝度が、上記閾値以下の領域に対応したモーションコントラストの値を0に設定する。この閾値処理により、ランダムノイズによる輝度変化に由来するモーションコントラストを除去することでノイズを軽減し、血管とそれ以外の部分とを識別することが可能となる。閾値は、ステップS317で取得された層情報を用いて決めることとしてもよい。閾値の値は、大きいほどノイズは減るがモーションコントラスト検出の感度は下がる。よって、本発明においてはRPEに関係する新生血管に着目することから、RPEの近傍あるいは脈絡膜においてはモーションコントラストのノイズ閾値を下げるなどしてもよい。また、閾値処理の前後で平滑化処理をおこなってもよい。これらの処理により、血管画像bを生成する。 Next, the image generation unit 147 performs motion contrast threshold processing. The image generation unit 147 sets the value of the motion contrast corresponding to the region where each brightness is equal to or less than the threshold value to 0. This threshold processing makes it possible to reduce noise by removing motion contrast caused by a change in brightness due to random noise, and to distinguish between blood vessels and other parts. The threshold value may be determined using the layer information acquired in step S317. The larger the threshold value, the less noise, but the lower the sensitivity of motion contrast detection. Therefore, since the present invention focuses on new blood vessels related to RPE, the noise threshold value of motion contrast may be lowered in the vicinity of RPE or in the choroid. Further, the smoothing process may be performed before and after the threshold value process. By these processes, a blood vessel image b is generated.

[ボリュームデータの生成]
ステップS319において信号処理部144は、ポジションyiのインデックスiをインクリメントする。ステップS320において信号処理部144は、iがnより大きいか判断する。すなわち、n箇所の全てのyポジションで所定の処理をおこなったかを判断する。noの場合はS302、S303に戻る。yesの場合は、次ステップS321へ進む。以上のステップを経て、次に3次元画像を生成する。すなわち、ステップS321において画像生成部147は、3次元の輝度平均化画像
[Generate volume data]
In step S319, the signal processing unit 144 increments the index i of the position yi. In step S320, the signal processing unit 144 determines whether i is larger than n. That is, it is determined whether or not the predetermined processing has been performed at all the y positions at n locations. In the case of no, the process returns to S302 and S303. In the case of yes, the process proceeds to the next step S321. After the above steps, a three-dimensional image is generated next. That is, in step S321, the image generation unit 147 is a three-dimensional brightness averaged image.

Figure 2021087817

を生成する。ステップS322において画像生成部147は、3次元の血管画像b3Dを生成する。ステップS323において画像生成部147は、3次元の繊維化組織画像f3Dを生成する。このとき、あわせて独立した線維化組織の数をカウントし記録する。また、それぞれの線維化組織の体積を計算して求めておく。ステップS324においてマップ生成部148は、3次元の層情報l3Dを生成する。
Figure 2021087817

To generate. In step S322, the image generation unit 147 generates a three-dimensional blood vessel image b3D. In step S323, the image generation unit 147 generates a three-dimensional fibrated tissue image f3D. At this time, the number of independent fibrotic tissues is also counted and recorded. In addition, the volume of each fibrotic tissue is calculated and obtained. In step S324, the map generation unit 148 generates three-dimensional layer information l3D.

また、ステップS325において画像生成部147は、3次元の血管画像b3Dと3次元の層情報l3Dとから、Layer5をまたがって伸びる血管の存在する位置を記録する。また、Layer6からLayer5の近傍に存在する血管の位置も併せて記録する。 Further, in step S325, the image generation unit 147 records the position of the blood vessel extending across the Layer 5 from the three-dimensional blood vessel image b3D and the three-dimensional layer information l3D. In addition, the positions of blood vessels existing in the vicinity of Layer 6 to Layer 5 are also recorded.

<表示方法>
ステップS326では、以上のステップで求めた3次元輝度平均化画像
<Display method>
In step S326, the three-dimensional luminance averaged image obtained in the above steps

Figure 2021087817

と3次元血管画像b3Dと3次元線維化組織画像f3Dと3次元層情報l3Dと、線維化組織の体積と数、層近傍の血管の数と、を表示部146に表示する。以下、これらの画像と情報一式をデータセットと呼ぶことにする。表示方法の一例を図5および図6に示す。
Figure 2021087817

The three-dimensional blood vessel image b3D, the three-dimensional fibrotic tissue image f3D, the three-dimensional layer information l3D, the volume and number of fibrotic tissues, and the number of blood vessels in the vicinity of the layer are displayed on the display unit 146. Hereinafter, these images and a set of information will be referred to as a data set. An example of the display method is shown in FIGS. 5 and 6.

図5の表示領域51に、3次元輝度平均化画像 Three-dimensional luminance averaged image in the display area 51 of FIG.

Figure 2021087817

、3次元血管画像b3D、3次元線維化組織画像f3D、3次元層情報l3Dの全てあるいは任意の組み合わせを重畳して表示する。また、画像の側方にあるチェックボックス52を用いて、重畳表示から並べて表示するように切り替えることが可能である。表示された3次元画像は、検者の操作、例えばマウス操作によって、自由に回転、移動、拡大縮小ができ、任意の位置、角度から画像を見ることができる。
Figure 2021087817

, 3D blood vessel image b3D, 3D fibrotic tissue image f3D, 3D layer information l3D, all or any combination are superimposed and displayed. Further, by using the check box 52 on the side of the image, it is possible to switch from the superimposed display to the side-by-side display. The displayed three-dimensional image can be freely rotated, moved, and enlarged / reduced by an examiner's operation, for example, a mouse operation, and the image can be viewed from any position and angle.

また、図6に示すように、チェックボックス62を用いて、表示領域61の表示を2次元の断層像もしくはEnface画像の表示に切り替えることも可能である。同図は、線維化組織画像(偏光Enface画像の一例)と血管画像(モーションコントラストEnface画像の一例)を重畳したEnface画像とした場合の例示であり、血管画像上に組織が線維化された領域(網掛け部分)が表示されている。これにより、線維化領域とその領域における血管の状態を容易に把握する事ができるようになる。このように、検者の操作に応じてEnface画像が選択された場合には、チェックボックス65において選択した層の情報を用いてEnface画像を生成する。検者の操作に応じて断層像が選択された場合には、スライドバー67の操作によって任意の位置の断層像を表示選択することができ、ボタン64を押下することで、スライドショーのように断層像を自動的に順次切り替えて表示することが可能である。なお、検者の操作に応じてEnface画像が選択された場合でも、スライドバー67の操作によってEnface画像の深さ位置が選択されても良い。また、チェックボックス62やチェックボックス65は、被検体の深さ方向における第1の領域と、第1の領域とは異なる第2の領域とを決定する決定手段の一例である。この場合、決定手段は、第1の領域(例えば、RPE近傍)と第2の領域(例えば、脈絡膜近傍)を決定する際に、本実施形態のように検者の操作に応じて決定するようにしても良いし、診断目的等に応じて自動的に決定するようにしても良い。また、検者が表示領域51、61に表示する画像および情報を変更するためにチェックボックス52、62を操作すると、任意の画像および情報の組み合わせで画像を表示領域51、61に表示することが可能となる。以上の構成により、AMDの進行および治療効果の確認を効率的に行う事が出来るようになる。 Further, as shown in FIG. 6, it is also possible to switch the display of the display area 61 to the display of a two-dimensional tomographic image or an Enface image by using the check box 62. The figure is an example of an Enface image in which a fibrotic tissue image (an example of a polarized Enface image) and a blood vessel image (an example of a motion contrast Enface image) are superimposed, and is an example of a region where the tissue is fibrotic on the blood vessel image. (Shaded part) is displayed. This makes it possible to easily grasp the fibrotic region and the state of blood vessels in that region. In this way, when the Enface image is selected according to the operation of the examiner, the Enface image is generated using the information of the layer selected in the check box 65. When a tomographic image is selected according to the operation of the examiner, the tomographic image at an arbitrary position can be displayed and selected by operating the slide bar 67, and by pressing the button 64, the tomographic image is displayed like a slide show. It is possible to automatically switch and display the images in sequence. Even when the Enface image is selected according to the operation of the examiner, the depth position of the Enface image may be selected by the operation of the slide bar 67. Further, the check box 62 and the check box 65 are examples of determination means for determining a first region in the depth direction of the subject and a second region different from the first region. In this case, when determining the first region (for example, near the RPE) and the second region (for example, near the choroid), the determining means is determined according to the operation of the examiner as in the present embodiment. However, it may be automatically determined according to the purpose of diagnosis or the like. Further, when the examiner operates the check boxes 52 and 62 to change the images and information displayed in the display areas 51 and 61, the images can be displayed in the display areas 51 and 61 in any combination of the images and information. It will be possible. With the above configuration, it becomes possible to efficiently confirm the progress of AMD and the therapeutic effect.

例えば、表示の対象として血管画像と線維化組織とを選択すると、表示領域51、61に血管画像と線維化組織が表示され、血管と線維化組織の配置および分布を視覚的に把握することが可能となる。図5はその一例であり、同図において表示領域51には3次元血管画像b3Dと3次元線維化組織画像f3Dが3D画像として重畳表示されている。一方、図6においては、2種類の画像が2次元の平面画像として重畳表示されている。いずれの場合も、網掛けされた部分は繊維化層式画像において繊維化が進んでいる領域を示しており、網膜層内の血管と、疾病により組織が変性した部分を全体として把握する事が出来る。 For example, when a blood vessel image and a fibrotic tissue are selected as display targets, the blood vessel image and the fibrotic tissue are displayed in the display areas 51 and 61, and the arrangement and distribution of the blood vessel and the fibrotic tissue can be visually grasped. It will be possible. FIG. 5 is an example thereof, in which a three-dimensional blood vessel image b3D and a three-dimensional fibrotic tissue image f3D are superimposed and displayed as a 3D image in the display area 51. On the other hand, in FIG. 6, two types of images are superimposed and displayed as a two-dimensional plane image. In each case, the shaded area shows the area where fibrosis is progressing in the fibrotic layer image, and it is possible to grasp the blood vessels in the retinal layer and the part where the tissue is denatured due to the disease as a whole. You can.

また、表示の対象領域はチェックボックス55、65において表示する層を選択することで、表示領域51、61に着目したい層だけの画像および情報を表示することができる。これにより、対象とする疾病がAMDの場合は特にLayer4乃至Layer6と表示対象とし、脈絡膜から発生して網膜内層に向かって成長すると考えられる新生血管を対象として表示を行う事が可能となる。 Further, by selecting the layer to be displayed in the check boxes 55 and 65 as the display target area, it is possible to display the image and information of only the layer of interest in the display areas 51 and 61. As a result, when the target disease is AMD, it is possible to display the target as Layer 4 to Layer 6, and to display the new blood vessels that are considered to develop from the choroid and grow toward the inner layer of the retina.

さらに、チェックボックス52、62において、層近傍血管をハイライトして表示することを選択できる。図5はその一例であり、層近傍の血管を矢印でハイライトする例を示している。なお、このハイライト表示は矢印以外にも様々な形態を取る事が可能であり、例えば色を変えるなどしてもよい。このように、層近傍血管のハイライト機能と、チェックボックス55、65で脈絡膜とRPE層の表示選択を組み合わせることで、AMDに関係する新生血管を容易に視覚的に把握することが可能となる。 Further, in the check boxes 52 and 62, it is possible to select to highlight and display the blood vessels in the vicinity of the layer. FIG. 5 shows an example of this, in which blood vessels in the vicinity of the layer are highlighted with arrows. The highlight display can take various forms other than the arrow, and the color may be changed, for example. In this way, by combining the highlight function of blood vessels in the vicinity of the layer with the display selection of the choroid and the RPE layer using the check boxes 55 and 65, it becomes possible to easily and visually grasp the new blood vessels related to AMD. ..

また、表示部146は、同一患者の過去に計測し取得したデータセットを読み出して表示する機能を有する。検者が検査番号あるいは検査日時を選択することで任意のデータセットを読み出し表示することができる。図5および図6ではスライドバー53、63をスライドさせることでデータセットを切り替えている。また、ボタン54、64を押下することで、スライドショーのように時系列に従って自動的に画像を順次切り替えて表示することも可能である。なお、このときもチェックボックス52、62、チェックボックス55、65による選択は有効であって、過去のデータセットから検者が着目する画像・部位・情報の表示をおこなう。 In addition, the display unit 146 has a function of reading and displaying a data set measured and acquired in the past of the same patient. Any data set can be read and displayed by the examiner by selecting the inspection number or the inspection date and time. In FIGS. 5 and 6, the data set is switched by sliding the slide bars 53 and 63. Further, by pressing the buttons 54 and 64, it is possible to automatically switch and display the images in order according to the time series like a slide show. At this time as well, the selection by the check boxes 52 and 62 and the check boxes 55 and 65 is effective, and the image, the part, and the information that the examiner pays attention to are displayed from the past data set.

また、表示領域56、66においては、過去のデータセットから、ステップS323で求めた線維化組織の数および体積を縦軸に、時間を横軸にとってグラフ表示する。線維化組織の体積は、検査領域に含まれるトータルの体積であるか、検者が選択した領域内(例えば選択された層における線維化組織の体積)のものであるかは選択可能である。図5および図6においては、チェックボックス52、62、チェックボックス55、65における選択に従って求めている。同様に、過去のデータセットから、ステップ325で求めた層をまたがる血管と層近傍の血管についてその数または密度または長さを縦軸に、時間を横軸にとってグラフ表示する。検査領域に含まれるトータルの数または密度または長さであるか、検者が選択した領域内(例えば選択された層)のものであるかは選択可能である。図5および図6においては、チェックボックス52、62、チェックボックス55、65における選択に従って求めている。なお、上述したグラフは、線維化組織等の病変領域を示すパラメータ(例えば、数や体積)の値の経時変化を示すグラフや、血管を示すパラメータ(例えば、数や密度)の値の経時変化を示すグラフの一例である。新生血管を伴う滲出型のAMDの経過観察においては、新生血管の発生を抑制する抗VEGFによる治療が行われるが、新生血管の増殖やそこからの出血が止まるとその部分が瘢痕として線維化すると考えられる。その場合、継続して治療を行う事は患者の負担を増加させる一方、医療上の効果は期待できないため、客観的な根拠に基づき治療を停止する事が重要である。したがって、表示領域56、66で示されるように治療の対象となる新生血管を表す層近傍の血管の体積と、病変が非活性化した領域の体積を時系列的に並列表示する事で、上記判断を効率的に行う事ができる。 Further, in the display areas 56 and 66, the number and volume of fibrotic tissues obtained in step S323 from the past data set are displayed in a graph on the vertical axis and time on the horizontal axis. The volume of fibrotic tissue can be selected to be the total volume contained in the examination region or within the region selected by the examiner (eg, the volume of fibrotic tissue in the selected layer). In FIGS. 5 and 6, the determination is made according to the selection in the check boxes 52 and 62 and the check boxes 55 and 65. Similarly, from the past data set, the number or density or length of the blood vessels across the layer and the blood vessels in the vicinity of the layer obtained in step 325 is plotted on the vertical axis and the time is plotted on the horizontal axis. It is possible to choose whether it is the total number or density or length contained in the test area, or within the area selected by the examiner (eg, the selected layer). In FIGS. 5 and 6, the determination is made according to the selection in the check boxes 52 and 62 and the check boxes 55 and 65. In addition, the above-mentioned graph is a graph showing the time-dependent change of the value of the parameter (for example, number and volume) indicating the lesion area such as fibrotic tissue, and the time-dependent change of the value of the parameter (for example, number and density) indicating blood vessels. This is an example of a graph showing. In the follow-up of exudative AMD with new blood vessels, treatment with anti-VEGF that suppresses the development of new blood vessels is performed, but when the growth of new blood vessels and bleeding from them stop, that part becomes fibrotic as scars. Conceivable. In that case, continuous treatment increases the burden on the patient, but no medical effect can be expected. Therefore, it is important to stop the treatment based on an objective basis. Therefore, as shown by the display areas 56 and 66, the volume of the blood vessel near the layer representing the new blood vessel to be treated and the volume of the area where the lesion is inactivated are displayed in parallel in chronological order. You can make decisions efficiently.

また、図7は、先述したRPE厚マップと血管画像を重畳表示する例を示す。同図において、71乃至77は、図6における61乃至67と同様であるため説明は省略するが、チェックボックス72には、RPE厚マップ(図中では網膜色素上皮厚画像と表記)が選択肢として追加されている。このRPE厚マップと血管画像を選択する事により、表示領域71にはこれらの2種類の画像が重畳表示される。 Further, FIG. 7 shows an example in which the above-mentioned RPE thickness map and the blood vessel image are superimposed and displayed. In the figure, 71 to 77 are the same as 61 to 67 in FIG. 6, so the description thereof will be omitted, but the RPE thickness map (denoted as retinal pigment epithelial thickness image in the figure) is selected as an option for the check box 72. Has been added. By selecting the RPE thickness map and the blood vessel image, these two types of images are superimposed and displayed in the display area 71.

ここで、表示領域71に表示される画像は、RPE厚マップの画素値を透過度として、血管画像と合成したものであり、RPE厚が0の領域においては血管画像のみが表示されるようになっている。また、スライダー78は、RPE厚マップの画素値と透過度の関係を調整するものであり、図においてはRPE透過度が最も低い条件に設定されている。この設定においては、RPE厚が0の時のみ血管画像が描出され、スライダー78が上方にセットされるとRPE厚の値に応じて透過度が徐々に上がることで、血管画像が透見できるようになる。このようにすることで、AMDのRPE委縮領域とその周辺における血管の状態の関係を把握する事が容易となる。 Here, the image displayed in the display area 71 is synthesized with the blood vessel image using the pixel value of the RPE thickness map as the transparency, so that only the blood vessel image is displayed in the region where the RPE thickness is 0. It has become. Further, the slider 78 adjusts the relationship between the pixel value of the RPE thickness map and the transparency, and is set to the condition where the RPE transparency is the lowest in the figure. In this setting, the blood vessel image is drawn only when the RPE thickness is 0, and when the slider 78 is set upward, the transmittance gradually increases according to the value of the RPE thickness so that the blood vessel image can be seen through. become. By doing so, it becomes easy to grasp the relationship between the RPE atrophy region of AMD and the state of blood vessels in the vicinity thereof.

さらに、マップ生成部148が表示する血管画像の対象範囲(レイヤー)を、被検眼の偏光特性を表す画像から自動的に決定するようにしてもよい。例えば、マップ生成部148は繊維化組織画像およびDOPU画像を解析し、網膜内で線維化している領域およびRPEの委縮領域の有無を検出し、その結果に応じてチェックボックス55、65又は75のチェックを自動的に行う。領域の検出においては、線維化層式画像の画素値が予め設定した閾値以上を超える領域や、RPE厚が閾値以下の領域を検出すればよい。これらの閾値は、予め複数の関連する疾病の症例を解析する事で事前に決めておく事が出来る。 Further, the target range (layer) of the blood vessel image displayed by the map generation unit 148 may be automatically determined from the image showing the polarization characteristics of the eye to be inspected. For example, the map generator 148 analyzes the fibrotic tissue image and the DOPU image, detects the presence or absence of the fibrotic region and the atrophic region of RPE in the retina, and depending on the result, the check boxes 55, 65 or 75 are displayed. Check automatically. In the detection of the region, a region in which the pixel value of the fibrotic layer image exceeds a preset threshold value or a region in which the RPE thickness is equal to or less than the threshold value may be detected. These thresholds can be determined in advance by analyzing a plurality of cases of related diseases in advance.

マップ生成部148は、被検眼に繊維化領域が存在する場合はLayer4、5および6を、RPE委縮が存在する場合はLayer6を血管画像の表示領域とし、各チェックボックスを自動的にチェックすると同時に、当該レイヤー内の血管像と、その時点で表示選択された画像を重畳表示する。或いは、線維化領域が存在する場合は繊維化組織画像を、RPE委縮が検出された場合は、RPE厚マップを選択するようにしてもよい。このように、各病変に対して最も関連性が高い血管領域が自動的に選択される事で、検者の操作を大幅に簡素化する事ができる。この病変と対象とするレイヤーの関係は、予めマップ生成部148内に変更可能な形で記憶しておけばよい。このようにすることで、病態理解の状況に応じて、適切なレイヤーを選択する事ができるようになる。 The map generation unit 148 uses Layers 4, 5 and 6 as the display area of the blood vessel image when the fibrotic region exists in the eye to be inspected, and Layer 6 as the display area of the blood vessel image when the RPE atrophy exists, and at the same time automatically checks each check box. , The blood vessel image in the layer and the image selected at that time are superimposed and displayed. Alternatively, a fibrotic tissue image may be selected if fibrotic regions are present, and an RPE thickness map may be selected if RPE atrophy is detected. In this way, the vascular region most relevant to each lesion is automatically selected, which can greatly simplify the operation of the examiner. The relationship between this lesion and the target layer may be stored in advance in the map generation unit 148 in a modifiable form. By doing so, it becomes possible to select an appropriate layer according to the situation of understanding the pathological condition.

以上説明したように、本発明によれば被検眼の偏光特性とOCTアンギオグラフィーの画像を同時に提示する事で、病変を効果的に表示し、診断を効率的に行う事ができるようになる。 As described above, according to the present invention, by presenting the polarization characteristics of the eye to be inspected and the image of OCT angiography at the same time, the lesion can be effectively displayed and the diagnosis can be performed efficiently.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

本発明に係る画像処理装置の一つは、
測定光を照射した被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光に関する断層信号を用いて得た前記被検体の3次元モーションコントラスト情報を用いて前記被検体の血管領域を抽出する抽出手段と、
記3次元モーションコントラスト情報を用いてモーションコントラスト画像を生成する画像生成手段と、
前記生成された画像を表示手段に表示させ、検者からの指示に応じて選択可能な異なる検査日時の複数のモーションコントラスト画像における互いに対応する領域内であって、検者からの指示に応じて選択された領域内における前記血管領域を用いて得た血管に関する情報の経時変化を示すグラフを前記表示手段に表示させる表示制御手段と、を有する。
One of the image processing devices according to the present invention is
Using a three-dimensional motion contrast information of the subject and the returning light and the reference light corresponding to the measurement light obtained using a tomographic signal relating multiplexed obtained was combined light from the subject irradiated with measurement light Te, extracting means for extracting a blood vessel region of the subject,
Image generating means for generating a motor Activation contrast image image using a pre-Symbol 3-dimensional motion contrast information,
The generated image is displayed on the display means, and is within a region corresponding to each other in a plurality of motion contrast images having different inspection dates and times that can be selected according to an instruction from the examiner, and according to an instruction from the examiner. It has a display control means for causing the display means to display a graph showing a time-dependent change of information about a blood vessel obtained by using the blood vessel region in the selected region .

Claims (20)

測定光を照射した被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光を分割して得た互いに異なる偏光の光の断層信号に基づいて、前記被検体の3次元偏光断層情報及び3次元モーションコントラスト情報を取得する情報取得手段と、
前記3次元偏光断層情報を用いて前記被検体の病変領域を抽出する抽出手段と、
前記病変領域が前記3次元モーションコントラスト情報を用いて生成されたモーションコントラスト画像に重畳された画像を生成する画像生成手段と、
を有することを特徴とする画像処理装置。
The subject is based on a tomographic signal of light having different polarizations obtained by dividing the combined wave light obtained by combining the return light from the subject irradiated with the measurement light and the reference light corresponding to the measurement light. Information acquisition means for acquiring 3D polarized tomographic information and 3D motion contrast information of a sample,
An extraction means for extracting a lesion region of the subject using the three-dimensional polarized tomographic information, and an extraction means.
An image generation means for generating an image in which the lesion region is superimposed on a motion contrast image generated by using the three-dimensional motion contrast information.
An image processing device characterized by having.
前記抽出手段は、前記3次元偏光断層情報を用いて前記被検体の3次元の病変領域を抽出し、
前記画像生成手段は、前記3次元の病変領域が前記3次元モーションコントラスト情報を用いて生成された3次元のモーションコントラスト画像に重畳された3次元画像を生成することを特徴とする請求項1に記載の画像処理装置。
The extraction means extracts a three-dimensional lesion region of the subject using the three-dimensional polarized tomographic information.
The first aspect of the image generation means is to generate a three-dimensional image in which the three-dimensional lesion region is superimposed on the three-dimensional motion contrast image generated by using the three-dimensional motion contrast information. The image processing apparatus described.
前記画像生成手段は、前記3次元画像を用いて前記被検体の特定の領域のEnface画像を生成することを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the image generation means generates an Enface image of a specific region of the subject using the three-dimensional image. 前記抽出手段は、前記3次元偏光断層情報を用いて前記被検体の2次元の病変領域を抽出し、
前記画像生成手段は、前記2次元の病変領域が前記3次元モーションコントラスト情報を用いて生成されたモーションコントラストEnface画像に重畳された画像を生成することを特徴とする請求項1に記載の画像処理装置。
The extraction means extracts a two-dimensional lesion region of the subject using the three-dimensional polarized tomographic information.
The image processing according to claim 1, wherein the image generation means generates an image in which the two-dimensional lesion region is superimposed on the motion contrast Enface image generated by using the three-dimensional motion contrast information. apparatus.
前記重畳された画像を表示手段に表示させる表示制御手段を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, further comprising a display control means for displaying the superimposed image on the display means. 前記抽出手段は、前記3次元モーションコントラスト情報を用いて前記被検体の血管を抽出し、
前記表示制御手段は、前記病変領域を示すパラメータの値と前記血管を示すパラメータの値とを前記表示手段に表示させることを特徴とする請求項5に記載の画像処理装置。
The extraction means extracts the blood vessels of the subject using the three-dimensional motion contrast information.
The image processing apparatus according to claim 5, wherein the display control means causes the display means to display a value of a parameter indicating the lesion area and a value of a parameter indicating the blood vessel.
前記抽出手段は、前記3次元モーションコントラスト情報を用いて前記被検体の血管を抽出し、
前記表示制御手段は、前記病変領域を示すパラメータの値の経時変化を示すグラフと前記血管を示すパラメータの値の経時変化を示すグラフとを前記表示手段に表示させることを特徴とする請求項5に記載の画像処理装置。
The extraction means extracts the blood vessels of the subject using the three-dimensional motion contrast information.
5. The display control means is characterized in that the display means displays a graph showing the time-dependent change of the value of the parameter indicating the lesion area and a graph showing the time-dependent change of the value of the parameter indicating the blood vessel. The image processing apparatus according to.
測定光を照射した被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光を分割して得た互いに異なる偏光の光の断層信号に基づいて、前記被検体の3次元偏光断層情報及び3次元モーションコントラスト情報を取得する情報取得手段と、
前記被検体の深さ方向における第1の領域と、前記第1の領域とは異なる第2の領域とを決定する決定手段と、
前記3次元偏光断層情報を用いて前記第1の領域を抽出する抽出手段と、
前記3次元偏光断層情報を用いて生成された前記第1の領域の偏光Enface画像と、前記3次元モーションコントラスト情報を用いて生成された前記第2の領域のモーションコントラストEnface画像とが重畳された2次元画像を生成する画像生成手段と、
を有することを特徴とする画像処理装置。
The subject is based on a tomographic signal of light having different polarizations obtained by dividing the combined wave light obtained by combining the return light from the subject irradiated with the measurement light and the reference light corresponding to the measurement light. Information acquisition means for acquiring 3D polarized tomographic information and 3D motion contrast information of a sample,
A determination means for determining a first region in the depth direction of the subject and a second region different from the first region.
An extraction means for extracting the first region using the three-dimensional polarized tomographic information, and
The polarized Enface image of the first region generated by using the three-dimensional polarized tomographic information and the motion contrast Enface image of the second region generated by using the three-dimensional motion contrast information are superimposed. An image generation means for generating a two-dimensional image and
An image processing device characterized by having.
前記互いに異なる偏光の光を検出する検出手段を有する撮像装置と通信可能に接続され、
前記情報取得手段は、前記検出手段により前記互いに異なる偏光の光が検出されることにより得た前記断層信号に基づいて、前記3次元偏光断層情報及び前記3次元モーションコントラスト情報を取得することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
It is communicably connected to an image pickup device having a detection means for detecting light having differently polarized light.
The information acquisition means acquires the three-dimensional polarized tomographic information and the three-dimensional motion contrast information based on the tomographic signal obtained by detecting the light having different polarizations by the detection means. The image processing apparatus according to any one of claims 1 to 8.
前記被検体は、被検眼であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the subject is an eye to be inspected. 測定光を照射した被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光を分割して得た互いに異なる偏光の光の断層信号に基づいて、前記被検体の3次元偏光断層情報及び3次元モーションコントラスト情報を取得する工程と、
前記3次元偏光断層情報を用いて前記被検体の病変領域を抽出する工程と、
前記病変領域が前記3次元モーションコントラスト情報を用いて生成されたモーションコントラスト画像に重畳された画像を生成する工程と、
を有することを特徴とする画像処理方法。
The subject is based on a tomographic signal of light having different polarizations obtained by dividing the combined wave light obtained by combining the return light from the subject irradiated with the measurement light and the reference light corresponding to the measurement light. The process of acquiring 3D polarized tomographic information and 3D motion contrast information of a sample,
A step of extracting a lesion region of the subject using the three-dimensional polarized tomographic information, and
A step of generating an image in which the lesion region is superimposed on a motion contrast image generated by using the three-dimensional motion contrast information, and
An image processing method characterized by having.
前記抽出する工程において、前記3次元偏光断層情報を用いて前記被検体の3次元の病変領域を抽出し、
前記生成する工程において、前記3次元の病変領域が前記3次元モーションコントラスト情報を用いて生成された3次元のモーションコントラスト画像に重畳された3次元画像を生成することを特徴とする請求項11に記載の画像処理方法。
In the extraction step, the three-dimensional lesion region of the subject is extracted using the three-dimensional polarized tomographic information.
The eleventh aspect of claim 11, wherein in the generation step, a three-dimensional image in which the three-dimensional lesion region is superimposed on the three-dimensional motion contrast image generated by using the three-dimensional motion contrast information is generated. The image processing method described.
前記生成する工程において、前記3次元画像を用いて前記被検体の特定の領域のEnface画像を生成することを特徴とする請求項12に記載の画像処理方法。 The image processing method according to claim 12, wherein an Enface image of a specific region of the subject is generated using the three-dimensional image in the generation step. 前記抽出する工程において、前記3次元偏光断層情報を用いて前記被検体の2次元の病変領域を抽出し、
前記生成する工程において、前記2次元の病変領域が前記3次元モーションコントラスト情報を用いて生成されたモーションコントラストEnface画像に重畳された画像を生成することを特徴とする請求項11に記載の画像処理方法。
In the extraction step, a two-dimensional lesion region of the subject is extracted using the three-dimensional polarized tomographic information.
The image processing according to claim 11, wherein in the generation step, an image in which the two-dimensional lesion region is superimposed on the motion contrast Enface image generated by using the three-dimensional motion contrast information is generated. Method.
前記重畳された画像を表示手段に表示させる工程を更に有することを特徴とする請求項11乃至14のいずれか1項に記載の画像処理方法。 The image processing method according to any one of claims 11 to 14, further comprising a step of displaying the superimposed image on the display means. 前記抽出する工程において、前記3次元モーションコントラスト情報を用いて前記被検体の血管を抽出し、
前記表示させる工程において、前記病変領域を示すパラメータの値と前記血管を示すパラメータの値とを前記表示手段に表示させることを特徴とする請求項15に記載の画像処理方法。
In the extraction step, the blood vessels of the subject are extracted using the three-dimensional motion contrast information.
The image processing method according to claim 15, wherein in the step of displaying, the value of the parameter indicating the lesion area and the value of the parameter indicating the blood vessel are displayed on the display means.
前記抽出する工程において、前記3次元モーションコントラスト情報を用いて前記被検体の血管を抽出し、
前記表示制御手段は、前記病変領域を示すパラメータの値の経時変化を示すグラフと前記血管を示すパラメータの値の経時変化を示すグラフとを前記表示手段に表示させることを特徴とする請求項15に記載の画像処理方法。
In the extraction step, the blood vessels of the subject are extracted using the three-dimensional motion contrast information.
15. The display control means is characterized in that the display means displays a graph showing the time-dependent change of the value of the parameter indicating the lesion area and a graph showing the time-dependent change of the value of the parameter indicating the blood vessel. The image processing method described in.
測定光を照射した被検体からの戻り光と前記測定光に対応する参照光とを合波して得た合波光を分割して得た互いに異なる偏光の光の断層信号に基づいて、前記被検体の3次元偏光断層情報及び3次元モーションコントラスト情報を取得する工程と、
前記被検体の深さ方向における第1の領域と、前記第1の領域とは異なる第2の領域と
を決定する工程と、
前記3次元偏光断層情報を用いて前記第1の領域を抽出する工程と、
前記3次元偏光断層情報を用いて生成された前記第1の領域の偏光Enface画像と、前記3次元モーションコントラスト情報を用いて生成された前記第2の領域のモーションコントラストEnface画像とが重畳された2次元画像を生成する工程と、
を有することを特徴とする画像処理方法。
The subject is based on a tomographic signal of light having different polarizations obtained by dividing the combined wave light obtained by combining the return light from the subject irradiated with the measurement light and the reference light corresponding to the measurement light. The process of acquiring 3D polarized tomographic information and 3D motion contrast information of a sample,
A step of determining a first region in the depth direction of the subject and a second region different from the first region.
A step of extracting the first region using the three-dimensional polarized tomographic information, and
The polarized Enface image of the first region generated by using the three-dimensional polarized tomographic information and the motion contrast Enface image of the second region generated by using the three-dimensional motion contrast information are superimposed. The process of generating a two-dimensional image and
An image processing method characterized by having.
前記被検体は、被検眼であることを特徴とする請求項11乃至18のいずれか1項に記載の画像処理方法。 The image processing method according to any one of claims 11 to 18, wherein the subject is an eye to be inspected. 請求項11乃至19のいずれか1項に記載の画像処理装置の各工程をコンピュータに実行させることを特徴とするプログラム。 A program comprising causing a computer to execute each step of the image processing apparatus according to any one of claims 11 to 19.
JP2021027609A 2021-02-24 2021-02-24 Image processing apparatus and image processing method Pending JP2021087817A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027609A JP2021087817A (en) 2021-02-24 2021-02-24 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027609A JP2021087817A (en) 2021-02-24 2021-02-24 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016091607A Division JP6843521B2 (en) 2016-04-28 2016-04-28 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2021087817A true JP2021087817A (en) 2021-06-10

Family

ID=76218866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027609A Pending JP2021087817A (en) 2021-02-24 2021-02-24 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2021087817A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513067A (en) * 2004-09-21 2008-05-01 イメドース ゲーエムベーハー Method and apparatus for analyzing retinal blood vessels in digital images
JP2008154704A (en) * 2006-12-22 2008-07-10 Topcon Corp Fundus oculi observation device, fundus oculi image display device, and program
US20110129133A1 (en) * 2009-12-02 2011-06-02 Ramos Joao Diogo De Oliveira E Methods and systems for detection of retinal changes
JP2012071113A (en) * 2010-08-31 2012-04-12 Canon Inc Image processing apparatus, method for controlling the same, and program
JP2013542840A (en) * 2010-11-17 2013-11-28 オプトビュー,インコーポレーテッド 3D retinal separation detection using optical coherence tomography
JP2014083285A (en) * 2012-10-25 2014-05-12 Canon Inc Image processor and image processing method
JP2014110884A (en) * 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP2016010657A (en) * 2014-06-30 2016-01-21 株式会社ニデック Optical coherence tomography device, optical coherence tomography calculation method and optical tomography calculation program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513067A (en) * 2004-09-21 2008-05-01 イメドース ゲーエムベーハー Method and apparatus for analyzing retinal blood vessels in digital images
JP2008154704A (en) * 2006-12-22 2008-07-10 Topcon Corp Fundus oculi observation device, fundus oculi image display device, and program
US20110129133A1 (en) * 2009-12-02 2011-06-02 Ramos Joao Diogo De Oliveira E Methods and systems for detection of retinal changes
JP2012071113A (en) * 2010-08-31 2012-04-12 Canon Inc Image processing apparatus, method for controlling the same, and program
JP2013542840A (en) * 2010-11-17 2013-11-28 オプトビュー,インコーポレーテッド 3D retinal separation detection using optical coherence tomography
JP2014083285A (en) * 2012-10-25 2014-05-12 Canon Inc Image processor and image processing method
JP2014110884A (en) * 2012-10-30 2014-06-19 Canon Inc Image processor and image processing method
JP2016010657A (en) * 2014-06-30 2016-01-21 株式会社ニデック Optical coherence tomography device, optical coherence tomography calculation method and optical tomography calculation program

Similar Documents

Publication Publication Date Title
JP6843521B2 (en) Image processing device and image processing method
US10660515B2 (en) Image display method of providing diagnosis information using three-dimensional tomographic data
JP6598502B2 (en) Image generating apparatus, image generating method, and program
EP2786698B1 (en) Ophthalmologic apparatus
JP6685706B2 (en) Image processing apparatus and image processing method
JP6598466B2 (en) Tomographic imaging apparatus, tomographic imaging method, and program
JP5628636B2 (en) Fundus image processing apparatus and fundus observation apparatus
WO2016110917A1 (en) Image processing apparatus and image processing method for polarization-sensitive optical coherence tomography
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP6682291B2 (en) Image processing apparatus, image processing method and program
JP7009265B2 (en) Image processing equipment, image processing methods and programs
JP6849776B2 (en) Information processing device and information processing method
JP2018191761A (en) Information processing device, information processing method, and program
JP2021087817A (en) Image processing apparatus and image processing method
JP6992030B2 (en) Image generator, image generation method and program
WO2019102740A1 (en) Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
JP2021007665A (en) Optical coherence tomography (oct) data processing method, oct device, control method thereof, oct data processing device, control method thereof, program, and recording medium
JP7387812B2 (en) Image processing device, image processing method and program
JP7199477B2 (en) Ophthalmic information processing apparatus, ophthalmic system, operating method of ophthalmic information processing apparatus, and program
JP2023128334A (en) Information processor, optical coherence tomography device, information processing method, and program
JP2017131551A (en) Image processing device and image processing method
Pchelkina et al. An Algorithm for Automatic Image Segmentation Using the Sobel Method for an Optical Coherence Tomography
WO2019102741A1 (en) Ophthalmic information processing device, ophthalmic system, ophthalmic information processing method, and program
JP6758825B2 (en) Image processing device and its operation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220111