JP2021058285A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2021058285A
JP2021058285A JP2019183043A JP2019183043A JP2021058285A JP 2021058285 A JP2021058285 A JP 2021058285A JP 2019183043 A JP2019183043 A JP 2019183043A JP 2019183043 A JP2019183043 A JP 2019183043A JP 2021058285 A JP2021058285 A JP 2021058285A
Authority
JP
Japan
Prior art keywords
image
tomographic image
tomographic
unit
folded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019183043A
Other languages
Japanese (ja)
Inventor
航 坂川
Wataru Sakagawa
航 坂川
律也 富田
Ritsuya Tomita
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019183043A priority Critical patent/JP2021058285A/en
Publication of JP2021058285A publication Critical patent/JP2021058285A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

To provide an image processing device that can acquire tomographic information from which highly reliable analysis result can be acquired.SOLUTION: An image processing device includes: an acquisition unit for acquiring a first tomographic image of a subject's eye; and an arithmetic processing unit for generating a second tomographic image reduced with a fold back image in the first tomographic image from the first tomographic image using a learned model.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

被検眼の断層画像を非侵襲で得ることができる眼科装置として、低コヒーレント光を用いて撮影を行う光断層干渉撮影法(OCT:Optical Choherence Tomography)を用いた装置(OCT装置)が知られている。OCT装置は、低コヒーレント光を参照光と測定光に分け、測定光を被検査物に照射し、被検査物からの戻り光と参照光を干渉させ、干渉光のスペクトル情報から被検査物の断層を撮影する。 As an ophthalmic apparatus capable of non-invasively obtaining a tomographic image of an eye to be inspected, an apparatus (OCT apparatus) using an optical coherence tomography (OCT), which photographs using low coherence light, is known. There is. The OCT device divides the low coherent light into reference light and measurement light, irradiates the object to be measured with the measurement light, interferes with the return light from the object to be inspected and the reference light, and uses the spectral information of the interference light to indicate the object to be inspected. Take a picture of the fault.

ここで、人の眼の網膜は複数の層で構成されていることが知られており、眼科診断ではOCT装置の撮影データに基づいて層構造を読影したり、病変部の状態を確認したりする。また、網膜のボリューム画像データを用いて病変部の状態を確認するためには、断層画像を表示する他、網膜の層構造を画像解析し、層厚グラフや層厚マップ等を表示することが有効である。 Here, it is known that the retina of the human eye is composed of a plurality of layers, and in ophthalmic diagnosis, the layer structure is interpreted based on the imaging data of the OCT device, and the state of the lesion is confirmed. To do. In addition, in order to confirm the condition of the lesion using the volume image data of the retina, it is possible to display a tomographic image, analyze the layer structure of the retina, and display a layer thickness graph, layer thickness map, etc. It is valid.

しかしながら、スペクトル情報を利用して被検査物の断層像を得ようとする場合、コヒーレンスゲート位置と呼ばれる測定光路と参照光路とが等しい位置を基準として、正規の断層像に対する折返し像が生じてしまうことが知られている。特に、強度近視などの湾曲の大きい被検眼を撮影する場合は折返し像が発生しやすい。また、湾曲が小さい被検眼であっても、コヒーレンスゲート位置の調整が不充分な場合や、撮影中に被検眼が動いてしまった場合には折返し像が発生することがある。 However, when trying to obtain a tomographic image of an object to be inspected using spectral information, a folded image with respect to a normal tomographic image is generated based on a position called the coherence gate position where the measurement optical path and the reference optical path are equal to each other. It is known. In particular, when an eye to be inspected having a large curvature such as high myopia is photographed, a folded image is likely to occur. Further, even if the eye to be inspected has a small curvature, a folded image may occur if the position of the coherence gate is insufficiently adjusted or if the eye to be inspected moves during imaging.

断層画像に折返し像が発生した場合、画像解析による層構造の識別が困難となる。このため、断層像の折返し像が発生した領域の層厚解析データ等を適正にユーザに提示することができない可能性がある。そこで、特許文献1では、断層画像において折返し像が発生した領域を層厚マップに明示し、信頼性が低い領域を分かりやすく表示する技術が開示されている。 When a folded image occurs in a tomographic image, it becomes difficult to identify the layer structure by image analysis. Therefore, there is a possibility that the layer thickness analysis data of the region where the folded image of the tomographic image is generated cannot be properly presented to the user. Therefore, Patent Document 1 discloses a technique in which a region in which a folded image is generated in a tomographic image is clearly shown on a layer thickness map, and a region having low reliability is displayed in an easy-to-understand manner.

特開2014−217423号公報Japanese Unexamined Patent Publication No. 2014-217423

しかしながら、特許文献1に開示された技術は、折返しによって画像解析結果の信頼性が低下した領域を識別しやすくするものである。そのため、特許文献1に開示された技術は、折返し像が発生した領域において信頼性の低い画像解析結果も依然として表示してしまう。 However, the technique disclosed in Patent Document 1 makes it easy to identify a region where the reliability of the image analysis result is lowered due to folding back. Therefore, the technique disclosed in Patent Document 1 still displays unreliable image analysis results in the region where the folded image is generated.

そこで、本発明の一実施態様では、信頼性の高い解析結果を取得可能な断層情報を取得することができる画像処理装置を提供することを目的の一つとする。 Therefore, one of the objects of one embodiment of the present invention is to provide an image processing apparatus capable of acquiring tomographic information capable of acquiring highly reliable analysis results.

本発明の一実施態様に係る画像処理装置は、被検眼の第1の断層画像を取得する取得部と、学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が低減された第2の断層画像を生成する演算処理部とを備える。 An image processing apparatus according to an embodiment of the present invention uses an acquisition unit for acquiring a first tomographic image of an eye to be inspected and a trained model to obtain a first tomographic image from the first tomographic image. It is provided with an arithmetic processing unit that generates a second tomographic image in which the folded image is reduced.

本発明の一実施態様によれば、信頼性の高い解析結果を取得可能な断層情報を取得することができる。 According to one embodiment of the present invention, it is possible to acquire tomographic information capable of acquiring highly reliable analysis results.

実施形態1に係るOCT装置の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the OCT apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る制御部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the control part which concerns on Embodiment 1. FIG. 実施形態1に係る表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen which concerns on Embodiment 1. FIG. 実施形態1に係る機械学習モデルの一例を示す模式図である。It is a schematic diagram which shows an example of the machine learning model which concerns on Embodiment 1. 実施形態1に係る制御部による一連の処理のフローチャートである。It is a flowchart of a series of processing by the control unit which concerns on Embodiment 1. 実施形態1に係る学習部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning part which concerns on Embodiment 1. FIG. 実施形態1に係る学習データの生成方法を説明する図である。It is a figure explaining the method of generating the learning data which concerns on Embodiment 1. FIG. 実施形態1に係る学習部による一連の処理のフローチャートである。It is a flowchart of a series of processing by a learning part which concerns on Embodiment 1. 実施形態2に係る制御部による一連の処理のフローチャートである。It is a flowchart of a series of processing by the control unit which concerns on Embodiment 2. 実施形態2に係る折返し低減処理を説明するための模式図である。It is a schematic diagram for demonstrating the folding back reduction process which concerns on Embodiment 2. 実施形態2に係る表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen which concerns on Embodiment 2. 実施形態3に係る制御部による一連の処理のフローチャートである。6 is a flowchart of a series of processes by the control unit according to the third embodiment. 実施形態3に係る折返し低減処理を説明するための模式図である。It is a schematic diagram for demonstrating the folding back reduction process which concerns on Embodiment 3. 実施形態4に係る制御部による一連の処理のフローチャートである。It is a flowchart of a series of processing by the control unit which concerns on Embodiment 4. 実施形態5に係る表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen which concerns on Embodiment 5. 変形例1に係る機械学習モデルの一例を示す模式図である。It is a schematic diagram which shows an example of the machine learning model which concerns on modification 1.

以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。なお、本明細書において、折返し像とは、撮像対象である断層像についてコヒーレンスゲート位置を基準として折返している像をいう。また、正規の像とは、像対象である断層像についてコヒーレンスゲート位置を基準として折返していない像、言い換えると、折返し像以外の像をいう。さらに、折返し像が低減された画像とは、画像中において折返し像が現れている領域が少なくなっている画像をいい、例えば、折返し像が除去された画像や折返し像が正規像に修正された画像を含む。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following embodiments are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar. In the present specification, the folded image means an image in which the tomographic image to be imaged is folded with reference to the coherence gate position. Further, the normal image means an image in which the tomographic image to be imaged is not folded with respect to the coherence gate position, in other words, an image other than the folded image. Further, the image in which the folded image is reduced means an image in which the region where the folded image appears is reduced in the image. For example, the image in which the folded image is removed or the folded image is corrected to a normal image. Includes images.

さらに、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、多階層のニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を機械学習モデルとして用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダー(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝播法)に関する技術が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。このとき、機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。なお、適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施形態に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。 Further, the machine learning model refers to a learning model based on a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, a decision tree, and a support vector machine. In addition, deep learning (deep learning) in which features and coupling weighting coefficients for learning are generated by oneself using a multi-layer neural network can also be mentioned. Further, for at least a part of the multi-layer neural network, for example, a convolutional neural network (CNN) can be used as a machine learning model. Further, a technique related to an autoencoder (self-encoder) may be used for at least a part of a multi-layer neural network. Further, a technique related to backpropagation (backpropagation method) may be used for learning. However, the machine learning is not limited to deep learning, and any learning using a model capable of extracting (expressing) the features of learning data such as images by learning may be used. At this time, the machine learning model may be, for example, a capsule network (Capsule Network; CapsNet). Here, in a general neural network, each unit (each neuron) is configured to output a scalar value, so that, for example, spatial information regarding the spatial positional relationship (relative position) between features in an image can be obtained. It is configured to be reduced. Thereby, for example, learning can be performed so as to reduce the influence of local distortion and translation of the image. On the other hand, in the capsule network, each unit (each capsule) is configured to output spatial information as a vector, so that, for example, spatial information is retained. Thereby, for example, learning can be performed in which the spatial positional relationship between the features in the image is taken into consideration. It should be noted that, as appropriate, any of the above algorithms that can be used can be applied to the following embodiments. The teacher data refers to learning data and is composed of a pair of input data and output data. The correct answer data refers to the output data of the learning data (teacher data).

なお、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加学習を行うこともできる。追加学習は、装置が使用先に設置された後も行われることができる。 The trained model is a model obtained (trained) by training a machine learning model by an arbitrary machine learning algorithm using appropriate learning data in advance. However, although the trained model is obtained by using appropriate training data in advance, it does not mean that further training is not performed, and additional learning can be performed. Additional learning can be performed even after the device has been installed at the site of use.

(実施形態1)
<眼科撮影装置の概略構成>
以下、図1乃至6を参照して、本発明の実施形態1に係る眼科装置の一例として光干渉断層撮影装置(OCT)装置について説明する。本実施形態に係るOCT装置は、学習済モデルを用いて折返し像が低減された断層画像を生成し、信頼性の高い解析結果を提供する。
(Embodiment 1)
<Outline configuration of ophthalmic imaging device>
Hereinafter, an optical coherence tomography apparatus (OCT) apparatus will be described as an example of the ophthalmic apparatus according to the first embodiment of the present invention with reference to FIGS. 1 to 6. The OCT apparatus according to the present embodiment generates a tomographic image in which the folded image is reduced by using the trained model, and provides a highly reliable analysis result.

図1を参照して、本実施形態に係るOCT装置の概略的な構成について説明する。図1は、本実施形態に係るOCT装置の概略的な構成例を示す。本実施形態のOCT装置は、干渉光を分光してスペクトル情報から奥行き方向の情報を得るスペクトラムドメイン(SD:Spectrum Domain)−OCTである。本実施形態のOCT装置には、光学ヘッド部100、分光器150、制御部200(画像処理装置)、及び表示部250が設けられている。なお、表示部250は、任意のディスプレイによって構成され、制御部200による制御に従い、被検者の情報や各種画像等を表示することができる。以下、光学ヘッド部100、分光器150、及び制御部200の構成を順に説明する。 A schematic configuration of the OCT apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 shows a schematic configuration example of the OCT apparatus according to the present embodiment. The OCT apparatus of this embodiment is a spectrum domain (SD: Spectrum Domain) -OCT that disperses interference light and obtains information in the depth direction from spectral information. The OCT apparatus of this embodiment is provided with an optical head unit 100, a spectroscope 150, a control unit 200 (image processing device), and a display unit 250. The display unit 250 is composed of an arbitrary display, and can display information on the subject, various images, and the like under the control of the control unit 200. Hereinafter, the configurations of the optical head unit 100, the spectroscope 150, and the control unit 200 will be described in order.

<光学ヘッド部100及び分光器150の構成>
光学ヘッド部100には、被検眼Eの前眼部Eaや眼底Efの2次元画像及び断層画像を撮像するための測定光学系が設けられている。以下、光学ヘッド部100の内部について説明する。光学ヘッド部100では、被検眼Eに対向して対物レンズ101−1が設置されており、その光軸上に設けられた、光路分離部として機能する第1ダイクロイックミラー102及び第2ダイクロイックミラー103によって光路が分離される。これにより、対物レンズ101−1からの光路が、OCT光学系の測定光路L1、眼底観察光路と固視灯光路L2、及び前眼観察光路L3に波長帯域ごとに分岐される。
<Structure of optical head unit 100 and spectroscope 150>
The optical head unit 100 is provided with a measurement optical system for capturing a two-dimensional image and a tomographic image of the anterior eye portion Ea and the fundus Ef of the eye E to be inspected. Hereinafter, the inside of the optical head unit 100 will be described. In the optical head unit 100, an objective lens 101-1 is installed facing the eye E to be inspected, and the first dichroic mirror 102 and the second dichroic mirror 103 provided on the optical axis of the optical head unit 100 and function as an optical path separation unit. The optical path is separated by. As a result, the optical path from the objective lens 101-1 is branched into the measurement optical path L1 of the OCT optical system, the fundus observation optical path and the fixation lamp optical path L2, and the anterior eye observation optical path L3 for each wavelength band.

なお、本実施形態では、第1ダイクロイックミラー102の透過方向に前眼観察用の光路L3が設けられ、反射方向にOCT光学系の測定光路L1、及び眼底観察光路と固視灯光路L2が設けられている。また、第2ダイクロイックミラー103の透過方向に、OCT光学系の測定光路L1が設けられ、反射方向に眼底観察光路と固視灯光路L2が設けられている。しかしながら、各光学系の光路を設ける方向はこれに限られず、所望の構成に応じて任意に変更されてよい。 In the present embodiment, the optical path L3 for front eye observation is provided in the transmission direction of the first dichroic mirror 102, the measurement optical path L1 of the OCT optical system, and the fundus observation optical path and the fixation light path L2 are provided in the reflection direction. Has been done. Further, the measurement optical path L1 of the OCT optical system is provided in the transmission direction of the second dichroic mirror 103, and the fundus observation optical path and the fixation lamp optical path L2 are provided in the reflection direction. However, the direction in which the optical path of each optical system is provided is not limited to this, and may be arbitrarily changed according to a desired configuration.

さらに、光路L2は、第3ダイクロイックミラー118によって、眼底観察用のAPD(アバランシェフォトダイオード)115への光路及び固視灯116への光路に、波長帯域ごとに分岐される。なお、本実施形態では、第3ダイクロイックミラー118の透過方向にAPD115が設けられ、反射方向に固視灯116が設けられている。しかしながら、第3ダイクロイックミラー118の透過方向に固視灯116が設けられ、反射方向にAPD115が設けられてもよい。 Further, the optical path L2 is branched by a third dichroic mirror 118 into an optical path to an APD (avalanche photodiode) 115 for fundus observation and an optical path to the fixation lamp 116 for each wavelength band. In the present embodiment, the APD 115 is provided in the transmission direction of the third dichroic mirror 118, and the fixation lamp 116 is provided in the reflection direction. However, the fixation lamp 116 may be provided in the transmission direction of the third dichroic mirror 118, and the APD 115 may be provided in the reflection direction.

光路L2には、第2ダイクロイックミラー103から順に、レンズ101−2、Xスキャナ117−1、Yスキャナ117−2、レンズ111,112、第3ダイクロイックミラー118、APD115、及び固視灯116が設けられている。レンズ111は、固視灯及び眼底観察用の光の合焦調整のため、制御部200によって制御される不図示のモータにより図中矢印で示される光軸方向に駆動されることができる。 The optical path L2 is provided with a lens 101-2, an X scanner 117-1, a Y scanner 117-2, lenses 111, 112, a third dichroic mirror 118, an APD 115, and a fixation lamp 116 in this order from the second dichroic mirror 103. Has been done. The lens 111 can be driven in the direction of the optical axis indicated by the arrow in the drawing by a motor (not shown) controlled by the control unit 200 for adjusting the focus of the light for observing the fixation lamp and the fundus.

APD115は、不図示の眼底観察用照明光の波長、具体的には780nm付近に感度を持つ。APD115は、シングルディテクターであり、眼底Efから散乱・反射され戻ってきた光を検出する。APD115は、検出した光に基づいて出力信号を生成し制御部200に送る。制御部200は、APD115からの出力信号に基づいて、眼底Efの2次元画像(眼底正面画像)を生成することができる。固視灯116は、可視光を発生して被検者の固視を促すために用いられることができる。 The APD 115 has a sensitivity in the wavelength of the illumination light for fundus observation (not shown), specifically in the vicinity of 780 nm. The APD115 is a single detector and detects the light scattered / reflected from the fundus Ef and returned. The APD 115 generates an output signal based on the detected light and sends it to the control unit 200. The control unit 200 can generate a two-dimensional image of the fundus Ef (frontal image of the fundus) based on the output signal from the APD 115. The fixation lamp 116 can be used to generate visible light to promote fixation of a subject.

また、Xスキャナ117−1(主走査方向用)、Yスキャナ117−2(主走査方向と交差する副走査方向用)は、不図示の眼底観察用照明光源から発せられた光を被検眼Eの眼底Ef上で走査するための走査部として機能することができる。なお、光路L2の走査部は、ポリゴンミラーやガルバノミラー等の任意の偏向手段を用いて構成されてよい。レンズ101−2は、Xスキャナ117−1及びYスキャナ117−2の中心位置付近を焦点位置として配置されている。第3ダイクロイックミラー118は、穴あきミラーや、中空のミラーが蒸着されたプリズムであり、被検眼Eに照射される照明光と、眼底Efからの戻り光とを分離する。 Further, the X scanner 117-1 (for the main scanning direction) and the Y scanner 117-2 (for the sub scanning direction intersecting the main scanning direction) emit light emitted from an illumination light source for observing the fundus of the eye (not shown). It can function as a scanning unit for scanning on the fundus Ef of the eye. The scanning portion of the optical path L2 may be configured by using an arbitrary deflection means such as a polygon mirror or a galvano mirror. The lens 101-2 is arranged with the vicinity of the center position of the X scanner 117-1 and the Y scanner 117-2 as the focal position. The third dichroic mirror 118 is a prism on which a perforated mirror or a hollow mirror is deposited, and separates the illumination light emitted to the eye E to be inspected and the return light from the fundus Ef.

光路L3には、レンズ141と、前眼観察用の赤外線CCD142とが配置されている。赤外線CCD142は、不図示の前眼観察用照射光の波長、具体的には970nm付近に感度を有する。赤外線CCD142は、検出した光に基づいて出力信号を生成し制御部200に送る。制御部200は、赤外線CCD142からの出力信号に基づいて、前眼部画像を生成することができる。 A lens 141 and an infrared CCD 142 for frontal eye observation are arranged in the optical path L3. The infrared CCD 142 has a sensitivity in the wavelength of the irradiation light for front eye observation (not shown), specifically in the vicinity of 970 nm. The infrared CCD 142 generates an output signal based on the detected light and sends it to the control unit 200. The control unit 200 can generate an anterior segment image based on the output signal from the infrared CCD 142.

OCT光学系の測定光路L1には、被検眼Eの断層画像を撮像するためのOCT光学系が設けられている。より具体的には、OCT光学系は、被検眼Eの眼底Efの断層画像を生成するための干渉信号を得るために用いられる。なお、OCTA光学系は、被検眼Eの前眼部Eaの断層画像を生成するために用いられてもよい。 The measurement optical path L1 of the OCT optical system is provided with an OCT optical system for capturing a tomographic image of the eye E to be inspected. More specifically, the OCT optical system is used to obtain an interference signal for generating a tomographic image of the fundus Ef of the eye E to be inspected. The OCTA optical system may be used to generate a tomographic image of the anterior segment Ea of the eye E to be inspected.

測定光路L1には、レンズ101−3と、ミラー121と、光を被検眼Eの眼底Ef上で走査するためのOCT走査部として機能するXスキャナ122−1及びYスキャナ122−2とが配置されている。なお、Xスキャナ122−1及びYスキャナ122−2は、Xスキャナ122−1及びYスキャナ122−2の中心位置付近が、レンズ101−3の焦点位置となるように配置されている。また、Xスキャナ122−1及びYスキャナ122−2の中心位置付近と、被検眼Eの瞳の位置とが光学的な共役関係となっている。なお、OCT走査部の構成はこれに限られず、所望の構成に応じて任意に変更されてよい。例えば、1枚で二次元方向に光を偏向させることができるMEMSミラー等によって、OCT走査部を構成してもよい。 A lens 101-3, a mirror 121, and an X scanner 122-1 and a Y scanner 122-2 that function as an OCT scanning unit for scanning light on the fundus Ef of the eye E to be inspected are arranged in the measurement optical path L1. Has been done. The X-scanner 122-1 and the Y-scanner 122-2 are arranged so that the vicinity of the center position of the X-scanner 122-1 and the Y-scanner 122-2 is the focal position of the lens 101-3. Further, the vicinity of the center position of the X scanner 122-1 and the Y scanner 122-2 and the position of the pupil of the eye E to be inspected have an optical conjugate relationship. The configuration of the OCT scanning unit is not limited to this, and may be arbitrarily changed according to a desired configuration. For example, the OCT scanning unit may be configured by a MEMS mirror or the like that can deflect light in a two-dimensional direction with one sheet.

さらに、測定光路L1にはレンズ123,124が配置され、レンズ123は、OCT光学系の合焦調整を行うために、制御部200によって制御される不図示のモータにより図中矢印で示される光軸方向に駆動されることができる。 Further, lenses 123 and 124 are arranged in the measurement optical path L1, and the lens 123 is indicated by an arrow in the drawing by a motor (not shown) controlled by the control unit 200 in order to adjust the focusing of the OCT optical system. It can be driven in the axial direction.

次に、測定光源126からの光路と参照光学系、分光器150の構成について説明する。測定光源126は、測定光を測定光路に入射させるための低コヒーレント光源である。測定光源126は、光ファイバー125−1を介して光カプラー125に接続される。光カプラー125には、光ファイバー125−1〜4が接続される。光ファイバー125−1〜4は、光カプラー125に接続されて一体化しているシングルモードの光ファイバーである。 Next, the configuration of the optical path from the measurement light source 126, the reference optical system, and the spectroscope 150 will be described. The measurement light source 126 is a low coherent light source for incidenting the measurement light into the measurement optical path. The measurement light source 126 is connected to the optical coupler 125 via an optical fiber 125-1. Optical fibers 125-1 to 125-4 are connected to the optical coupler 125. Optical fibers 125-1 to 125-4 are single-mode optical fibers connected to and integrated with the optical coupler 125.

光ファイバー125−2のファイバー端は、測定光路L1上に配置され、測定光は光ファイバー125−2を通って測定光路L1に入射する。一方、光ファイバー125−3のファイバー端は、参照光学系の光路に配置され、後述する参照光は光ファイバー125−3を通って参照光学系の光路に入射する。参照光学系の光路には、レンズ131、分散補償用ガラス132、及び参照ミラー133が設けられている。また、光ファイバー125−4は分光器150に接続される。 The fiber end of the optical fiber 125-2 is arranged on the measurement optical path L1, and the measurement light enters the measurement optical path L1 through the optical fiber 125-2. On the other hand, the fiber end of the optical fiber 125-3 is arranged in the optical path of the reference optical system, and the reference light described later enters the optical path of the reference optical system through the optical fiber 125-3. A lens 131, a dispersion compensation glass 132, and a reference mirror 133 are provided in the optical path of the reference optical system. Further, the optical fiber 125-4 is connected to the spectroscope 150.

測定光源126、光カプラー125、光ファイバー125−1〜4、レンズ131、分散補償用ガラス132、参照ミラー133、及び分光器150によってマイケルソン干渉系が構成される。なお、本実施形態では、干渉系としてマイケルソン干渉系を用いたが、マッハツェンダー干渉系を用いてもよい。測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉系を、光量差が比較的小さい場合にはマイケルソン干渉系を用いることができる。 The Michelson interferometer is composed of the measurement light source 126, the optical coupler 125, the optical fibers 125-1 to 4, the lens 131, the dispersion compensation glass 132, the reference mirror 133, and the spectroscope 150. In this embodiment, the Michelson interference system is used as the interference system, but a Mach-Zehnder interference system may be used. Depending on the difference in light intensity between the measurement light and the reference light, a Mach-Zehnder interference system can be used when the light intensity difference is large, and a Michelson interference system can be used when the light intensity difference is relatively small.

測定光源126から出射された光は、光ファイバー125−1を通じ、光カプラー125を介して光ファイバー125−2側の測定光と、光ファイバー125−3側の参照光とに分割される。測定光は、前述のOCT光学系の測定光路L1を通じ、観察対象である被検眼Eの眼底Efに照射され、網膜による反射や散乱により同じ光路を通じて光カプラー125に到達する。 The light emitted from the measurement light source 126 is divided into the measurement light on the optical fiber 125-2 side and the reference light on the optical fiber 125-3 side via the optical coupler 125 through the optical fiber 125-1. The measurement light is irradiated to the fundus Ef of the eye E to be observed through the measurement optical path L1 of the OCT optical system described above, and reaches the optical coupler 125 through the same optical path by reflection or scattering by the retina.

一方、参照光は光ファイバー125−3、レンズ131、及び分散補償用ガラス132を介して参照ミラー133に到達し反射される。そして、参照光は、同じ光路を戻り光カプラー125に到達する。ここで、参照ミラー133は、制御部200によって制御される不図示のモータ等によって、図中矢印で示される光軸方向に位置を調整可能に保持される。 On the other hand, the reference light reaches the reference mirror 133 and is reflected through the optical fiber 125-3, the lens 131, and the dispersion compensation glass 132. Then, the reference light returns to the optical coupler 125 through the same optical path. Here, the reference mirror 133 is held in an adjustable position in the optical axis direction indicated by an arrow in the drawing by a motor or the like (not shown) controlled by the control unit 200.

光カプラー125において、測定光と参照光とが合波され干渉光となる。ここで、測定光と参照光は、測定光の光路長と参照光の光路長とがほぼ同一となったときに干渉を生じる。制御部200は、不図示のモータ等を制御し、参照ミラー133を光軸方向に移動させることで、被検眼Eによって変わる測定光の光路長に参照光の光路長を合わせることができる。光カプラー125で生じた干渉光は、光ファイバー125−4を介して分光器150に導かれる。 In the optical coupler 125, the measurement light and the reference light are combined to form interference light. Here, the measurement light and the reference light cause interference when the optical path length of the measurement light and the optical path length of the reference light are substantially the same. The control unit 200 controls a motor or the like (not shown) and moves the reference mirror 133 in the optical axis direction, so that the optical path length of the reference light can be adjusted to the optical path length of the measurement light that changes depending on the eye E to be inspected. The interference light generated by the optical coupler 125 is guided to the spectroscope 150 via the optical fiber 125-4.

分光器150には、レンズ151と、回折格子152と、レンズ153と、ラインセンサ154とが設けられている。光ファイバー125−4から出射された干渉光は、レンズ151を介して略平行光となった後、回折格子152で分光され、レンズ153によってラインセンサ154に結像される。ラインセンサ154は複数の画素、すなわち受光エレメントが1列に並んだ構成になっており、所定のクロックによって全画素を一括で読み出すことができる。制御部200は、ラインセンサ154から出力された、干渉光に基づく干渉信号を用いて被検眼Eの断層画像を生成することができる。 The spectroscope 150 is provided with a lens 151, a diffraction grating 152, a lens 153, and a line sensor 154. The interference light emitted from the optical fiber 125-4 becomes substantially parallel light through the lens 151, is separated by the diffraction grating 152, and is imaged on the line sensor 154 by the lens 153. The line sensor 154 has a configuration in which a plurality of pixels, that is, light receiving elements are arranged in a row, and all the pixels can be read out at once by a predetermined clock. The control unit 200 can generate a tomographic image of the eye E to be inspected by using the interference signal based on the interference light output from the line sensor 154.

次に、図2を参照して制御部200(画像処理装置)について説明する。図2は、制御部200の構成例を示す。制御部200には、取得部201、装置制御部202、表示制御部203、及び画像処理部210が設けられている。 Next, the control unit 200 (image processing device) will be described with reference to FIG. FIG. 2 shows a configuration example of the control unit 200. The control unit 200 is provided with an acquisition unit 201, a device control unit 202, a display control unit 203, and an image processing unit 210.

取得部201は、制御部200に接続された光学ヘッド部100や、不図示の外部装置、不図示の入力部から各種情報や画像等を取得する。例えば、取得部201は、APD115及び赤外線CCD142の出力信号、並びにラインセンサ154から出力される干渉信号等の情報を光学ヘッド部100から取得することができる。なお、取得部201は、これらに対応する情報を制御部200に接続される外部装置から取得してもよい。ここで、制御部200は、外部装置と直接接続されてもよいし、LANやインターネット等の任意のネットワークを介して接続されてもよい。また、入力部は、キーボードやマウス等を含んでよい。また、表示部250がタッチパネルディスプレイで構成される場合には、表示部250が入力部の少なくとも一部として機能してよい。 The acquisition unit 201 acquires various information, images, and the like from the optical head unit 100 connected to the control unit 200, an external device (not shown), and an input unit (not shown). For example, the acquisition unit 201 can acquire information such as the output signals of the APD 115 and the infrared CCD 142 and the interference signal output from the line sensor 154 from the optical head unit 100. The acquisition unit 201 may acquire the information corresponding to these from an external device connected to the control unit 200. Here, the control unit 200 may be directly connected to an external device, or may be connected via an arbitrary network such as a LAN or the Internet. Further, the input unit may include a keyboard, a mouse, and the like. When the display unit 250 is composed of a touch panel display, the display unit 250 may function as at least a part of the input unit.

なお、取得部201は、光学ヘッド部100で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データを取得することができる。また、取得部201は、同様の断層データを外部装置から取得してもよい。 The acquisition unit 201 includes fault data acquired by the optical head unit 100, a signal obtained by subjecting the interference signal to Fourier transform, a signal obtained by subjecting the signal to arbitrary processing, a tomographic image based on these, and the like. Can be obtained. Further, the acquisition unit 201 may acquire similar tomographic data from an external device.

装置制御部202は、OCT装置の制御、より具体的には各スキャナの駆動制御や光源の点灯制御など、光学ヘッド部100の光学部品等の制御を行う。表示制御部203は、患者情報や画像処理部210によって処理された画像、画像を解析して得た情報等を表示部250に表示させる。 The device control unit 202 controls the optical components of the optical head unit 100, such as controlling the OCT device, more specifically, driving control of each scanner and lighting control of the light source. The display control unit 203 causes the display unit 250 to display patient information, an image processed by the image processing unit 210, information obtained by analyzing the image, and the like.

画像処理部210は、光学ヘッド部100や外部装置等から取得した情報に基づいて画像を生成したり、当該画像への画像処理をしたりする。画像処理部210には、正面画像生成部211、断層画像生成部212、演算処理部213、及び解析部214が設けられている。 The image processing unit 210 generates an image based on information acquired from the optical head unit 100, an external device, or the like, and performs image processing on the image. The image processing unit 210 is provided with a front image generation unit 211, a tomographic image generation unit 212, an arithmetic processing unit 213, and an analysis unit 214.

正面画像生成部211は、眼底観察光学系におけるAPD115の信号や前眼部観察光学系の赤外線CCD142の信号に基づいて被検眼Eの正面画像を生成する。より具体的には、正面画像生成部211は、装置制御部202がXスキャナ117−1及びYスキャナ117−2を制御し照明光を眼底Ef上で走査した際にAPD115から取得した出力信号に基づいて、正面画像を生成することができる。また、正面画像生成部211は、不図示の前眼観察用光源から発せられ、被検眼Eの前眼部Eaによって反射された光を検出した赤外線CCD142からの出力信号に基づいて、前眼部画像を生成することができる。 The front image generation unit 211 generates a front image of the eye E to be inspected based on the signal of the APD 115 in the fundus observation optical system and the signal of the infrared CCD 142 of the anterior eye observation optical system. More specifically, the front image generation unit 211 uses the output signal acquired from the APD 115 when the device control unit 202 controls the X scanner 117-1 and the Y scanner 117-2 and scans the illumination light on the fundus Ef. Based on this, a frontal image can be generated. Further, the front image generation unit 211 is based on an output signal from the infrared CCD 142 that detects light emitted from a light source for front eye observation (not shown) and reflected by the front eye portion Ea of the eye E to be inspected. Images can be generated.

断層画像生成部212は、取得部201が取得したラインセンサ154からの干渉信号に基づいて、被検眼Eの眼底Efの断層画像を生成する。断層画像生成部212は、ラインセンサ154から取得した干渉信号をフーリエ変換によって波長分解することで、眼底Efのある1点における深さ方向の情報を得ることができる。また、装置制御部202によりXスキャナ122−1及びYスキャナ122−2を制御し、測定光を眼底Ef上で任意の主走査方向に走査して得た干渉信号について上記の処理を繰り返すことで、断層画像生成部212は眼底Efの2次元断層画像を生成できる。さらに、測定光を主走査の方向と交差(直交)する方向(副走査方向)に移動させて、再び測定光を主走査方向に走査させて得た干渉信号について上記処理を繰り返すことで、断層画像生成部212は眼底Efの3次元ボリュームデータ(3次元断層画像)を生成できる。なお、断層画像生成部212は、測定光を被検眼Eの前眼部Eaに照射した際の干渉信号に基づいて前眼部Eaの2次元断層画像や3次元ボリュームデータを生成することもできる。 The tomographic image generation unit 212 generates a tomographic image of the fundus Ef of the eye E to be inspected based on the interference signal from the line sensor 154 acquired by the acquisition unit 201. The tomographic image generation unit 212 can obtain information in the depth direction at one point of the fundus Ef by wavelength-decomposing the interference signal acquired from the line sensor 154 by Fourier transform. Further, by controlling the X scanner 122-1 and the Y scanner 122-2 by the device control unit 202 and scanning the measurement light on the fundus Ef in an arbitrary main scanning direction, the above processing is repeated for the interference signal obtained. , The tomographic image generation unit 212 can generate a two-dimensional tomographic image of the fundus Ef. Further, by moving the measurement light in a direction intersecting (orthogonal) with the main scanning direction (secondary scanning direction) and scanning the measurement light again in the main scanning direction, the above processing is repeated for the interference signal to obtain a fault. The image generation unit 212 can generate three-dimensional volume data (three-dimensional tomographic image) of the fundus Ef. The tomographic image generation unit 212 can also generate a two-dimensional tomographic image or three-dimensional volume data of the anterior segment Ea based on an interference signal when the measurement light is applied to the anterior segment Ea of the eye E to be inspected. ..

このとき、フーリエ変換の特性上、参照光と測定光の光路長差が0になる光路長付近で断層画像において折返し像が発生してしまう。折返し像が発生する条件としては、眼底Efの湾曲が大きく測定光の光路長が場所によって大きく異なる場合や、参照ミラー133による参照光の光路長調整が不充分である場合などが考えられる。折返し像が発生すると、断層画像における網膜等の構造が不明瞭となり、後述する層厚の解析や層厚マップの生成等が困難となるため、診断精度が低下してしまう。 At this time, due to the characteristics of the Fourier transform, a folded image is generated in the tomographic image near the optical path length where the optical path length difference between the reference light and the measurement light becomes zero. The conditions under which the folded image is generated may be a case where the curvature of the fundus Ef is large and the optical path length of the measurement light varies greatly depending on the location, or a case where the optical path length adjustment of the reference light by the reference mirror 133 is insufficient. When a folded image is generated, the structure of the retina or the like in the tomographic image becomes unclear, and it becomes difficult to analyze the layer thickness and generate a layer thickness map, which will be described later, so that the diagnostic accuracy is lowered.

演算処理部213は、後述する方法により学習済モデルを用いて断層画像における折返し像を低減する折返し低減処理を行う。演算処理部213は、折返し低減処理により折返し像の低減された断層画像を生成することができる。 The arithmetic processing unit 213 performs the folding reduction processing for reducing the folding image in the tomographic image by using the trained model by the method described later. The arithmetic processing unit 213 can generate a tomographic image in which the folded image is reduced by the folded reduction process.

解析部214は、演算処理部213によって生成された、折返し像の低減された断層画像等について画像解析処理を行うことができる。また、解析部214は、正面画像生成部211によって生成された各種正面画像や断層画像生成部212によって生成された断層画像、取得部201によって外部装置等から取得された各種医用画像について画像解析処理を行うこともできる。より具体的には、解析部214は、例えば、折返し像の低減された断層画像についてセグメンテーション処理を行い、被検眼の網膜の層ごとの境界を検出する。解析部214は、検出した境界データから眼底Efの各位置における層の厚さを算出することができる。 The analysis unit 214 can perform image analysis processing on a tomographic image or the like with a reduced folded image generated by the arithmetic processing unit 213. Further, the analysis unit 214 performs image analysis processing on various front images generated by the front image generation unit 211, tomographic images generated by the tomographic image generation unit 212, and various medical images acquired from an external device or the like by the acquisition unit 201. Can also be done. More specifically, the analysis unit 214 performs segmentation processing on, for example, a tomographic image in which the folded image is reduced, and detects the boundary of each layer of the retina of the eye to be inspected. The analysis unit 214 can calculate the thickness of the layer at each position of the fundus Ef from the detected boundary data.

なお、セグメンテーション処理は既知の任意の手法を用いることができる。本実施形態では、解析部214は、ルールベースのセグメンテーション処理を行う。ここで、ルールベースの処理とは既知の規則性、例えば網膜の形状の規則性等の既知の規則性を利用した処理をいう。 Any known method can be used for the segmentation process. In this embodiment, the analysis unit 214 performs rule-based segmentation processing. Here, the rule-based process refers to a process that utilizes a known regularity, for example, a known regularity such as the regularity of the shape of the retina.

具体的には、解析部214は、平均断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を生成する(以下、それぞれメディアン画像、Sobel画像ともいう)。次に解析部214は、生成したメディアン画像とSobel画像から、Aスキャンに対応するデータ毎にプロファイルを生成する。生成されるプロファイルは、メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、解析部214は、Sobel画像から生成したプロファイル内のピークを検出する。解析部214は、検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出することができる。なお、当該セグメンテーション処理の手法は一例である。 Specifically, the analysis unit 214 applies a median filter and a Sobel filter to the average tomographic image to generate an image (hereinafter, also referred to as a median image and a Sobel image, respectively). Next, the analysis unit 214 generates a profile for each data corresponding to the A scan from the generated median image and the Sobel image. The generated profile is a brightness value profile in the median image and a gradient profile in the Sobel image. Then, the analysis unit 214 detects the peak in the profile generated from the Sobel image. The analysis unit 214 can detect the boundary of each region of the retinal layer by referring to the profile of the median image corresponding to before and after the detected peak or between the peaks. The method of segmentation processing is an example.

なお、制御部200は、演算装置やメモリを含む汎用のコンピュータによって構成されてもよいし、OCT装置の専用のコンピュータによって構成されてもよい。また、制御部200の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 The control unit 200 may be configured by a general-purpose computer including an arithmetic unit and a memory, or may be configured by a dedicated computer of the OCT device. Further, each component of the control unit 200 may be composed of a software module executed by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). The processor may be, for example, a GPU (Graphical Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC.

図3(a)及び(b)は、本実施形態に係る表示制御部203が表示部250に表示させる表示画面300,310の一例を示す。図3(a)に示す表示画面300には、折返し低減処理が行われていない断層画像301、正面画像302、及び解析結果305が示されている。 3A and 3B show an example of display screens 300 and 310 displayed on the display unit 250 by the display control unit 203 according to the present embodiment. The display screen 300 shown in FIG. 3A shows a tomographic image 301, a front image 302, and an analysis result 305 that have not been subjected to the folding reduction processing.

断層画像301は断層画像生成部212によって生成された被検眼Eの断層画像である。図3(a)に示す例では、断層画像301の両端に折返し像が発生しており、網膜の構造が不明瞭になっている。正面画像302は正面画像生成部211によって生成された被検眼Eの正面画像である。なお、断層画像301及び正面画像302は、互いに対応する画像であれば、取得部201が外部装置から取得した断層画像であってもよい。解析結果305は、解析部214によって断層画像301又は正面画像302を画像解析した結果を示す。 The tomographic image 301 is a tomographic image of the eye E to be inspected generated by the tomographic image generation unit 212. In the example shown in FIG. 3A, folded images are generated at both ends of the tomographic image 301, and the structure of the retina is unclear. The front image 302 is a front image of the eye E to be inspected generated by the front image generation unit 211. The tomographic image 301 and the frontal image 302 may be tomographic images acquired by the acquisition unit 201 from an external device as long as they correspond to each other. The analysis result 305 shows the result of image analysis of the tomographic image 301 or the front image 302 by the analysis unit 214.

インジケータ303は、断層画像301の眼底Ef上の位置を示したものである。検者は不図示のマウスなどの入力手段によってインジケータ303を上下に動かすことによって表示画面300に表示される断層画像301を変更することができる。また、インジケータ304は、3次元断層画像を取得した範囲を示したものである。 The indicator 303 indicates the position of the tomographic image 301 on the fundus Ef. The examiner can change the tomographic image 301 displayed on the display screen 300 by moving the indicator 303 up and down by an input means such as a mouse (not shown). Further, the indicator 304 indicates the range in which the three-dimensional tomographic image is acquired.

折返し低減ボタン306は、折返し低減処理を行った画像を表示するか否かを示すボタンであり、断層画像の表示モードを示すボタンである。折返し低減ボタン306がOFFと表示されている場合、折返し低減処理を行っていない画像が表示されていることを示している。検者が不図示の入力部によってボタンを押すと、表示制御部203は、折返し低減処理を行った画像を表示部250に表示させる。 The fold-back reduction button 306 is a button indicating whether or not to display an image that has undergone fold-back reduction processing, and is a button that indicates a tomographic image display mode. When the wrapping reduction button 306 is displayed as OFF, it indicates that an image in which the wrapping reduction processing has not been performed is displayed. When the examiner presses a button with an input unit (not shown), the display control unit 203 causes the display unit 250 to display the image for which the folding reduction process has been performed.

図3(b)には、制御部200が後述する方法によって折返し低減処理を行った断層画像311を含む表示画面310を示している。断層画像311は、眼底Efの中央部分は断層画像301と同等であるが、両端で折返しの像が除去されている点で断層画像301と異なる。これにより、検者は網膜の明瞭な構造を確認することができ、診断精度が向上する。また、断層画像301を画像解析することで、例えば層厚等について信頼性の高い解析結果315を取得することができ、診断精度が向上する。 FIG. 3B shows a display screen 310 including a tomographic image 311 that has been subjected to turn-back reduction processing by the control unit 200 by a method described later. The tomographic image 311 is different from the tomographic image 301 in that the central portion of the fundus Ef is equivalent to the tomographic image 301, but the folded images are removed at both ends. As a result, the examiner can confirm the clear structure of the retina, and the diagnostic accuracy is improved. Further, by performing image analysis on the tomographic image 301, it is possible to obtain a highly reliable analysis result 315 for, for example, the layer thickness, and the diagnostic accuracy is improved.

折返し低減ボタン316はONと表示されており、これは折返し低減処理が行われた断層画像が表示されていることを示している。検者は不図示の入力部によってボタンを押すことにより、折返し低減処理を行っていない画像を表示するように、表示制御部203に指示を行うことができる。メッセージ317は折返し低減ボタン316がONの場合のみ表示されるメッセージ(文章)である。メッセージ317は、断層画像311が後述する学習済モデル(例えば、ディープラーニングによる学習済モデル)を用いて生成された画像であることを検者に説明するために表示されている。 The fold reduction button 316 is displayed as ON, which indicates that a tomographic image in which the fold reduction process has been performed is displayed. By pressing a button with an input unit (not shown), the examiner can instruct the display control unit 203 to display an image that has not been subjected to the folding reduction processing. The message 317 is a message (text) displayed only when the wrapping reduction button 316 is ON. Message 317 is displayed to explain to the examiner that the tomographic image 311 is an image generated using a trained model described later (for example, a trained model by deep learning).

次に、図4を参照して、本実施形態に係る演算処理部213が用いる機械学習モデルを、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)で構成する例について説明する。図4は、折返しを低減するために、演算処理部213が用いる学習済モデルの構成410の一例を示している。なお、本実施形態に係る機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。 Next, with reference to FIG. 4, an example in which the machine learning model used by the arithmetic processing unit 213 according to the present embodiment is configured by a convolutional neural network (CNN) will be described. FIG. 4 shows an example of the configuration 410 of the trained model used by the arithmetic processing unit 213 in order to reduce the folding back. As the machine learning model according to the present embodiment, for example, FCN (Full Convolutional Network), SegNet, or the like can be used.

図4に示す機械学習モデルは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該機械学習モデルの構成410に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。 The machine learning model shown in FIG. 4 is composed of a plurality of layers responsible for processing and outputting an input value group. The types of layers included in the configuration 410 of the machine learning model include a convolution layer, a Downsampling layer, an Upsampling layer, and a Merger layer.

畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。 The convolutional layer is a layer that performs convolutional processing on an input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image.

ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。 The downsampling layer is a layer that performs processing to reduce the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, as such a process, for example, there is a Max Polling process.

アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。 The upsampling layer is a layer that performs processing to increase the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding the interpolated value from the input value group. Specifically, as such a process, for example, there is a linear interpolation process.

合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them.

なお、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。 Note that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the output data may differ. That is, in many cases, the appropriate parameters differ depending on the embodiment, and therefore, the values can be changed to preferable values as needed.

また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、より精度の高いアライメント位置の情報を出力したり、処理時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。 In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics include, for example, more accurate alignment position information output, shorter processing time, shorter training time for machine learning models, and the like.

なお、本実施形態で用いるCNNの構成410は、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルである。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 The CNN configuration 410 used in the present embodiment has a function of an encoder composed of a plurality of layers including a plurality of downsampling layers and a function of a decoder composed of a plurality of layers including a plurality of upsampling layers. It is a net type machine learning model. In the U-net type machine learning model, position information (spatial information) that is ambiguous in a plurality of layers configured as encoders is displayed in layers of the same dimension (layers corresponding to each other) in a plurality of layers configured as a decoder. ) (For example, using a skip connection).

図示しないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。CNNのこれらのステップを通して、撮影画像の特徴を抽出することができる。 Although not shown, as an example of changing the configuration of the CNN, for example, a batch normalization layer or an activation layer using a rectifier linear unit may be incorporated after the convolutional layer. Good. Through these steps of CNN, the features of the captured image can be extracted.

学習済モデルに入力データを入力すると、該学習済モデルの設計に従った出力データが出力される。学習済モデルは、例えば、学習データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。本実施形態に係る学習済モデルは、学習の傾向に従って、断層画像401が入力されると、折返し像が除去され、折返し像が低減された断層画像402を出力することができるように構成されている。 When input data is input to the trained model, output data according to the design of the trained model is output. The trained model outputs, for example, output data that is likely to correspond to the input data according to the tendency trained with the trained data. The trained model according to the present embodiment is configured to be able to output a tomographic image 402 in which the folded image is removed and the folded image is reduced when the tomographic image 401 is input according to the learning tendency. There is.

ここで、本実施形態に係る学習済モデルに関する学習データについて説明する。学習データは入力データと出力データとのペア群で構成される。本実施形態では、断層画像を入力データとし、折返し像が低減された断層画像を出力データとする。なお、学習データの作成方法は後述する。また、本実施形態に係る学習データの入力データは、折返し像が生じていない断層画像を含んでよく、この場合の出力データは入力データとして用いられる断層画像としてよい。これにより、本実施形態に係る学習済モデルは、折返し像が生じていない断層画像が入力された場合には、不必要な折返し低減処理を行わずに、折返し像の生じていない断層画像を適切に出力することができる。 Here, the learning data regarding the trained model according to the present embodiment will be described. The training data is composed of a pair group of input data and output data. In the present embodiment, the tomographic image is used as input data, and the tomographic image with reduced folded images is used as output data. The method of creating the learning data will be described later. Further, the input data of the training data according to the present embodiment may include a tomographic image in which no folded image is generated, and the output data in this case may be a tomographic image used as the input data. As a result, the trained model according to the present embodiment appropriately obtains a tomographic image without a folded image without performing unnecessary folding reduction processing when a tomographic image without a folded image is input. Can be output to.

図5は、制御部200による撮影から表示までの一連の処理を示すフローチャートである。ステップS501では、取得部201は、装置制御部202が光学ヘッド部100を制御し、被検眼Eの眼底Efを走査した際の干渉信号のデータを取得する。その後、断層画像生成部212が、取得した干渉信号のデータに基づいて被検眼Eの断層画像を生成することで、取得部201は断層画像を取得する。なお、取得部201は、外部装置から干渉信号又は断層画像を取得してもよい。また、取得部201は、光学ヘッド部100からAPD115や赤外線CCD142から出力信号を取得し、正面画像生成部211がこれら出力信号に基づいて正面画像を生成・取得してよい。なお、取得部201は、外部装置からこれら出力信号又は正面画像を取得してもよい。 FIG. 5 is a flowchart showing a series of processes from shooting to display by the control unit 200. In step S501, the acquisition unit 201 acquires the data of the interference signal when the device control unit 202 controls the optical head unit 100 and scans the fundus Ef of the eye E to be inspected. After that, the tomographic image generation unit 212 generates a tomographic image of the eye E to be inspected based on the acquired interference signal data, and the acquisition unit 201 acquires the tomographic image. The acquisition unit 201 may acquire an interference signal or a tomographic image from an external device. Further, the acquisition unit 201 may acquire output signals from the APD 115 or the infrared CCD 142 from the optical head unit 100, and the front image generation unit 211 may generate and acquire a front image based on these output signals. The acquisition unit 201 may acquire these output signals or front images from an external device.

ステップS502では、演算処理部213は、学習済モデルを用いてステップS601で取得した断層画像401から、折返し像が低減された断層画像402を生成する(折返し低減処理)。具体的には、演算処理部213は、断層画像401を学習済モデルに入力し、学習済モデルの出力に基づいて断層画像402を生成する。 In step S502, the arithmetic processing unit 213 generates a tomographic image 402 in which the folded image is reduced from the tomographic image 401 acquired in step S601 using the trained model (folded back reduction process). Specifically, the arithmetic processing unit 213 inputs the tomographic image 401 into the trained model, and generates the tomographic image 402 based on the output of the trained model.

ステップS503では、解析部214は、折返し像が低減された断層画像402の層解析等の画像解析処理を行い、層厚等の解析結果を算出する。また、解析部214は、ステップS501で取得された断層画像や正面画像についても任意の画像解析を行うことができる。 In step S503, the analysis unit 214 performs image analysis processing such as layer analysis of the tomographic image 402 in which the folded image is reduced, and calculates the analysis result such as the layer thickness. In addition, the analysis unit 214 can perform arbitrary image analysis on the tomographic image and the frontal image acquired in step S501.

ステップS504では、表示制御部203は、ステップS502で生成された断層画像402、ステップS503で算出された解析結果、及び正面画像を表示部250に図3(b)に示すように表示する。なお、表示制御部203は、折返し低減ボタン306,316の操作等の操作者の指示に応じて、折返し像が低減されていない断層画像とその解析結果、及び折返し像が低減された断層画像とその解析結果を切り替えて表示部250に表示させることができる。ステップS504において、表示制御部203による表示処理が終了したら、制御部200による一連の処理が終了する。 In step S504, the display control unit 203 displays the tomographic image 402 generated in step S502, the analysis result calculated in step S503, and the front image on the display unit 250 as shown in FIG. 3 (b). The display control unit 203 sets the tomographic image in which the folded image is not reduced, the analysis result thereof, and the tomographic image in which the folded image is reduced in response to the operator's instruction such as the operation of the folded-back reduction buttons 306 and 316. The analysis result can be switched and displayed on the display unit 250. When the display process by the display control unit 203 is completed in step S504, a series of processes by the control unit 200 is completed.

以上の実施形態によれば、学習済モデルを用いて折返し像が低減された断層画像を取得することができ、このような断層画像を検者に提供することで、診断精度を向上させることができる。また、このような断層画像に基づけば、信頼性の高い解析結果を取得することができる。そのため、本実施形態に係る折返し低減処理により得た断層画像及びその解析結果を検者に提供することで、診断精度をより向上させることができる。 According to the above embodiment, it is possible to acquire a tomographic image in which the folded image is reduced by using the trained model, and by providing such a tomographic image to the examiner, the diagnostic accuracy can be improved. it can. Moreover, based on such a tomographic image, highly reliable analysis results can be obtained. Therefore, the diagnostic accuracy can be further improved by providing the examiner with the tomographic image obtained by the folding reduction process according to the present embodiment and the analysis result thereof.

次に、図6乃至8を参照して、学習済モデルを用意する際の学習について説明する。なお、機械学習モデルの学習は予め行われていてよく、本実施形態に係る演算処理部213は、既に学習が行われた学習済モデルを用いて折返し低減処理を行えばよい。なお、学習データは、光学ヘッド部100を用いて取得したデータに限られず、同型の測定光学系を有する装置等で取得したデータであってもよい。 Next, learning when preparing a trained model will be described with reference to FIGS. 6 to 8. The machine learning model may be learned in advance, and the arithmetic processing unit 213 according to the present embodiment may perform turn-back reduction processing using the learned model that has already been learned. The learning data is not limited to the data acquired by using the optical head unit 100, and may be the data acquired by an apparatus or the like having the same type of measurement optical system.

ここで、図6を参照して折返し低減処理に用いる学習済モデルを生成するために学習を行う学習装置について説明する。学習装置には学習部600が設けられている。なお、学習装置は、制御部200とは別の装置であってよいが、制御部200に学習部600が設けられてもよい。なお、制御部200に学習部600が設けられる場合には、制御部200は、予め学習部600によって生成された学習済モデルを折返し低減処理に用いることができ、折返し低減処理を行う際に学習済モデルを逐一生成する必要はない。 Here, a learning device that performs learning to generate a trained model used for the turnaround reduction process will be described with reference to FIG. The learning device is provided with a learning unit 600. The learning device may be a device different from the control unit 200, but the control unit 200 may be provided with the learning unit 600. When the learning unit 600 is provided in the control unit 200, the control unit 200 can use the learned model generated by the learning unit 600 in advance for the folding reduction processing, and learns when performing the folding reduction processing. It is not necessary to generate a completed model one by one.

なお、学習装置は、演算装置やメモリを含む汎用のコンピュータによって構成されてもよいし、OCT装置の専用のコンピュータによって構成されてもよい。また、学習装置の各構成要素は、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 The learning device may be configured by a general-purpose computer including an arithmetic unit and a memory, or may be configured by a dedicated computer of the OCT device. Further, each component of the learning device may be composed of a software module executed by a processor such as a CPU, MPU, GPU, or FPGA. In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC.

図6は、学習部600の構成例を示す。学習部600は学習全体の処理を行う。学習部600には、画像格納部601、学習データ生成部602、及び学習処理部603が設けられている。画像格納部601は、学習に用いる学習データを生成するための複数の断層画像を格納するストレージである。画像格納部601は、断層画像を記憶できる媒体であれば、メモリや可搬メディアなどでもよい。画像格納部601には被検眼の折返し像が発生していない断層画像が格納されている。格納されている断層画像は多いことが望ましいが、学習に充分な数であればよい。 FIG. 6 shows a configuration example of the learning unit 600. The learning unit 600 processes the entire learning. The learning unit 600 is provided with an image storage unit 601, a learning data generation unit 602, and a learning processing unit 603. The image storage unit 601 is a storage for storing a plurality of tomographic images for generating learning data used for learning. The image storage unit 601 may be a memory, a portable medium, or the like as long as it is a medium capable of storing a tomographic image. The image storage unit 601 stores a tomographic image in which no folded image of the eye to be inspected is generated. It is desirable that many tomographic images are stored, but the number may be sufficient for learning.

学習データ生成部602は、画像格納部601に格納されている画像を用いて、後述する方法で機械学習モデルの学習データを生成する。学習処理部603は、学習データ生成部602によって生成された学習データを用いて、機械学習モデルについて学習処理を行う。なお、学習処理が行われる機械学習モデルは、図4に示す構成410と同じ構成を有するが、パラメータが学習されていない状態のCNNである。 The learning data generation unit 602 generates learning data of the machine learning model by a method described later using the image stored in the image storage unit 601. The learning processing unit 603 performs learning processing on the machine learning model using the learning data generated by the learning data generation unit 602. The machine learning model in which the learning process is performed has the same configuration as the configuration 410 shown in FIG. 4, but is a CNN in a state where the parameters have not been trained.

図7は、学習データ生成部602によって学習データを生成する方法を説明するための図である。断層画像701はあらかじめ画像格納部601に格納されている、折返しのない断層画像である。断層画像701を得る方法は、折返し像のない断層画像を得る方法であれば何でもよい。本実施形態では、ラインセンサ154を画素数が2倍のラインセンサに置き換え、深さ方向の撮像範囲を2倍にした特別なOCT装置を用いることで、折返し像のない断層画像を取得する。 FIG. 7 is a diagram for explaining a method of generating learning data by the learning data generation unit 602. The tomographic image 701 is a tomographic image without folding back, which is stored in the image storage unit 601 in advance. The method for obtaining the tomographic image 701 may be any method as long as it is a method for obtaining a tomographic image without a folded image. In the present embodiment, the line sensor 154 is replaced with a line sensor having twice the number of pixels, and a special OCT device that doubles the imaging range in the depth direction is used to acquire a tomographic image without a folded image.

また、例えば、参照ミラー133を駆動して深さ方向の撮像位置を変更して撮像を行って、深さ方向の撮像位置が異なる複数の断層画像を取得し、それらを合成処理することによって折返し像のない断層画像701を取得してもよい。さらに、例えば、湾曲が小さく折返し像が発生していない断層画像を選択して断層画像701として用いてもよい。 Further, for example, the reference mirror 133 is driven to change the imaging position in the depth direction to perform imaging, and a plurality of tomographic images having different imaging positions in the depth direction are acquired, and they are combined and processed to return. An imageless tomographic image 701 may be acquired. Further, for example, a tomographic image having a small curvature and no folded image may be selected and used as the tomographic image 701.

学習データ生成部602は、断層画像701から学習データの入力データとなる断層画像702及び出力データとなる断層画像703を生成する。具体的には、学習データ生成部602は、断層画像701を上下に2分割し、上半分の画像を上下反転して下半分の画像と重ね合わせることで、学習データの入力データとなる断層画像702を生成する。 The learning data generation unit 602 generates a tomographic image 702 as input data of learning data and a tomographic image 703 as output data from the tomographic image 701. Specifically, the training data generation unit 602 divides the tomographic image 701 into upper and lower halves, flips the upper half image upside down, and superimposes it on the lower half image, so that the tomographic image becomes input data of the training data. Generate 702.

ただし、実際の断層画像の折返し像が生じている部分では、測定光と参照光の光路長差が逆になるため、信号処理の位相補正が逆に適用された画像が生成される。そのため、学習データ生成部602は、断層画像701の上半分を上下反転した後、信号処理の位相補正を逆向きに適用してから重ね合わせることができる。 However, in the portion where the folded image of the actual tomographic image is generated, the optical path length difference between the measurement light and the reference light is opposite, so that an image in which the phase correction of signal processing is applied in reverse is generated. Therefore, the learning data generation unit 602 can flip the upper half of the tomographic image 701 upside down, apply the phase correction of signal processing in the opposite direction, and then superimpose the image 701.

なお、位相補正は、公知のフィルタ処理により行われてよい。また、断層画像を逆フーリエ変換して干渉信号に戻し、信号処理の位相補正を逆向きに適用した断層画像を生成し、当該断層画像と断層画像701を用いて断層画像702を生成してもよい。また、画像格納部601が断層画像701に対応する干渉信号を有している場合には、位相補正に対応する分散補償処理を正側で適用した断層画像と負側で適用した断層画像を生成し、これら断層画像の上半分と下半分を用いて断層画像702を生成してもよい。 The phase correction may be performed by a known filter process. Further, even if the tomographic image is inverse Fourier transformed and returned to the interference signal, a tomographic image to which the phase correction of signal processing is applied in the reverse direction is generated, and the tomographic image 702 is generated using the tomographic image and the tomographic image 701. Good. When the image storage unit 601 has an interference signal corresponding to the tomographic image 701, a tomographic image to which the dispersion compensation process corresponding to the phase correction is applied on the positive side and a tomographic image to which the tomographic image is applied on the negative side are generated. Then, the tomographic image 702 may be generated by using the upper half and the lower half of these tomographic images.

また、学習データ生成部602は、断層画像701の下半分を切り出して、学習データの出力データとなる断層画像703を生成する。なお、学習データ生成部602は、折返し像のない断層画像を、ラインセンサ154の画素数に対応する画像サイズに調整し、学習データの入力データ及び出力データとして用いることもできる。これにより、当該学習データを用いて学習を行った学習済モデルは、折返しのない断層画像が入力された場合に、不必要な折返し低減処理を行うことなく、適切な断層画像を出力することができる。 Further, the learning data generation unit 602 cuts out the lower half of the tomographic image 701 and generates a tomographic image 703 as output data of the learning data. The learning data generation unit 602 can also adjust the tomographic image without a folded image to an image size corresponding to the number of pixels of the line sensor 154 and use it as input data and output data of the learning data. As a result, the trained model trained using the training data can output an appropriate tomographic image without performing unnecessary fold reduction processing when a tomographic image without folds is input. it can.

なお、当該学習データの生成方法は一例であり、所望の構成に応じて変更されてよい。例えば、湾曲が小さく折返し像が発生していない断層画像を選択して断層画像701として用いる場合には、断層画像701を任意の位置で上下に分割し、上側の画像を上下反転した後、信号処理の位相補正を逆向きにして適用して重ね合わせることができる。この場合、生成された断層画像の深さ方向の画像サイズが光学ヘッド部100で用いるラインセンサ154の画素数に対応する画像サイズとなるように、生成された断層画像についてパディング処理等を行ってよい。また、深さ方向の撮像位置が異なる複数の断層画像を合成して得た断層画像701を用いる場合にも同様の処理を行うことができる。なお、生成された断層画像の深さ方向の画像サイズが光学ヘッド部100で用いるラインセンサ154の画素数に対応する画像サイズよりも大きい場合には、生成された断層画像についてトリミング処理を行ってよい。 The method of generating the learning data is an example, and may be changed according to a desired configuration. For example, when a tomographic image with small curvature and no folded image is selected and used as the tomographic image 701, the tomographic image 701 is divided into upper and lower parts at an arbitrary position, the upper image is inverted upside down, and then a signal is signaled. The phase correction of the processing can be applied in the opposite direction and superimposed. In this case, the generated tomographic image is padded or the like so that the image size in the depth direction of the generated tomographic image becomes the image size corresponding to the number of pixels of the line sensor 154 used in the optical head unit 100. Good. Further, the same processing can be performed when the tomographic image 701 obtained by synthesizing a plurality of tomographic images having different imaging positions in the depth direction is used. If the image size of the generated tomographic image in the depth direction is larger than the image size corresponding to the number of pixels of the line sensor 154 used in the optical head unit 100, the generated tomographic image is trimmed. Good.

学習処理部603は、学習データ生成部602が生成した断層画像702及び断層画像703を学習データの入力データ及び出力データとして用いて、機械学習モデルの学習処理を行う。なお、入力データ及び出力データを、画像全体とせず、画像に含まれる矩形領域のデータとしてもよい。この場合、入力データと出力データは互いに対応する領域を切り出したものとする。このような学習データは局所領域に着目したものであるため、眼底の湾曲の様子などの大局的な構造に影響を受けずに折返しを低減できる利点がある。また、元となる断層画像において、領域の位置を異なる座標に変えながら多数の矩形領域画像のペアを作成することで、学習データを構成するペア群を充実させることができる。 The learning processing unit 603 performs learning processing of the machine learning model by using the tomographic image 702 and the tomographic image 703 generated by the learning data generation unit 602 as input data and output data of the learning data. The input data and the output data may not be the entire image but may be data in a rectangular region included in the image. In this case, it is assumed that the input data and the output data are cut out from regions corresponding to each other. Since such training data focuses on the local region, there is an advantage that folding back can be reduced without being affected by the global structure such as the state of curvature of the fundus. Further, in the original tomographic image, by creating a large number of pairs of rectangular area images while changing the positions of the areas to different coordinates, it is possible to enhance the pair group constituting the learning data.

なお、このような学習データを用いて学習を行った学習済モデルを用いる場合には、演算処理部213は、折返し低減処理を行う際に、入力データとなる断層画像を、学習データと対応する画像サイズ毎の領域画像に分割し学習済モデルに入力する。その後、演算処理部213は、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、入力データとなる断層画像に対応する、折返し像が低減された断層画像を生成することができる。 When using a trained model trained using such training data, the arithmetic processing unit 213 corresponds the tomographic image as input data with the training data when performing the folding reduction processing. It is divided into area images for each image size and input to the trained model. After that, the arithmetic processing unit 213 arranges and combines each of the rectangular region image groups output from the trained model in the same positional relationship as each of the rectangular region image groups input to the trained model. As a result, the arithmetic processing unit 213 can generate a tomographic image with a reduced number of folded images corresponding to the tomographic image as input data.

図8は、学習部600による一連の処理のフローチャートである。まず、ステップS801において、学習部600は、画像格納部601から折返しのない断層画像をすべて読み込む。 FIG. 8 is a flowchart of a series of processes performed by the learning unit 600. First, in step S801, the learning unit 600 reads all the tomographic images without folding back from the image storage unit 601.

ステップS802では、学習データ生成部602が、学習部600が読み込んだすべての断層画像に対して前述の方法により学習データの入力データとなる断層画像702を生成する。また、ステップS803において、学習データ生成部602は、学習部600が読み込んだすべての断層画像に対して前述の方法により学習データの出力データとなる断層画像703を生成する。 In step S802, the learning data generation unit 602 generates a tomographic image 702 which is input data of the learning data for all the tomographic images read by the learning unit 600 by the above-mentioned method. Further, in step S803, the learning data generation unit 602 generates a tomographic image 703 which is the output data of the learning data for all the tomographic images read by the learning unit 600 by the above-mentioned method.

ステップS804では、学習処理部603が、断層画像702を入力した機械学習モデルが出力した断層画像を、断層画像703と比較する。ここで、学習処理部603は、損失関数を用いて、機械学習モデルから出力した断層画像と学習データの出力データである断層画像703との差を計算するようにしてもよい。その後、学習処理部603は、機械学習モデルが出力した断層画像と学習データの出力データである断層画像703との差が小さくなるように図4に記載の各層の結合重み係数等のパラメータを調整・更新する。 In step S804, the learning processing unit 603 compares the tomographic image output by the machine learning model in which the tomographic image 702 is input with the tomographic image 703. Here, the learning processing unit 603 may use the loss function to calculate the difference between the tomographic image output from the machine learning model and the tomographic image 703 which is the output data of the learning data. After that, the learning processing unit 603 adjusts parameters such as the coupling weighting coefficient of each layer shown in FIG. 4 so that the difference between the tomographic image output by the machine learning model and the tomographic image 703 which is the output data of the learning data becomes small. ·Update.

なお、本実施形態では、パラメータの最適化方法として誤差逆伝播法などのディープラーニングで一般に用いられる手法を用いるが、折返しを低減できるパラメータ最適化方法であれば他の公知の方法を用いてもよい。ここで、誤差逆伝播法は、上記の差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。学習処理部603は、当該パラメータの調整をすべての学習データの入力データと出力データのペアに対して繰り返し実施し、パラメータを最適化する。 In the present embodiment, a method generally used in deep learning such as an error backpropagation method is used as the parameter optimization method, but other known methods may be used as long as the parameter optimization method can reduce the turnaround. Good. Here, the error backpropagation method is a method of adjusting the coupling weighting coefficient and the like between the nodes of each neural network so that the above difference becomes small. The learning processing unit 603 repeatedly adjusts the parameters for all the input data and output data pairs of the learning data, and optimizes the parameters.

なお、機械学習モデルの構成は図4に記載のものと異なっていてもよく、例えば、層の種類や数や順番が異なっていてもよい。例えば、前述のように折返し部分には位相補正が逆向きに適用されるため、折返し部分は縦方向に筋が発生する傾向がある。そのため、この縦方向の筋の特徴を捉える特別な畳み込み層を機械学習モデルの構成に追加してもよい。 The configuration of the machine learning model may be different from that shown in FIG. 4, and for example, the type, number, and order of the layers may be different. For example, as described above, since the phase correction is applied to the folded portion in the opposite direction, the folded portion tends to have streaks in the vertical direction. Therefore, a special convolutional layer that captures the characteristics of this vertical streak may be added to the configuration of the machine learning model.

また、断層画像の湾曲の構造に着目したルールベースの処理や層を機械学習モデルの構成に追加してもよい。例えば、断層画像の傾きを検出し、傾きが不連続に変化した点を折返しの開始地点と判断する処理が含まれていてもよい。 In addition, rule-based processing and layers focusing on the curved structure of the tomographic image may be added to the configuration of the machine learning model. For example, it may include a process of detecting the inclination of the tomographic image and determining the point where the inclination changes discontinuously as the start point of the turnaround.

また、学習処理部603は、敵対的生成ネットワーク(GAN:Generative Adversarial Networks)を用いてもよい。GANを用いる場合には、学習処理部603は、学習を行っている機械学習モデルが出力した断層画像がディープラーニングによって生成された画像であるかどうかを判定する学習済モデルを用いる真贋評価部を有することができる。学習処理部603は、真贋評価部が用いる機械学習モデルと、学習を行っている機械学習モデルを相互にフィードバックさせて学習させることによって、より自然な断層画像を生成するように機械学習モデルに学習を行わせることができる。 In addition, the learning processing unit 603 may use a hostile generative network (GAN: Generative Adversarial Networks). When GAN is used, the learning processing unit 603 provides an authenticity evaluation unit using a learned model that determines whether the tomographic image output by the machine learning model being trained is an image generated by deep learning. Can have. The learning processing unit 603 learns from the machine learning model so as to generate a more natural tomographic image by mutually feeding back the machine learning model used by the authenticity evaluation unit and the machine learning model being trained. Can be done.

ステップS804において、学習処理部603による学習処理が終了したら、学習部600による一連の処理が終了する。このような学習部600の処理によれば、折返し像が生じている断層画像が入力されると、折返し像が低減された断層画像を出力するように学習した学習済モデルを生成することができる。 When the learning process by the learning process unit 603 is completed in step S804, a series of processes by the learning unit 600 is completed. According to such processing of the learning unit 600, when a tomographic image in which a folded image is generated is input, it is possible to generate a trained model trained to output a tomographic image in which the folded image is reduced. ..

なお、OCT撮影と並行して追加学習が行われてもよい。その場合、画像処理部210は、断層画像生成部212によって生成された断層画像に折返し像があるかどうかを判定し、折返し像がない画像のみを画像格納部601に送り、学習部600によって追加用の学習データを生成させることができる。OCT撮影の継続に伴い追加の学習が繰り返されることで、折返し低減処理の処理精度を向上させることができる。 In addition, additional learning may be performed in parallel with OCT imaging. In that case, the image processing unit 210 determines whether or not the tomographic image generated by the tomographic image generation unit 212 has a folded image, sends only the image without the folded image to the image storage unit 601, and adds it by the learning unit 600. It is possible to generate training data for. By repeating the additional learning with the continuation of OCT imaging, it is possible to improve the processing accuracy of the folding reduction processing.

上記のように、本実施形態に係る制御部200は、取得部201と、演算処理部213とを備える。取得部201は、被検眼Eの断層画像401(第1の断層画像)を取得する。演算処理部213は、学習済モデルを用いて、断層画像401から、断層画像401における折返し像が低減された断層画像(第2の断層画像)を生成する。特に、本実施形態では、演算処理部213は、折返し像が低減された断層画像として、折返し像が除去された断層画像402を生成する。 As described above, the control unit 200 according to the present embodiment includes the acquisition unit 201 and the arithmetic processing unit 213. The acquisition unit 201 acquires a tomographic image 401 (first tomographic image) of the eye E to be inspected. The arithmetic processing unit 213 uses the trained model to generate a tomographic image (second tomographic image) in which the folded image in the tomographic image 401 is reduced from the tomographic image 401. In particular, in the present embodiment, the arithmetic processing unit 213 generates a tomographic image 402 in which the folded image is removed as a tomographic image in which the folded image is reduced.

当該構成によれば、学習済モデルを用いて折返し像が低減された断層画像を取得することができ、このような断層画像を検者に提供することで、診断精度を向上させることができる。また、このような断層画像に基づけば、信頼性の高い解析結果を取得することができる。そのため、本実施形態に係る折返し低減処理により得た断層画像及びその解析結果を検者に提供することで、診断精度をより向上させることができる。 According to this configuration, it is possible to acquire a tomographic image in which the folded image is reduced by using the trained model, and by providing such a tomographic image to the examiner, the diagnostic accuracy can be improved. Moreover, based on such a tomographic image, highly reliable analysis results can be obtained. Therefore, the diagnostic accuracy can be further improved by providing the examiner with the tomographic image obtained by the folding reduction process according to the present embodiment and the analysis result thereof.

また、制御部200は、被検眼の医用画像を画像解析する解析部214を更に備える。解析部214は、断層画像401及び折返し像が低減された断層画像のうちの少なくとも一方における層境界を検出し、画像解析結果を出力する。制御部200は、解析部214により、折返し像が低減された断層画像の画像解析結果を得ることで、信頼性の高い解析結果を取得することができる。 In addition, the control unit 200 further includes an analysis unit 214 that analyzes a medical image of the eye to be inspected. The analysis unit 214 detects the layer boundary in at least one of the tomographic image 401 and the tomographic image in which the folded image is reduced, and outputs the image analysis result. The control unit 200 can obtain a highly reliable analysis result by obtaining the image analysis result of the tomographic image in which the folded image is reduced by the analysis unit 214.

さらに、制御部200は、表示モードに応じて、断層画像401と折返し像が低減された断層画像とを切り替えて表示部250に表示させる、表示制御部203を更に備える。表示制御部203は、表示モードに応じて、断層画像401の解析結果と折返し像が低減された断層画像の解析結果とを切り替えて表示部250に表示させる。また、表示制御部203は、折返し像が低減された断層画像とともに当該断層画像を説明する文章、例えば、学習済モデルを用いて生成された断層画像であることを説明する文章を表示部250に表示させることができる。この場合には、検者に断層画像の説明を提示することで、診断効率を向上させることができる。 Further, the control unit 200 further includes a display control unit 203 that switches between the tomographic image 401 and the tomographic image in which the folded image is reduced and displays them on the display unit 250 according to the display mode. The display control unit 203 switches between the analysis result of the tomographic image 401 and the analysis result of the tomographic image in which the folded image is reduced according to the display mode, and displays it on the display unit 250. Further, the display control unit 203 sends a sentence explaining the tomographic image together with the tomographic image in which the folded image is reduced, for example, a sentence explaining that the tomographic image is a tomographic image generated by using the trained model to the display unit 250. It can be displayed. In this case, the diagnostic efficiency can be improved by presenting the examiner with an explanation of the tomographic image.

また、学習済モデルは、断層画像を入力データとし、該断層画像に対応する、折返し像のない断層画像を出力データとした学習データを用いて学習を行った機械学習モデルである。また、学習データは、折返し像を含まない断層画像を用いて生成されたデータである。このため、本実施形態に係る演算処理部213は、学習済モデルを用いることで、学習の傾向に従って、折返し像が除去された断層画像402を得ることができる。 Further, the trained model is a machine learning model in which training is performed using training data in which a tomographic image is used as input data and a tomographic image without a folded image corresponding to the tomographic image is used as output data. The learning data is data generated using a tomographic image that does not include a folded image. Therefore, the arithmetic processing unit 213 according to the present embodiment can obtain the tomographic image 402 from which the folded image is removed according to the learning tendency by using the trained model.

なお、学習済モデルの学習データの入力データと出力データは断層画像に限らない。例えば、ラインセンサから取得した干渉信号のデータを入力データとし、折返し像が低減された干渉信号のデータを出力データとしてもよい。そのような学習済モデルを用いる場合は、断層画像生成部212によって干渉信号のデータから断層画像を生成する信号処理の前に、演算処理部213による折返し低減処理が行われるように、制御部200を構成することができる。 The input data and output data of the training data of the trained model are not limited to tomographic images. For example, the data of the interference signal acquired from the line sensor may be used as the input data, and the data of the interference signal with the reduced folded image may be used as the output data. When such a trained model is used, the control unit 200 so that the arithmetic processing unit 213 performs the turnaround reduction processing before the signal processing for generating the tomographic image from the interference signal data by the tomographic image generation unit 212. Can be configured.

また、ステップS501においては、複数の2次元断層画像からなる3次元ボリュームデータが取得されてもよい。この場合には、ステップS502において、演算処理部213は、それぞれの2次元断層画像について、折返し低減処理を行い、折返し像が低減された複数の2次元断層画像を生成することができる。これにより、演算処理部213は、折返し像が低減された3次元ボリュームデータを生成することができる。 Further, in step S501, three-dimensional volume data including a plurality of two-dimensional tomographic images may be acquired. In this case, in step S502, the arithmetic processing unit 213 can perform the folding reduction processing on each of the two-dimensional tomographic images to generate a plurality of two-dimensional tomographic images in which the folding images are reduced. As a result, the arithmetic processing unit 213 can generate three-dimensional volume data in which the folded image is reduced.

なお、学習部600について、GPUはデータをより多く並列処理することで効率的な演算を行うことができるため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合にはGPUで処理を行うことが有効である。そのため、学習部600による処理にはCPUに加えてGPUを用いてもよい。この場合には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部600の処理はCPU又はGPUのみにより演算が行われてもよい。また、学習済モデルを用いた処理を実行する演算処理部213(推定部)も、学習部600と同様にGPUを用いてもよい。 Since the GPU can perform efficient calculations by processing more data in parallel with respect to the learning unit 600, the GPU is used when learning is performed a plurality of times using a learning model such as deep learning. It is effective to process with. Therefore, the GPU may be used in addition to the CPU for the processing by the learning unit 600. In this case, when the learning program including the learning model is executed, the CPU and the GPU cooperate to perform the learning to perform the learning. The processing of the learning unit 600 may be performed only by the CPU or GPU. Further, the arithmetic processing unit 213 (estimation unit) that executes the processing using the trained model may also use the GPU in the same manner as the learning unit 600.

また、学習部600は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Further, the learning unit 600 may include an error detecting unit and an updating unit (not shown). The error detection unit obtains an error between the output data output from the output layer of the neural network and the correct answer data according to the input data input to the input layer. The error detection unit may use the loss function to calculate the error between the output data from the neural network and the correct answer data. Further, the update unit updates the coupling weighting coefficient between the nodes of the neural network based on the error obtained by the error detection unit so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error backpropagation method is a method of adjusting the coupling weighting coefficient between the nodes of each neural network so that the above error becomes small.

また、学習データの生成に用いる断層画像701については、様々な状況で撮影された断層画像を含んでよい。例えば、断層画像701は、断層画像中の像の傾きが様々な角度になっている断層画像群を含んでよい。また、断層画像701は、様々なノイズパターンを付加した断層画像群を含んでよい。 Further, the tomographic image 701 used for generating the learning data may include tomographic images taken in various situations. For example, the tomographic image 701 may include a tomographic image group in which the inclination of the image in the tomographic image is various angles. Further, the tomographic image 701 may include a tomographic image group to which various noise patterns are added.

(実施形態2)
実施形態1では、演算処理部213は、折返し低減処理において、折返し像が生じている断層画像から、折返し像が低減した断層画像として、折返し像を除去した断層画像を生成した。これに対し、実施形態2に係る折返し低減処理では、折返し像が低減した断層画像として、断層画像における折返し像を正規の像に修正した断層画像を生成する。
(Embodiment 2)
In the first embodiment, the arithmetic processing unit 213 generated a tomographic image from which the fold image is removed as a tomographic image in which the fold image is reduced from the tomographic image in which the fold image is generated in the fold reduction process. On the other hand, in the folding reduction process according to the second embodiment, as a tomographic image in which the folding image is reduced, a tomographic image in which the folding image in the tomographic image is corrected to a normal image is generated.

以下、図9乃至11を参照して、本実施形態に係るOCT装置及び学習装置について、実施形態1に係るOCT装置及び学習装置との違いを中心に説明する。なお、本実施形態に係るOCT装置の構成は実施形態1に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態1に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。 Hereinafter, the OCT apparatus and the learning apparatus according to the present embodiment will be described with reference to FIGS. 9 to 11, focusing on the differences from the OCT apparatus and the learning apparatus according to the first embodiment. Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the first embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the first embodiment, the description will be omitted using the same reference number.

図9は、本実施形態に係る制御部200による一連の処理のフローチャートを示す。本実施形態に係る制御部200による処理において、ステップS501及びステップS502は、実施形態1に係るステップS501及びステップS502と同様のステップであるため説明を省略する。ステップS502において、演算処理部213が学習済モデルを用いて折返しの像を除去した断層画像を生成したら、処理はステップS901に移行する。 FIG. 9 shows a flowchart of a series of processes by the control unit 200 according to the present embodiment. In the process by the control unit 200 according to the present embodiment, since steps S501 and S502 are the same steps as steps S501 and S502 according to the first embodiment, the description thereof will be omitted. In step S502, when the arithmetic processing unit 213 uses the trained model to generate a tomographic image from which the folded image is removed, the process proceeds to step S901.

ステップS901では、演算処理部213が、ステップS501で取得された断層画像及びステップS502で生成した断層画像を用いて画像合成処理を行い、断層画像における折返し像を正規の像に修正した断層画像を生成する。以下、図10を参照して、ステップS501及びステップS901の処理を含む、本実施形態に係る折返し低減処理について説明する。図10は、演算処理部213が行う折返し低減処理について説明するための図である。 In step S901, the arithmetic processing unit 213 performs image composition processing using the tomographic image acquired in step S501 and the tomographic image generated in step S502, and corrects the folded image in the tomographic image into a normal image. Generate. Hereinafter, the turn-back reduction process according to the present embodiment, including the processes of steps S501 and S901, will be described with reference to FIG. FIG. 10 is a diagram for explaining the folding back reduction process performed by the arithmetic processing unit 213.

断層画像401と断層画像402は、学習済モデルを用いた演算処理に関する入力データと出力データに対応するものであり、それぞれ、ステップS501で取得された断層画像及びステップS502で生成した断層画像に対応する。なお、断層画像401と断層画像402は、図4に記載のものと同一のものであるため、説明を省略する。 The tomographic image 401 and the tomographic image 402 correspond to the input data and the output data related to the arithmetic processing using the trained model, and correspond to the tomographic image acquired in step S501 and the tomographic image generated in step S502, respectively. To do. Since the tomographic image 401 and the tomographic image 402 are the same as those shown in FIG. 4, the description thereof will be omitted.

ステップS901における画像合成処理が開始されると、ステップS911において、演算処理部213は、断層画像401から断層画像402の減算処理を行う。これにより演算処理部213は、折返し像のみからなる折返し画像1001を生成することができる。 When the image composition process in step S901 is started, the arithmetic processing unit 213 performs the subtraction process of the tomographic image 402 from the tomographic image 401 in step S911. As a result, the arithmetic processing unit 213 can generate a folded image 1001 composed of only the folded image.

次に、ステップS912において、演算処理部213は、折返し画像1001を上下反転し、断層画像1002を生成する。その後、ステップS913において、演算処理部213は、断層画像1002を断層画像402の上部に連結することで、折返し像を正規の像に修正し、折返し像が低減された断層画像1003を生成することができる。断層画像1003では、折返し像が正規の像に修正されているため、実施形態1に係る断層画像402に比べて、広い範囲について断層の情報を検者に提供することができる。なお、演算処理部213は、断層画像1002に対して逆の位相補正を適用し直してもよい。当該処理は、実施形態1における学習データ生成部602による処理と同様に行われてよい。 Next, in step S912, the arithmetic processing unit 213 flips the folded image 1001 upside down to generate a tomographic image 1002. After that, in step S913, the arithmetic processing unit 213 connects the tomographic image 1002 to the upper part of the tomographic image 402 to correct the folded image to a normal image and generate the tomographic image 1003 in which the folded image is reduced. Can be done. In the tomographic image 1003, since the folded image is corrected to a normal image, it is possible to provide the examiner with tomographic information in a wider range than the tomographic image 402 according to the first embodiment. The arithmetic processing unit 213 may reapply the reverse phase correction to the tomographic image 1002. The process may be performed in the same manner as the process by the learning data generation unit 602 in the first embodiment.

なお、OCT装置においては、フーリエ変換の直流成分の信号強度が顕著に高くなる。そのため、断層画像1003において直流成分に相当する上下の中心部分に白い線が発生してしまう場合がある。そこで、演算処理部213は、断層画像1003の上下の中心部分において、画像処理により眼底の断層を表示しないマスク領域1004を設ける。なお、マスク領域1004が設けられている断層画像1003の位置は、測定光と参照光との光路長が等しい位置であるコヒーレンスゲート位置に対応する位置である。 In the OCT apparatus, the signal strength of the DC component of the Fourier transform is remarkably increased. Therefore, in the tomographic image 1003, white lines may be generated in the upper and lower central portions corresponding to the DC components. Therefore, the arithmetic processing unit 213 provides a mask region 1004 that does not display the tomography of the fundus by image processing in the upper and lower central portions of the tomographic image 1003. The position of the tomographic image 1003 provided with the mask region 1004 is a position corresponding to the coherence gate position where the optical path lengths of the measurement light and the reference light are equal.

演算処理部213の折返し低減処理により断層画像1003が生成されると、処理はステップS902に移行する。ステップS902では、解析部214が、断層画像1003について層解析等の画像解析処理を行い、層厚等の解析結果を算出する。また、解析部214は、ステップS501で取得された断層画像や正面画像についても画像解析を行ってもよい。ここで、断層画像1003では、折返し像が正規の像に修正されているため、実施形態1に係る断層画像402に比べて、広い範囲について適切な画像解析処理を行うことができる。なお、解析部214は、断層画像1003におけるマスク領域1004を画像解析において無視するように構成されることができる。 When the tomographic image 1003 is generated by the folding reduction process of the arithmetic processing unit 213, the process proceeds to step S902. In step S902, the analysis unit 214 performs image analysis processing such as layer analysis on the tomographic image 1003, and calculates the analysis result such as the layer thickness. In addition, the analysis unit 214 may also perform image analysis on the tomographic image and the frontal image acquired in step S501. Here, in the tomographic image 1003, since the folded image is corrected to a normal image, an appropriate image analysis process can be performed on a wider range than the tomographic image 402 according to the first embodiment. The analysis unit 214 can be configured to ignore the mask region 1004 in the tomographic image 1003 in the image analysis.

ステップS903では、表示制御部203が、ステップS901で生成された断層画像1003、ステップS902で算出された解析結果、及び正面画像を表示部250に表示する。また、表示制御部203は、ステップS501で取得された断層画像401、その解析結果、及び正面画像を表示部250に表示することもできる。ここで、図11(a)及び(b)は、本実施形態に係る表示制御部203が、表示部250に表示させる表示画面1100,1110を示している。 In step S903, the display control unit 203 displays the tomographic image 1003 generated in step S901, the analysis result calculated in step S902, and the front image on the display unit 250. Further, the display control unit 203 can also display the tomographic image 401 acquired in step S501, the analysis result thereof, and the front image on the display unit 250. Here, FIGS. 11A and 11B show display screens 1100 and 1110 to be displayed on the display unit 250 by the display control unit 203 according to the present embodiment.

図11(a)は、折返し低減処理が行われていない断層画像1101を含む表示画面1100を示している。表示画面1100には、折返し低減処理が行われていない断層画像1101、正面画像1102、及び解析結果1105が示されている。なお、インジケータ1103,1104及び折返し低減ボタン1106は、実施形態1に係る表示画面300に示されるインジケータ303,304及び折返し低減ボタン306と同様のものであるため説明を省略する。 FIG. 11A shows a display screen 1100 including a tomographic image 1101 that has not been subjected to the folding reduction processing. The display screen 1100 shows a tomographic image 1101, a front image 1102, and an analysis result 1105 that have not been subjected to the folding reduction processing. Since the indicators 1103 and 1104 and the folding reduction button 1106 are the same as the indicators 303 and 304 and the folding reduction button 306 shown on the display screen 300 according to the first embodiment, the description thereof will be omitted.

図11(b)は、折返し低減処理が行われた断層画像1111を含む表示画面1110を示している。表示画面1110には、折返し低減処理が行われた断層画像1111、正面画像1102、及び解析結果1115が示されている。ここで、断層画像1111及び解析結果1115は、ステップS901で生成された断層画像1003及びステップS902で算出された解析結果に対応する。また、断層画像1111におけるマスク領域1118は、断層画像1003におけるマスク領域1004に対応する。なお、折返し低減ボタン1116及びメッセージ1117は、実施形態1に係る表示画面310に示される折返し低減ボタン316及びメッセージ317と同様のものであるため説明を省略する。 FIG. 11B shows a display screen 1110 including a tomographic image 1111 that has undergone folding reduction processing. The display screen 1110 shows a tomographic image 1111, a front image 1102, and an analysis result 1115 that have undergone folding reduction processing. Here, the tomographic image 1111 and the analysis result 1115 correspond to the tomographic image 1003 generated in step S901 and the analysis result calculated in step S902. Further, the mask region 1118 in the tomographic image 1111 corresponds to the mask region 1004 in the tomographic image 1003. Since the wrap-around reduction button 1116 and the message 1117 are the same as the wrap-around reduction button 316 and the message 317 shown on the display screen 310 according to the first embodiment, the description thereof will be omitted.

なお、表示制御部203は、折返し低減ボタン1106,1116の操作等の操作者の指示に応じて、折返し像が低減されていない断層画像とその解析結果、及び折返し像が低減された断層画像とその解析結果を切り替えて表示部250に表示させることができる。ステップS903において、表示制御部203による表示処理が終了したら、制御部200による一連の処理が終了する。 In addition, the display control unit 203 responds to the operator's instructions such as the operation of the folding reduction buttons 1106 and 1116 to obtain a tomographic image in which the folding image is not reduced, an analysis result thereof, and a tomographic image in which the folding image is reduced. The analysis result can be switched and displayed on the display unit 250. When the display process by the display control unit 203 is completed in step S903, a series of processes by the control unit 200 is completed.

上記のように、本実施形態に係る演算処理部213は、学習済モデルに断層画像401を入力し、学習済モデルから、断層画像401における折返し像が除去された断層画像402(第3の断層画像)を取得する。また、演算処理部213は、断層画像401と断層画像402の差分(折返し画像1001)を上下反転して断層画像1002(第4の断層画像)を生成する。さらに、演算処理部213は、断層画像402と断層画像1002を連結することで、断層画像1003(第2の断層画像)を生成する。ここで、断層画像1003は、断層画像401における折返し像が正規の像として現れている断層画像である。 As described above, the arithmetic processing unit 213 according to the present embodiment inputs the tomographic image 401 into the trained model, and the tomographic image 402 (third tomographic image 402) from which the folded image in the tomographic image 401 is removed from the trained model. Image) is acquired. Further, the arithmetic processing unit 213 flips the difference between the tomographic image 401 and the tomographic image 402 (folded image 1001) upside down to generate the tomographic image 1002 (fourth tomographic image). Further, the arithmetic processing unit 213 generates a tomographic image 1003 (second tomographic image) by connecting the tomographic image 402 and the tomographic image 1002. Here, the tomographic image 1003 is a tomographic image in which the folded image in the tomographic image 401 appears as a normal image.

本実施形態による折返し低減処理によれば、学習済モデルを用いて折返し像が低減されるとともに、折返し像を正規の像に修正した断層画像を取得することができる。このため、断層画像の広い範囲について適切な断層の情報を検者に提供することができ、診断精度を向上させることができる。また、このような断層画像に基づけば、折返し像が発生していた領域においても信頼性の高い解析結果を取得することができる。そのため、本実施形態に係る折返し低減処理により得た断層画像及びその解析結果を検者に提供することで、診断精度をより向上させることができる。 According to the folding reduction processing according to the present embodiment, the folding image is reduced by using the trained model, and a tomographic image obtained by modifying the folding image into a normal image can be acquired. Therefore, it is possible to provide the examiner with appropriate tomographic information for a wide range of the tomographic image, and it is possible to improve the diagnostic accuracy. In addition, based on such a tomographic image, highly reliable analysis results can be obtained even in the region where the folded image was generated. Therefore, the diagnostic accuracy can be further improved by providing the examiner with the tomographic image obtained by the folding reduction process according to the present embodiment and the analysis result thereof.

また、本実施形態では、演算処理部213によって生成された断層画像1003には、コヒーレンスゲート位置に対応する位置にマスク領域1004が設けられている。これにより、断層画像1003において直流成分に相当する上下の中心部分に白い線が発生してしまうことを防止することができる。また、学習済モデルを用いた折返し低減処理により、本来取得されていない信号を示す像が同領域に現れることを防止することができる。 Further, in the present embodiment, the tomographic image 1003 generated by the arithmetic processing unit 213 is provided with a mask region 1004 at a position corresponding to the coherence gate position. This makes it possible to prevent white lines from being generated in the upper and lower central portions corresponding to the DC components in the tomographic image 1003. Further, by the folding reduction processing using the trained model, it is possible to prevent an image showing a signal that is not originally acquired from appearing in the same region.

なお、折返し像が修正された断層画像1003を得る方法は、図10を用いて説明した折返し低減処理と異なっていてもよい。例えば、断層画像402と折返し画像1001の両方を出力データとした学習データを用いて学習済モデルの学習が行われてもよい。この場合、学習データ生成部602は、実施形態1と同様に断層画像701から断層画像702,703を生成する。また、学習データ生成部602は、断層画像702を生成する際に用いた上半分の断層画像を上下反転させた折返し断層画像を生成することができる。ここで、学習データ生成部602によって生成された断層画像703及び折返し断層画像とは、それぞれ断層画像402と折返し画像1001に対応する。また、学習処理部603は、学習データ生成部602によって生成された断層画像703及び折返し断層画像を学習データの出力データとして用いて、機械学習モデルの学習処理を行うことができる。このような学習を行った学習済モデルを用いれば、演算処理部213は、断層画像401から断層画像402及び折返し画像1001を生成することができる。 The method of obtaining the tomographic image 1003 in which the folded image is corrected may be different from the folded reduction process described with reference to FIG. For example, the trained model may be trained using the training data using both the tomographic image 402 and the folded image 1001 as output data. In this case, the learning data generation unit 602 generates tomographic images 702 and 703 from the tomographic image 701 as in the first embodiment. In addition, the learning data generation unit 602 can generate a folded tomographic image in which the upper half of the tomographic image used when generating the tomographic image 702 is inverted upside down. Here, the tomographic image 703 and the tomographic image generated by the learning data generation unit 602 correspond to the tomographic image 402 and the tomographic image 1001, respectively. Further, the learning processing unit 603 can perform the learning processing of the machine learning model by using the tomographic image 703 and the folded tomographic image generated by the learning data generation unit 602 as the output data of the learning data. By using the trained model that has been trained in this way, the arithmetic processing unit 213 can generate the tomographic image 402 and the folded image 1001 from the tomographic image 401.

なお、第1実施形態と同様に、矩形領域画像を学習データの入力データと出力データとして用いてもよい。この場合、学習データ生成部602は、入力データとなる矩形領域画像に対応する位置の断層画像703の矩形領域画像及び折返し断層画像の矩形領域を出力データとすればよい。 As in the first embodiment, the rectangular area image may be used as the input data and the output data of the learning data. In this case, the learning data generation unit 602 may use the rectangular region image of the tomographic image 703 and the rectangular region of the folded tomographic image at the positions corresponding to the rectangular region image as the input data as output data.

同様に、例えば、断層画像402と断層画像1002の両方を出力データとした学習データを用いて学習済モデルの学習が行われてもよい。この場合、学習データ生成部602は、実施形態1と同様に断層画像701から断層画像702,703を生成する。また、学習データ生成部602は、断層画像702を生成する際に用いた上半分の断層画像も学習データの出力データとする。ここで、学習データ生成部602によって生成された断層画像703及び上半分の断層画像とは、それぞれ断層画像402と断層画像1002に対応する。また、学習処理部603は、学習データ生成部602によって生成された断層画像703及び上半分の断層画像を学習データの出力データとして用いて、機械学習モデルの学習処理を行うことができる。このような学習を行った学習済モデルを用いれば、演算処理部213は、断層画像401から断層画像402及び断層画像1002を生成することができる。 Similarly, for example, the trained model may be trained using the training data using both the tomographic image 402 and the tomographic image 1002 as output data. In this case, the learning data generation unit 602 generates tomographic images 702 and 703 from the tomographic image 701 as in the first embodiment. Further, the learning data generation unit 602 also uses the tomographic image of the upper half used when generating the tomographic image 702 as the output data of the learning data. Here, the tomographic image 703 and the tomographic image of the upper half generated by the learning data generation unit 602 correspond to the tomographic image 402 and the tomographic image 1002, respectively. Further, the learning processing unit 603 can perform the learning processing of the machine learning model by using the tomographic image 703 generated by the learning data generation unit 602 and the tomographic image of the upper half as the output data of the learning data. By using the trained model that has been trained in this way, the arithmetic processing unit 213 can generate the tomographic image 402 and the tomographic image 1002 from the tomographic image 401.

なお、第1実施形態と同様に、矩形領域画像を学習データの入力データと出力データとして用いてもよい。この場合、学習データ生成部602は、入力データとなる矩形領域画像に対応する位置の断層画像703の矩形領域画像及び上述の上半分の断層画像の矩形領域を出力データとすればよい。 As in the first embodiment, the rectangular area image may be used as the input data and the output data of the learning data. In this case, the learning data generation unit 602 may use the rectangular region image of the tomographic image 703 at the position corresponding to the rectangular region image as the input data and the rectangular region of the upper half of the tomographic image as output data.

また、折返し像が修正された断層画像1003を学習データの出力データとした学習データを用いて学習済モデルの学習が行われてもよい。より具体的には、学習済モデルは、断層画像401を入力データとし、該断層画像401に対応する、折返し像が正規の像として現れている断層画像1003を出力データとした学習データを用いて学習を行ってもよい。この場合には、学習データ生成部602は、実施形態1と同様に断層画像702を生成するが、断層画像703は生成しなくてよい。学習処理部603は、学習データ生成部602によって生成された断層画像702を学習データの入力データとし、画像格納部601に格納されていた断層画像701を学習データの出力データとして用いて、機械学習モデルの学習処理を行うことができる。このような学習を行った学習済モデルを用いれば、演算処理部213は、折返し像が修正された断層画像1003を断層画像401から直接生成することができる。この場合には、ステップS901は省略されてよい。 Further, the trained model may be trained using the training data in which the tomographic image 1003 in which the folded image is corrected is used as the output data of the training data. More specifically, the trained model uses the training data using the tomographic image 401 as the input data and the tomographic image 1003 corresponding to the tomographic image 401 in which the folded image appears as a normal image as the output data. You may study. In this case, the learning data generation unit 602 generates the tomographic image 702 as in the first embodiment, but the tomographic image 703 does not have to be generated. The learning processing unit 603 uses the tomographic image 702 generated by the learning data generation unit 602 as input data for training data, and uses the tomographic image 701 stored in the image storage unit 601 as output data for learning data to perform machine learning. The model can be trained. By using the trained model that has been trained in this way, the arithmetic processing unit 213 can directly generate the tomographic image 1003 in which the folded image is corrected from the tomographic image 401. In this case, step S901 may be omitted.

なお、演算処理部213が、学習済モデルを用いて、断層画像1003を断層画像401から直接生成する場合においても、学習データの入力データ及び出力データとして断層画像702及び断層画像701の矩形領域画像を用いることができる。この場合には、まず、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の上半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。また、同様に、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の下半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。 Even when the arithmetic processing unit 213 directly generates the tomographic image 1003 from the tomographic image 401 using the trained model, the rectangular region images of the tomographic image 702 and the tomographic image 701 are used as input data and output data of the training data. Can be used. In this case, first, a trained model is prepared in which the image of the rectangular region in the upper half image of the tomographic image 701 corresponding to the rectangular region image of the tomographic image 702 used as the input data is trained as the output data. .. Similarly, a trained model is prepared in which the image of the rectangular region in the lower half image of the tomographic image 701 corresponding to the rectangular region image of the tomographic image 702 used as the input data is trained as the output data.

演算処理部213は、入力データとなる断層画像を矩形領域毎に分割し、これらの学習済モデルのそれぞれに入力する。その後、演算処理部213は、各学習済モデルについて、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、折返し像が修正された断層画像1003の上半分の画像及び下半分の画像に対応する画像を生成することができるため、これらを結合することで、断層画像1003を生成することができる。 The arithmetic processing unit 213 divides the tomographic image to be the input data into each rectangular region and inputs it to each of these trained models. After that, the arithmetic processing unit 213 sets each of the rectangular region image groups output from the trained model in the same positional relationship as each of the rectangular region image groups input to the trained model for each trained model. Place and combine. As a result, the arithmetic processing unit 213 can generate an image corresponding to the upper half image and the lower half image of the tomographic image 1003 in which the folded image is corrected. Therefore, by combining these, the tomographic image 1003 Can be generated.

なお、1つの学習済モデルを用いて断層画像1003を断層画像401から直接生成することもできる。この場合には、学習データの出力データとして、入力データである矩形領域画像に対応する、断層画像701の上半分の画像及び下半分の画像における矩形領域画像を用いればよい。 It is also possible to generate the tomographic image 1003 directly from the tomographic image 401 using one trained model. In this case, as the output data of the training data, the rectangular region image in the upper half image and the lower half image of the tomographic image 701 corresponding to the rectangular region image which is the input data may be used.

また、本実施形態では、演算処理部213は、断層画像1003の上下の中心部分(コヒーレンスゲート位置に対応する位置)において、画像処理により眼底の断層を表示しないマスク領域1004を設けた。これに対し、学習データ生成部602が、断層画像702の上端にマスク領域を設けた画像を学習データの出力データの生成に用いてもよい。この場合、演算処理部213は、断層画像1002の下端にマスク領域を設けてもよい。また、学習済モデルを用いて折返し像が修正された断層画像1003を直接得る場合には、学習データ生成部602は、断層画像701の上下の中心部分にマスク領域を設けた画像を学習データの出力データの生成に用いてもよい。 Further, in the present embodiment, the arithmetic processing unit 213 provides a mask region 1004 that does not display the tomographic fault of the fundus by image processing in the upper and lower central portions (positions corresponding to the coherence gate positions) of the tomographic image 1003. On the other hand, the learning data generation unit 602 may use an image in which a mask region is provided at the upper end of the tomographic image 702 to generate output data of the learning data. In this case, the arithmetic processing unit 213 may provide a mask area at the lower end of the tomographic image 1002. Further, when directly obtaining the tomographic image 1003 in which the folded image is corrected by using the trained model, the training data generation unit 602 uses an image in which mask regions are provided in the upper and lower central portions of the tomographic image 701 as the training data. It may be used to generate output data.

(実施形態3)
実施形態2では、演算処理部213は、入力データとなる断層画像の全体について折返し低減処理を行った。これに対して、患眼において黄斑部に病変がある場合には、黄斑部の像が描写される断層画像の中心部分に凹凸などの変化が生じる場合がある。このため、断層画像の中心部分については画像の修正処理を行うべきでない場合もある。また、学習済モデルでは、断層画像の横方向の特徴を修正せず、縦方向の特徴だけを修正することも考えられうる。このような場合に、断層画像全体に修正処理を適用すると、断層画像の中心部分の病変の像まで変更されてしまう可能性がある。
(Embodiment 3)
In the second embodiment, the arithmetic processing unit 213 performs the folding reduction processing on the entire tomographic image as the input data. On the other hand, when there is a lesion in the macula in the affected eye, changes such as unevenness may occur in the central portion of the tomographic image in which the image of the macula is depicted. Therefore, it may not be necessary to perform image correction processing on the central portion of the tomographic image. Further, in the trained model, it is conceivable to modify only the vertical features of the tomographic image without modifying the horizontal features. In such a case, if the correction process is applied to the entire tomographic image, the image of the lesion in the central portion of the tomographic image may be changed.

そこで、実施形態3では、演算処理部213による折返し低減処理を、入力データとなる断層画像の中心部以外の領域、特に折返し像が生じている領域に適用する。以下、図12及び13を参照して、本実施形態に係るOCT装置及び学習装置について、実施形態2に係るOCT装置及び学習装置との違いを中心に説明する。なお、本実施形態に係るOCT装置の構成は実施形態2に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態2に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。 Therefore, in the third embodiment, the folding reduction processing by the arithmetic processing unit 213 is applied to a region other than the central portion of the tomographic image as input data, particularly a region where a folding image is generated. Hereinafter, the OCT apparatus and the learning apparatus according to the present embodiment will be described with reference to FIGS. 12 and 13, focusing on the differences from the OCT apparatus and the learning apparatus according to the second embodiment. Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the second embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the second embodiment, the description will be omitted using the same reference number.

図12は、本実施形態に係る制御部200による一連の処理のフローチャートを示す。本実施形態に係る制御部200による処理において、ステップS501では、実施形態1に係る同ステップと同様の処理を行うため説明を省略する。また、図13は、ステップS1201乃至ステップS1203の処理を含む、演算処理部213が行う折返し低減処理について説明するための図である。なお、図13において、断層画像401は、学習済モデルを用いた演算処理に関する入力データに対応するものであり、ステップS501で取得された断層画像に対応する。 FIG. 12 shows a flowchart of a series of processes by the control unit 200 according to the present embodiment. In the process by the control unit 200 according to the present embodiment, in step S501, the same process as that of the same step according to the first embodiment is performed, and thus the description thereof will be omitted. Further, FIG. 13 is a diagram for explaining a turn-back reduction process performed by the arithmetic processing unit 213, including the processes of steps S1201 to S1203. In FIG. 13, the tomographic image 401 corresponds to the input data related to the arithmetic processing using the trained model, and corresponds to the tomographic image acquired in step S501.

ステップS501において、取得部201が断層画像を取得したら、処理はステップS1201に移行する。ステップS1201では、演算処理部213が、ステップS501で取得された断層画像401から折返し像が生じる領域の画像1301,1302(折返し領域画像)を抽出する。なお、演算処理部213は、断層画像の所定の領域の画像を折返し像が生じる領域の画像として抽出することができる。本実施形態では、例えば、断層画像の横方向の両端部から、断層画像の横方向の画像サイズの1/4の画像サイズを有する2つの折返し領域画像1301,1302を抽出する。また、演算処理部213は、断層画像の残りの領域の画像を中央部分の領域の画像1305として抽出することができる。なお、所定の領域については、断層画像の横方向の両端部から、断層画像の横方向の画像サイズの1/4の画像サイズを有する領域に限らず、所望の構成に応じて任意の画像サイズを有する領域としてよい。 When the acquisition unit 201 acquires the tomographic image in step S501, the process proceeds to step S1201. In step S1201, the arithmetic processing unit 213 extracts images 1301, 1302 (folded area images) of the region where the folded image is generated from the tomographic image 401 acquired in step S501. The arithmetic processing unit 213 can extract an image of a predetermined region of the tomographic image as an image of a region where a folded image is generated. In the present embodiment, for example, two folded region images 1301 and 1302 having an image size of 1/4 of the lateral image size of the tomographic image are extracted from both ends in the lateral direction of the tomographic image. In addition, the arithmetic processing unit 213 can extract the image of the remaining region of the tomographic image as the image 1305 of the central region. The predetermined region is not limited to a region having an image size of 1/4 of the lateral image size of the tomographic image from both ends in the lateral direction of the tomographic image, and an arbitrary image size can be obtained according to a desired configuration. It may be a region having.

ステップS1202では、演算処理部213は、学習済モデルを用いて、各折返し領域画像1301,1302から、折返し像を正規の像に修正し、折返し像が低減された領域画像1303,1304をそれぞれ生成する。なお、学習データとしては、図7に示す、断層画像702における折返し像が生じる領域の画像を入力データとし、断層画像701の対応する領域の画像を出力データとすることができる。なお、学習データに関する折返し像が生じる領域についても、断層画像の所定の領域、例えば、断層画像の横方向の両端部から、断層画像の横方向の画像サイズの1/4の画像サイズを有する領域とすることができる。 In step S1202, the arithmetic processing unit 213 uses the trained model to correct the folded image from each folded area image 1301, 1302 to a normal image, and generates region images 1303 and 1304 in which the folded image is reduced, respectively. To do. As the training data, the image of the region where the folded image occurs in the tomographic image 702 shown in FIG. 7 can be used as the input data, and the image of the corresponding region of the tomographic image 701 can be used as the output data. Regarding the region where the folded image related to the training data is generated, a predetermined region of the tomographic image, for example, a region having an image size of 1/4 of the lateral image size of the tomographic image from both ends in the lateral direction of the tomographic image. Can be.

ステップS1203では、折返し像が低減された各領域画像1303,1304及び中央部分の領域の画像1305を用いて画像合成処理を行い、折返し像を正規の像に修正した全体の断層画像1306を生成する。より具体的には、演算処理部213は、ステップS1203に含まれるステップS1231において、中央部分の領域の画像1305の左端部に領域画像1303を連結し、右端部に領域画像1304を連結する。なお、演算処理部213は、中央部分の領域の画像1305の上部において、領域画像1303,1304の間に任意の画素値を追加するパディング処理を行ってよい。また、演算処理部213は、実施形態3と同様に、断層画像1306においてマスク領域1307を設けることができる。 In step S1203, image composition processing is performed using each region image 1303, 1304 in which the folded image is reduced and the image 1305 in the central region, and the entire tomographic image 1306 in which the folded image is corrected to a normal image is generated. .. More specifically, in step S1231 included in step S1203, the arithmetic processing unit 213 connects the area image 1303 to the left end of the image 1305 in the central region and connects the region image 1304 to the right end. The arithmetic processing unit 213 may perform padding processing for adding an arbitrary pixel value between the area images 1303 and 1304 in the upper part of the image 1305 in the central region. Further, the arithmetic processing unit 213 can provide the mask region 1307 in the tomographic image 1306 as in the third embodiment.

ステップS1203において、断層画像1306が生成されると、処理はステップS902に移行する。ステップS902及びステップS903は、実施形態2に係るステップS902及びS903と同様のステップであるため説明を省略する。ステップS903において、表示処理が終了すると一連の処理が終了する。 When the tomographic image 1306 is generated in step S1203, the process proceeds to step S902. Since steps S902 and S903 are the same steps as steps S902 and S903 according to the second embodiment, description thereof will be omitted. In step S903, when the display process is completed, a series of processes is completed.

上記のように、本実施形態に係る演算処理部213は、断層画像401から、折返し像が生じる領域の折返し領域画像1301,1302(第1の領域の画像)を抽出する。また、演算処理部213は、折返し領域画像1301,1302を学習済モデルに入力して領域画像1303,1304(第2の領域画像)を得る。演算処理部213は、領域画像1303,1304を断層画像401における折返し像が生じる領域以外の領域の画像1305と連結することで、断層画像1306を生成する。特に本実施形態では、演算処理部213は、折返し領域画像1301,1302として、断層画像401における所定の領域の画像を抽出する。 As described above, the arithmetic processing unit 213 according to the present embodiment extracts the folded region images 1301, 1302 (images of the first region) of the region where the folded image is generated from the tomographic image 401. Further, the arithmetic processing unit 213 inputs the folded area images 1301 and 1302 into the trained model to obtain the area images 1303 and 1304 (second area image). The arithmetic processing unit 213 generates the tomographic image 1306 by connecting the area images 1303 and 1304 to the image 1305 in the area other than the area where the folded image is generated in the tomographic image 401. In particular, in the present embodiment, the arithmetic processing unit 213 extracts an image of a predetermined region in the tomographic image 401 as the folded region images 1301 and 1302.

本実施形態による折返し低減処理によれば、実施形態2係る折り返し低減処理と同様の効果を奏することができる。さらに、患眼において黄斑部に病変がある場合においても、黄斑部の像が描写される断層画像の中心部分に不必要な修正処理を行わないことで、病変の情報を改変することを抑制することができる。 According to the fold-back reduction process according to the present embodiment, the same effect as that of the fold-back reduction process according to the second embodiment can be obtained. Furthermore, even if there is a lesion in the macula in the affected eye, it is possible to suppress alteration of the lesion information by not performing unnecessary correction processing on the central part of the tomographic image in which the image of the macula is depicted. be able to.

なお、学習データの生成方法としては、上述のように、学習データ生成部602が、図7に示す、断層画像702における折返し像が生じる領域の画像を入力データとし、断層画像701の対応する領域の画像を出力データとして生成してよい。 As a method of generating training data, as described above, the training data generation unit 602 uses the image of the region where the folded image occurs in the tomographic image 702 shown in FIG. 7 as input data, and the corresponding region of the tomographic image 701. The image of may be generated as output data.

また、本実施形態では、演算処理部213は、学習済モデルを用いて、折返し領域画像1301,1302から、領域画像1303,1304をそれぞれ生成した。これに対し、学習済モデルについて、折返し領域画像1301,1302の両方を入力データとし、断層画像1306における中央部分の領域の画像1305以外の領域の画像を出力データとした学習を行ってもよい。この場合には、学習データ生成部602は、図7に示す、断層画像702における折返し像が生じる領域の画像の両方を入力データとして生成してよい。また、学習データ生成部602は、断層画像702の残りの領域の画像(中央部分の領域の画像)に対応する領域以外の、断層画像701の領域の画像を出力データとして生成してよい。 Further, in the present embodiment, the arithmetic processing unit 213 generated the area images 1303 and 1304 from the folded area images 1301 and 1302 by using the trained model. On the other hand, for the trained model, training may be performed using both the folded region images 1301 and 1302 as input data and the image of the region other than the image 1305 of the central region of the tomographic image 1306 as the output data. In this case, the learning data generation unit 602 may generate both the images of the region where the folded image occurs in the tomographic image 702 shown in FIG. 7 as input data. Further, the learning data generation unit 602 may generate an image of the region of the tomographic image 701 as output data other than the region corresponding to the image of the remaining region of the tomographic image 702 (the image of the region of the central portion).

この場合には、演算処理部213は、学習済モデルを用いて、折返し領域画像1301,1302から、断層画像1306における、中央部分の領域の画像1305に対応する領域以外の領域の画像を生成することができる。これにより、演算処理部213は、当該生成した画像と中央部分の領域の画像1305を連結することで、断層画像1306を生成することができる。この場合には、連結処理(ステップS1231)における、パディング処理を省略することができる。 In this case, the arithmetic processing unit 213 uses the trained model to generate an image of a region other than the region corresponding to the image 1305 of the central portion of the tomographic image 1306 from the folded region images 1301 and 1302. be able to. As a result, the arithmetic processing unit 213 can generate the tomographic image 1306 by connecting the generated image and the image 1305 in the central region. In this case, the padding process in the connection process (step S1231) can be omitted.

また、演算処理部213は、入力データとなる断層画像に対してセグメンテーション処理等の画像解析処理を行い、折返し像が生じる領域を特定して当該領域の画像を抽出してもよい。なお、折返し像が生じる領域を特定するためのセグメンテーション処理は、公知の任意の手法を用いてよい。この場合、演算処理部213が抽出する領域の横方向のサイズは、断層画像中の折返し像に基づくため不定である。 Further, the arithmetic processing unit 213 may perform image analysis processing such as segmentation processing on the tomographic image as input data, specify a region where a folded image is generated, and extract an image of the region. Any known method may be used for the segmentation process for identifying the region where the folded image is generated. In this case, the lateral size of the region extracted by the arithmetic processing unit 213 is indefinite because it is based on the folded image in the tomographic image.

そのため、このような場合には、演算処理部213は、抽出した領域の画像を所定の画像サイズを有する複数の矩形領域画像に分割し、学習済モデルに入力することができる。ここで、矩形領域画像は他の矩形領域画像と重複する領域を有してもよい。演算処理部213は、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、折返し像を正規の像に修正し、折返し像が低減された領域画像を生成することができる。その後の処理は、本実施形態と同様であってよい。なお、学習済モデルから出力される矩形領域画像群のそれぞれを結合する際には、矩形領域画像における互いに重複する領域が互いに重畳するように、矩形領域画像群を結合してよい。この場合、互いに重畳される領域では、重畳される矩形領域画像のうちの任意の1つの矩形領域画像の画素値のみを用いて画素値を決定してもよいし、重畳される矩形領域画像の画素値の平均値や中央値等を画素値として決定してもよい。 Therefore, in such a case, the arithmetic processing unit 213 can divide the image of the extracted region into a plurality of rectangular region images having a predetermined image size and input the image to the trained model. Here, the rectangular area image may have an area overlapping with other rectangular area images. The arithmetic processing unit 213 arranges and combines each of the rectangular region image groups output from the trained model in the same positional relationship as each of the rectangular region image groups input to the trained model. As a result, the arithmetic processing unit 213 can correct the folded image to a normal image and generate a region image in which the folded image is reduced. Subsequent processing may be the same as in this embodiment. When combining each of the rectangular region image groups output from the trained model, the rectangular region image groups may be combined so that the overlapping regions in the rectangular region image overlap each other. In this case, in the regions that are superimposed on each other, the pixel value may be determined using only the pixel value of any one rectangular region image among the superimposed rectangular region images, or the superimposed rectangular region image may be determined. The average value, the median value, or the like of the pixel values may be determined as the pixel values.

この場合には、実施形態2で述べたように、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の上半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。また、同様に、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の下半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。 In this case, as described in the second embodiment, learning is performed using the rectangular region image in the upper half image of the tomographic image 701 corresponding to the rectangular region image of the tomographic image 702 used as the input data as the output data. Prepare a trained model. Similarly, a trained model is prepared in which the image of the rectangular region in the lower half image of the tomographic image 701 corresponding to the rectangular region image of the tomographic image 702 used as the input data is trained as the output data.

演算処理部213は、入力データとなる断層画像を矩形領域毎に分割し、これらの学習済モデルのそれぞれに入力する。その後、演算処理部213は、各学習済モデルについて、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、折返し像が修正された領域画像1303,1304の上半分の画像及び下半分の画像に対応する画像を生成することができるため、これらを結合することで、領域画像1303,1304を生成することができる。 The arithmetic processing unit 213 divides the tomographic image to be the input data into each rectangular region and inputs it to each of these trained models. After that, the arithmetic processing unit 213 sets each of the rectangular region image groups output from the trained model in the same positional relationship as each of the rectangular region image groups input to the trained model for each trained model. Place and combine. As a result, the arithmetic processing unit 213 can generate an image corresponding to the upper half image and the lower half image of the region image 1303, 1304 in which the folded image is corrected. Therefore, by combining these, the region can be generated. Images 1303 and 1304 can be generated.

なお、1つの学習済モデルを用いて領域画像1303,1304を折返し領域画像1301,1302から直接生成することもできる。この場合には、学習データの出力データとして、入力データである断層画像702の矩形領域画像に対応する、断層画像701の上半分の画像及び下半分の画像における矩形領域画像を用いればよい。 It should be noted that the region images 1303 and 1304 can be directly generated from the folded region images 1301 and 1302 using one trained model. In this case, as the output data of the training data, the rectangular region image in the upper half image and the lower half image of the tomographic image 701 corresponding to the rectangular region image of the tomographic image 702 which is the input data may be used.

また、この場合には、学習データ生成部602は、断層画像701,702における折返し像が生じていない部分、例えば中心部分の画像については、学習データの生成に用いなくてもよい。これによって、学習データの数を少なくし、学習処理に係る時間を短くすることができる。 Further, in this case, the learning data generation unit 602 does not have to use the image of the portion of the tomographic images 701 and 702 in which the folded image does not occur, for example, the image of the central portion, for generating the learning data. As a result, the number of learning data can be reduced and the time required for the learning process can be shortened.

また、演算処理部213が、断層画像に対してセグメンテーション処理を行い、折返し像が生じる領域を特定して当該領域の画像を抽出する場合には、抽出した画像について学習データの画像サイズに対応するようにパディング処理を行ってもよい。この場合には、演算処理部213が学習済モデルに入力する折返し領域画像の画像サイズを、学習データの画像サイズに対応するように一定とすることができ、本実施形態に係る折返し低減処理と同様の処理を行うことができる。なお、演算処理部213は、学習済モデルから出力された領域画像について、パディング処理を行う前の画像サイズとなるようにトリミング処理を行い、中央部分の領域の画像と連結させることができる。 Further, when the arithmetic processing unit 213 performs segmentation processing on the tomographic image, identifies a region where a folded image occurs, and extracts an image of the region, the extracted image corresponds to the image size of the learning data. The padding process may be performed as described above. In this case, the image size of the folded area image input to the trained model by the arithmetic processing unit 213 can be made constant so as to correspond to the image size of the training data. Similar processing can be performed. The arithmetic processing unit 213 can perform trimming processing on the region image output from the trained model so as to have the image size before the padding processing, and connect the region image with the image in the central region.

この場合の学習データは、本実施形態に係る学習データと同様の学習データであってよい。なお、学習済モデルは、パディング処理した部分についてはそのままの値を出力するように学習を行ってもよい。この場合には、例えば、パディング処理に用いる画素値と同様の画素値を有する領域を含む画像を学習データの入力データ及び出力データに用いればよい。 The learning data in this case may be the same learning data as the learning data according to the present embodiment. The trained model may be trained so as to output the value as it is for the padded portion. In this case, for example, an image including a region having a pixel value similar to the pixel value used for the padding process may be used as the input data and the output data of the training data.

これらの場合であっても、本実施形態と同様の効果を奏することができる。そのため、患眼において黄斑部に病変がある場合においても、黄斑部の像が描写される断層画像の中心部分に不必要な修正処理を行わないことで、病変の情報を改変することを抑制することができる。 Even in these cases, the same effect as that of the present embodiment can be obtained. Therefore, even if there is a lesion in the macula in the affected eye, it is possible to suppress alteration of the lesion information by not performing unnecessary correction processing on the central part of the tomographic image in which the image of the macula is depicted. be able to.

また、本実施形態では、演算処理部213は、断層画像1306の上下の中心部分において、画像処理により眼底の断層を表示しないマスク領域1307を設けた。これに対し、学習データ生成部602は、断層画像701の上下の中心部分にマスク領域を設けた画像を学習データの出力データの生成に用いてもよい。 Further, in the present embodiment, the arithmetic processing unit 213 provides a mask region 1307 in the upper and lower central portions of the tomographic image 1306 so that the tomography of the fundus is not displayed by image processing. On the other hand, the learning data generation unit 602 may use an image in which mask regions are provided in the upper and lower central portions of the tomographic image 701 to generate output data of the learning data.

なお、本実施形態では、演算処理部213は、折返し像が正規の像に修正された断層画像を生成した。これに対して、演算処理部213は、実施形態1と同様に、折返し像を除去した断層画像を生成してもよい。この場合にも、黄斑部の像が描写される断層画像の中心部分に不必要な処理を行わないことで、病変の情報を改変することを抑制することができる。なお、この場合の学習データは、断層画像702の折返し像が生じる領域の画像を入力データとし、断層画像703における対応する領域の画像を出力データとすればよい。 In the present embodiment, the arithmetic processing unit 213 generated a tomographic image in which the folded image is corrected to a normal image. On the other hand, the arithmetic processing unit 213 may generate a tomographic image from which the folded image is removed, as in the first embodiment. In this case as well, it is possible to suppress alteration of the lesion information by not performing unnecessary processing on the central portion of the tomographic image in which the image of the macula is depicted. As the training data in this case, the image of the region where the folded image of the tomographic image 702 is generated may be used as the input data, and the image of the corresponding region of the tomographic image 703 may be used as the output data.

(実施形態4)
実施形態1乃至3では、制御部200が、折返し像が低減された断層画像を自動的に生成し、表示の際に折返し像が低減されていない断層画像と折返し像が低減された断層画像を操作者の指示に応じて切り替えて表示した。これに対して、実施形態4では、制御部が、設定又は操作者の指示に応じて折返し低減処理を行うか否かを判断する。
(Embodiment 4)
In the first to third embodiments, the control unit 200 automatically generates a tomographic image in which the folded image is reduced, and produces a tomographic image in which the folded image is not reduced and a tomographic image in which the folded image is reduced at the time of display. It was switched and displayed according to the instruction of the operator. On the other hand, in the fourth embodiment, the control unit determines whether or not to perform the turn-back reduction process according to the setting or the instruction of the operator.

以下、図14を参照して、本実施形態に係るOCT装置及び学習装置について、実施形態2に係るOCT装置及び学習装置との違いを中心に説明する。なお、本実施形態に係るOCT装置の構成は実施形態2に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態2に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。 Hereinafter, the OCT apparatus and the learning apparatus according to the present embodiment will be described with reference to FIG. 14, focusing on the differences from the OCT apparatus and the learning apparatus according to the second embodiment. Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the second embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the second embodiment, the description will be omitted using the same reference number.

図14は、本実施形態に係る制御部200による一連の処理のフローチャートを示す。本実施形態に係る制御部200による処理において、ステップS501及びステップS502は、実施形態1に係るステップS501及びステップS502と同様であるため説明を省略する。また、ステップS901乃至ステップS903は、実施形態2に係るステップS901乃至ステップS903と同様であるため説明を省略する。本実施形態では、ステップS501において断層画像が取得されると、処理はステップS1401に移行する。 FIG. 14 shows a flowchart of a series of processes by the control unit 200 according to the present embodiment. In the process by the control unit 200 according to the present embodiment, steps S501 and S502 are the same as steps S501 and S502 according to the first embodiment, and thus description thereof will be omitted. Further, since steps S901 to S903 are the same as steps S901 to S903 according to the second embodiment, the description thereof will be omitted. In the present embodiment, when the tomographic image is acquired in step S501, the process proceeds to step S1401.

ステップS1401では、画像処理部210は、制御部200の表示モードが折返し低減モードであるか否かを判定する。具体的には、前回の撮影において折返し低減ボタンがONである場合に折返し低減モードであると判定し、折返し低減ボタンがOFFである場合に折返し低減モードでないと判定する。ここで、折返し低減ボタンは図11に示す折返し低減ボタン1106,1116と同様のものであってよい。 In step S1401, the image processing unit 210 determines whether or not the display mode of the control unit 200 is the folding reduction mode. Specifically, when the fold reduction button is ON in the previous shooting, it is determined that the fold reduction mode is set, and when the fold reduction button is OFF, it is determined that the mode is not the fold reduction mode. Here, the fold-back reduction button may be the same as the fold-back reduction buttons 1106 and 1116 shown in FIG.

また、画像処理部210は、折返し低減ボタンの状態ではなく、断層画像の状態から折返し低減モードであるか否かを判定してもよい。具体的には、画像処理部210はセグメンテーション処理等の画像解析によって断層画像に折返し像が発生しているか否かを判定し、折返し像が発生していれば折返し低減モードであり、折返し像が発生していなければ折返し低減モードではないと判定してもよい。なお、断層画像に折返し像が発生しているか否かを判断するためのセグメンテーション処理は、公知の任意の手法を用いてよい。 Further, the image processing unit 210 may determine whether or not the folding reduction mode is performed based on the state of the tomographic image instead of the state of the folding reduction button. Specifically, the image processing unit 210 determines whether or not a folded image is generated in the tomographic image by image analysis such as segmentation processing, and if a folded image is generated, it is in the folded reduction mode, and the folded image is displayed. If it does not occur, it may be determined that the mode is not the return reduction mode. Any known method may be used for the segmentation process for determining whether or not a folded image is generated in the tomographic image.

さらに、折返し低減モードかどうかは、表示画面の表示後に検者が折返し低減ボタンを操作することで後から変更することができる。また、ステップS1401において、表示制御部203が折返し低減処理を行うか否かを表示部250に表示させ、画像処理部210が操作者の指示に応じて折返し低減処理を行う折返し低減モードが選択されたか否かを判定してもよい。 Further, whether or not the wrapping reduction mode is set can be changed later by the examiner operating the wrapping reduction button after the display screen is displayed. Further, in step S1401, a folding reduction mode is selected in which the display unit 250 displays whether or not the display control unit 203 performs the folding reduction processing, and the image processing unit 210 performs the folding reduction processing according to the instruction of the operator. It may be determined whether or not it is.

ステップS1401において、画像処理部210により、制御部200が折返し低減モードであると判定された場合は、処理はステップS502に移行する。一方で、ステップS1401において、画像処理部210により、制御部200が折返し低減モードでないと判定された場合は、処理はステップS902に移行する。ステップS502以降の処理は、実施形態2に係る処理と同様であるため説明を省略する。なお、ステップS1401からステップS902に処理が移行した場合には、ステップS902では解析部214は折返し低減処理が行われていない断層画像や正面画像等について画像解析を行ってよい。ステップS903で表示処理が終了すると、一連の処理が終了する。 If the image processing unit 210 determines in step S1401 that the control unit 200 is in the turn-back reduction mode, the process proceeds to step S502. On the other hand, if the image processing unit 210 determines in step S1401 that the control unit 200 is not in the folding reduction mode, the process proceeds to step S902. Since the processing after step S502 is the same as the processing according to the second embodiment, the description thereof will be omitted. When the processing shifts from step S1401 to step S902, in step S902, the analysis unit 214 may perform image analysis on a tomographic image, a frontal image, or the like that has not been subjected to the folding reduction processing. When the display process is completed in step S903, a series of processes is completed.

上記のように、本実施形態に係る演算処理部213は、設定又は操作者の指示に応じて、断層画像1003を生成する。また、演算処理部213は、断層画像401が折返し像を含むか否かを判定し、断層画像401が折返し像を含むと判定した場合に、断層画像1003を生成してもよい。 As described above, the arithmetic processing unit 213 according to the present embodiment generates the tomographic image 1003 in response to the setting or the instruction of the operator. Further, the arithmetic processing unit 213 may determine whether or not the tomographic image 401 includes the folded image, and may generate the tomographic image 1003 when it is determined that the tomographic image 401 includes the folded image.

これにより、本実施形態に係る制御部200は、必要に応じて折返し低減処理を実行することができ、計算負荷を軽減することができる。また、実施形態1乃至3では、自動的に折返し低減処理が実行されるため、学習データに折返し像が生じていない断層画像も含むことができるように構成した。これに対し、本実施形態に係る制御部200では、折返し像が生じている断層画像について折返し低減処理を適用することが想定されるため、学習データに折返し像が生じていない画像を用いなくてもよい。このため、用意すべき学習データの数を減らすことができ、学習に係る時間を短くすることができる。 As a result, the control unit 200 according to the present embodiment can execute the turn-back reduction process as needed, and can reduce the calculation load. Further, in the first to third embodiments, since the folding reduction process is automatically executed, the learning data is configured to include a tomographic image in which no folding image is generated. On the other hand, since it is assumed that the control unit 200 according to the present embodiment applies the folding reduction processing to the tomographic image in which the folding image is generated, it is not necessary to use the image in which the folding image is not generated in the learning data. May be good. Therefore, the number of learning data to be prepared can be reduced, and the learning time can be shortened.

なお、本実施形態に係る一連の処理については、実施形態2に係る一連の処理との違いを中心に説明したが、実施形態1及び3に係る一連の処理において、本実施形態と同様の折返し低減処理を行うか否かの判定を行ってもよい。 The series of processes according to the present embodiment has been described mainly on the difference from the series of processes according to the second embodiment, but in the series of processes according to the first and third embodiments, the same return as that of the present embodiment has been described. It may be determined whether or not the reduction process is performed.

(実施形態5)
実施形態1乃至4では、解析部214が、画像解析を行って層厚等の解析結果を算出する構成について述べた。これに対し、解析部214は、折返し像が低減された断層画像等から層厚マップ等のマップ画像を生成してもよい。
(Embodiment 5)
In the first to fourth embodiments, the configuration in which the analysis unit 214 performs image analysis and calculates the analysis result such as the layer thickness has been described. On the other hand, the analysis unit 214 may generate a map image such as a layer thickness map from a tomographic image or the like in which the folded image is reduced.

ここで、上述の特許文献1に開示された技術は、層厚マップにおいて、折返し像によって信頼性が低下した領域を識別しやすくするものであり、折返し像が発生した領域に対して信頼性の高い層厚データを得るものではなかった。そのため、特許文献1に開示された技術では、折返し像が発生した領域の層厚情報は診断に使用できないという問題があった。 Here, the technique disclosed in Patent Document 1 described above makes it easy to identify a region where the reliability is lowered by the folded image in the layer thickness map, and is reliable with respect to the region where the folded image is generated. It did not provide high layer thickness data. Therefore, the technique disclosed in Patent Document 1 has a problem that the layer thickness information of the region where the folded image is generated cannot be used for diagnosis.

これに対し、実施態様1乃至4に係る制御部では、折返し像が発生した領域においても信頼性の高い解析結果を取得することができるため、このような解析結果を用いることで、広い範囲にわたって信頼性の高い解析結果を示すマップ画像を生成することができる。以下、図15を参照して、広い範囲にわたって信頼性の高い解析結果を示すマップ画像を生成する実施形態5に係るOCT装置について、実施形態2に係るOCT装置との違いを中心に説明する。 On the other hand, the control unit according to the first to fourth embodiments can acquire a highly reliable analysis result even in the region where the folded image is generated. Therefore, by using such an analysis result, a wide range can be obtained. It is possible to generate a map image showing a highly reliable analysis result. Hereinafter, the OCT apparatus according to the fifth embodiment, which generates a map image showing highly reliable analysis results over a wide range, will be described with reference to FIG. 15, focusing on the difference from the OCT apparatus according to the second embodiment.

なお、本実施形態に係るOCT装置の構成は実施形態2に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態2に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。また、制御部による一連の処理の流れも実施形態2に係る制御部による一連の処理の流れと同様であるため説明を省略する。ただし、本実施形態では、ステップS902において、解析部214が、折返し低減処理が行われた断層画像に基づく画像解析結果として、被検眼Eのマップ画像を生成する。また、解析部214は、折返し低減処理が行われていない断層画像や正面画像について画像解析を行ってもよい。 Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the second embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the second embodiment, the description will be omitted using the same reference number. Further, since the flow of a series of processes by the control unit is the same as the flow of a series of processes by the control unit according to the second embodiment, the description thereof will be omitted. However, in the present embodiment, in step S902, the analysis unit 214 generates a map image of the eye E to be inspected as an image analysis result based on the tomographic image subjected to the folding reduction processing. Further, the analysis unit 214 may perform image analysis on a tomographic image or a frontal image that has not been subjected to the folding reduction processing.

本実施形態に係る解析部214は、画像解析結果として、マップ画像の一種である被検眼Eの層厚マップを生成する。層厚マップは、眼底Efの厚み分布に濃淡や色を付けたものである。解析部214は、断層画像生成部212によって生成された3次元ボリュームデータのそれぞれの断層画像から、セグメンテーション処理によって被検眼Eの網膜の層ごとの境界を検出する。なお、セグメンテーション処理については、実施形態1と同様の処理であるため説明を省略する。 The analysis unit 214 according to the present embodiment generates a layer thickness map of the eye E to be inspected, which is a kind of map image, as an image analysis result. The layer thickness map is a map in which the thickness distribution of the fundus Ef is shaded or colored. The analysis unit 214 detects the boundary of each layer of the retina of the eye E to be examined by the segmentation process from each tomographic image of the three-dimensional volume data generated by the tomographic image generation unit 212. Since the segmentation process is the same process as that of the first embodiment, the description thereof will be omitted.

解析部214は、検出した境界データから解析部214は眼底Efの各場所における各層の厚さを算出する。そして、解析部214は、眼底Efの各場所の厚さに応じて濃淡や色を付与した層厚マップを生成する。 The analysis unit 214 calculates the thickness of each layer at each location of the fundus Ef from the detected boundary data. Then, the analysis unit 214 generates a layer thickness map in which shades and colors are added according to the thickness of each location of the fundus Ef.

ここで、図15(a)及び(b)は、本実施形態に係る表示画面の一例を示す。図15(a)は、折返し低減処理が行われていない断層画像1501を含む表示画面1500を示している。表示画面1500には、折返し低減処理が行われていない断層画像1501、正面画像1502、及び層厚マップ1504が示されている。なお、インジケータ1503及び折返し低減ボタン1505は、実施形態2に係る表示画面1100に示されるインジケータ1103及び折返し低減ボタン1106と同様のものであるため説明を省略する。 Here, FIGS. 15A and 15B show an example of a display screen according to the present embodiment. FIG. 15A shows a display screen 1500 including a tomographic image 1501 that has not been subjected to the folding reduction processing. The display screen 1500 shows a tomographic image 1501, a front image 1502, and a layer thickness map 1504 that have not been subjected to the folding reduction processing. Since the indicator 1503 and the folding reduction button 1505 are the same as the indicator 1103 and the folding reduction button 1106 shown on the display screen 1100 according to the second embodiment, the description thereof will be omitted.

ここで、層厚マップ1504は被検眼Eの層厚マップである。不図示のプルダウンなどの選択手段により、検者は層厚マップ1504に表示する層を切り替えることができる。層厚マップ1504における濃淡は、濃いほど層が厚いことを意味する。層厚マップ1504では濃さをもつ部分が円状であり、円の外側は白くなっている。白い部分は解析部214が層の厚さ検出に失敗したことを意味している。この失敗は、断層画像1501の両端に見られる折返し像によって層構造が不明瞭になったことが原因である。 Here, the layer thickness map 1504 is a layer thickness map of the eye E to be inspected. The examiner can switch the layer to be displayed on the layer thickness map 1504 by a selection means such as a pull-down (not shown). The shade in the layer thickness map 1504 means that the darker the layer, the thicker the layer. In the layer thickness map 1504, the dark portion is circular, and the outside of the circle is white. The white part means that the analysis unit 214 failed to detect the thickness of the layer. This failure is due to the obscured layer structure due to the folded images seen at both ends of the tomographic image 1501.

これに対し、図15(b)は、折返し低減処理が行われた断層画像1511を含む表示画面1510を示している。表示画面1510には、折返し低減処理が行われた断層画像1511、正面画像1502、及び層厚マップ1514が示されている。ここで、断層画像1511は、図11(b)に示す断層画像1111と同様のものである。また、断層画像1511におけるマスク領域1517は、断層画像1111におけるマスク領域1118と同様のものである。なお、インジケータ1513、折返し低減ボタン1515、及びメッセージ1516は、実施形態2に係る表示画面1110に示されるインジケータ1113、折返し低減ボタン1116、及びメッセージ1117と同様のものであるため説明を省略する。 On the other hand, FIG. 15B shows a display screen 1510 including a tomographic image 1511 that has undergone folding reduction processing. The display screen 1510 shows a tomographic image 1511, a front image 1502, and a layer thickness map 1514 that have undergone folding reduction processing. Here, the tomographic image 1511 is similar to the tomographic image 1111 shown in FIG. 11 (b). Further, the mask region 1517 in the tomographic image 1511 is the same as the mask region 1118 in the tomographic image 1111. Since the indicator 1513, the wrapping reduction button 1515, and the message 1516 are the same as the indicator 1113, the wrapping reduction button 1116, and the message 1117 shown on the display screen 1110 according to the second embodiment, the description thereof will be omitted.

層厚マップ1514では、中央部分は層厚マップ1504と同等であるが、外側の領域も濃度を持っている点が層厚マップ1504と異なる。これは、解析部214が外側の領域まで層の厚さ検出に成功したことを意味している。このように、折り返し低減処理を行った断層画像に基づいて層厚マップを生成すると、折返し像が発生した領域においても信頼性の高い層厚情報を得ることができ、広い範囲の層厚マップを生成することができる。このため、層厚マップ1514を検者に提供することで、検者は層厚マップ1504よりも広い範囲で網膜の層厚を確認することができ、診断効率を向上させることができる。 In the layer thickness map 1514, the central portion is equivalent to the layer thickness map 1504, but the outer region also has a density, which is different from the layer thickness map 1504. This means that the analysis unit 214 succeeded in detecting the thickness of the layer up to the outer region. By generating a layer thickness map based on the tomographic image that has undergone the folding reduction process in this way, highly reliable layer thickness information can be obtained even in the region where the folding image is generated, and a wide range of layer thickness maps can be obtained. Can be generated. Therefore, by providing the layer thickness map 1514 to the examiner, the examiner can confirm the layer thickness of the retina in a wider range than the layer thickness map 1504, and the diagnostic efficiency can be improved.

層厚マップを用いた診断としては、例えば緑内障の診断が知られている。緑内障の診断には、神経節細胞複合体(GCC:Ganglion Cell Complex)と呼ばれる層の厚み分布が重要であることが知られている。このため、神経節細胞複合体の層の厚みを示す層厚マップとして、本実施形態に係る折り返し低減処理を行った断層画像に基づく層厚マップを用いることで、広い範囲で信頼性の高い層厚情報を得ることができ、緑内障の診断効率を向上させることができる。 As a diagnosis using a layer thickness map, for example, a diagnosis of glaucoma is known. It is known that the thickness distribution of a layer called ganglion cell complex (GCC) is important for the diagnosis of glaucoma. Therefore, as a layer thickness map showing the thickness of the layer of the ganglion cell complex, a layer thickness map based on the tomographic image subjected to the folding reduction treatment according to the present embodiment is used, and a layer with high reliability in a wide range. It is possible to obtain thickness information and improve the diagnostic efficiency of glaucoma.

上記のように、本実施形態に係る解析部214は、検出した層境界に基づいて、断層画像401及び断層画像1003のうちの少なくとも一方を用いたマップ画像を生成する。ここで、マップ画像は、層厚マップを含む。 As described above, the analysis unit 214 according to the present embodiment generates a map image using at least one of the tomographic image 401 and the tomographic image 1003 based on the detected layer boundary. Here, the map image includes a layer thickness map.

実施形態2と同様の本実施形態による折返し低減処理によれば、学習済モデルを用いて折返し像が低減されるとともに、折返し像を修正した断層画像を取得することができる。このため、断層画像の広い範囲について適切な断層の情報を検者に提供することができ、診断精度を向上させることができる。また、このような断層画像に基づけば、折返し像が発生していた領域においても信頼性の高い解析結果を取得することができる。また、本実施形態では、このような解析結果として層厚マップ等のマップ画像を提供することができるため、広い範囲で信頼性の高い層厚情報を検者に提供することで、診断精度をより向上させることができる。 According to the folding reduction processing according to the present embodiment similar to the second embodiment, the folding image is reduced by using the trained model, and a tomographic image in which the folding image is corrected can be acquired. Therefore, it is possible to provide the examiner with appropriate tomographic information for a wide range of the tomographic image, and it is possible to improve the diagnostic accuracy. In addition, based on such a tomographic image, highly reliable analysis results can be obtained even in the region where the folded image was generated. Further, in the present embodiment, since a map image such as a layer thickness map can be provided as such an analysis result, the diagnostic accuracy can be improved by providing the examiner with highly reliable layer thickness information in a wide range. It can be improved further.

なお、本実施形態では、マップ画像として、層厚マップを例に挙げた。しかしながら、マップ画像はこれに限られず、断層画像等を用いた解析結果を正面画像上の位置毎に示す画像であればよい。例えば、血管密度に関する解析結果を示す血管密度マップであってもよい。なお、断層画像等から血管密度を解析する解析手法は、公知の任意の手法を用いてよい。 In this embodiment, a layer thickness map is taken as an example as a map image. However, the map image is not limited to this, and may be an image showing the analysis result using a tomographic image or the like for each position on the front image. For example, it may be a blood vessel density map showing the analysis result regarding the blood vessel density. As an analysis method for analyzing the blood vessel density from a tomographic image or the like, any known method may be used.

また、本実施形態に係る制御部について、実施形態2に係る制御部との違いを中心に説明したが、実施形態1、3及び4に係る制御部についても、本実施形態と同様に解析部214がマップ画像を生成するように構成してもよい。 Further, the control unit according to the present embodiment has been described mainly on the difference from the control unit according to the second embodiment, but the control unit according to the first, third and fourth embodiments is also an analysis unit as in the present embodiment. 214 may be configured to generate a map image.

(変形例1)
上記実施形態1乃至5では、学習済モデルとして用いる機械学習モデルの構成として、図4に示すようなCNNの構成とした。しかしながら、機械学習モデルの構成はこれに限られない。図16は、実施形態1乃至5において、折返し低減処理用の学習済モデルとして用いる機械学習モデルの他の構成例を示す。
(Modification example 1)
In the above-described first to fifth embodiments, the machine learning model used as the trained model has a CNN configuration as shown in FIG. However, the configuration of the machine learning model is not limited to this. FIG. 16 shows another configuration example of the machine learning model used as the learned model for the folding reduction processing in the first to fifth embodiments.

図16に示す機械学習モデルもCNNで構成されている。当該CNNの構成には、複数の畳み込み処理ブロック1610群が含まれる。畳み込み処理ブロック1610は、畳み込み(Convolution)層1611と、バッチ正規化(Batch Normalization)層1612と、正規化線形関数(Rectifier Linear Unit)を用いた活性化層1613とを含む。 The machine learning model shown in FIG. 16 is also composed of CNN. The configuration of the CNN includes a plurality of convolution processing blocks 1610 groups. The convolution processing block 1610 includes a Convolution layer 1611, a Batch Normalization layer 1612, and an activation layer 1613 using a rectifier liner unit.

また、当該CNNの構成には、合成(Merger)層1620と、最後の畳み込み層1630が含まれる。合成層1620は、畳み込み処理ブロック1610の出力値群と画像を構成する画素値群とを連結したり、加算したりして合成する。最後の畳み込み層1630は、合成層1620で合成された、断層画像402を構成する画素値群を出力する。このような構成では、入力された断層画像401を構成する画素値群が畳み込み処理ブロック1610群を経て出力された値群と、入力された断層画像1601を構成する画素値群とが、合成層1620で合成される。その後、合成された画素値群は最後の畳み込み層1630で折返し像が低減された断層画像402に成形される。 The CNN configuration also includes a synthetic (Merge) layer 1620 and a final convolutional layer 1630. The composite layer 1620 synthesizes by connecting or adding the output value group of the convolution processing block 1610 and the pixel value group constituting the image. The final convolution layer 1630 outputs a group of pixel values constituting the tomographic image 402 synthesized by the composite layer 1620. In such a configuration, the pixel value group constituting the input tomographic image 401 is output via the convolution processing block 1610 group, and the pixel value group constituting the input tomographic image 1601 is a composite layer. Synthesized at 1620. After that, the combined pixel value group is formed into a tomographic image 402 in which the folded image is reduced in the final convolution layer 1630.

このような構成の機械学習モデルを用いても、実施形態1乃至5と同様に、折返し像が低減された断層画像を生成することができ、診断精度を向上させることができる。 Even if the machine learning model having such a configuration is used, it is possible to generate a tomographic image in which the folded image is reduced, as in the first to fifth embodiments, and it is possible to improve the diagnostic accuracy.

(変形例2)
実施形態5において、解析部214は、折返しの低減された断層画像を用いて、層厚マップを生成した。これに対し、解析部214は、折返しの低減された3次元ボリュームデータのそれぞれの断層画像を用いて、被検眼EのEn−Face画像やOCTA(OCT Angiography)正面画像を生成することもできる。この場合、表示制御部203は、生成されたEn−Face画像やOCTA正面画像を表示部250に表示させることができる。また、解析部214は、生成されたEn−Face画像やOCTA正面画像について解析を行うこともできる。このとき、解析部214は、例えば、OCTA正面画像を解析することで、血管密度マップを得てもよい。
(Modification 2)
In the fifth embodiment, the analysis unit 214 generated a layer thickness map using a tomographic image with reduced folds. On the other hand, the analysis unit 214 can also generate an En-Face image of the eye E to be inspected and an OCTA (OCT Angiography) front image by using each tomographic image of the three-dimensional volume data with reduced folding. In this case, the display control unit 203 can display the generated En-Face image and the OCTA front image on the display unit 250. In addition, the analysis unit 214 can also analyze the generated En-Face image and OCTA front image. At this time, the analysis unit 214 may obtain a blood vessel density map by analyzing the OCTA front image, for example.

ここで、En−Face画像及びOCTA正面画像について説明する。En−Face画像は、光干渉を用いて得た3次元断層画像における任意の深度範囲のデータをXY方向に投影して生成した正面画像である。正面画像は、光干渉を用いて得たボリュームデータ(3次元断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影又は積算して生成される。 Here, the En-Face image and the OCTA front image will be described. The En-Face image is a frontal image generated by projecting data in an arbitrary depth range in a three-dimensional tomographic image obtained by using optical interference in the XY directions. The front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and the data corresponding to the depth range determined based on the two reference planes is displayed on the two-dimensional plane. It is generated by projecting or integrating on.

例えばEn−Face画像は、ボリュームデータのうちの、2次元断層画像についてのセグメンテーション処理により検出された網膜層に基づいて決定された深度範囲に対応するデータを二次元平面に投影して生成されることができる。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲(深度範囲)内における画素値の平均値、中央値又は最大値などの値を含むことができる。 For example, an En-Face image is generated by projecting data corresponding to a depth range determined based on a retinal layer detected by a segmentation process on a two-dimensional tomographic image of volume data onto a two-dimensional plane. be able to. As a method of projecting data corresponding to a depth range determined based on two reference planes on a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range (depth range) in the depth direction of a region surrounded by two reference planes.

En−Face画像に係る深度範囲は、例えば、上述したセグメンテーション処理の手法や後述する学習済モデルを用いたセグメンテーション処理によって検出された網膜層に関する2つの層境界を基準として指定されてよい。また、当該深度範囲は、これらセグメンテーション処理によって検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。この際、操作者は、例えば、断層画像上に重畳された、深度範囲の上限又は下限を示す指標を移動させる等により、深度範囲を変更することができる。 The depth range related to the En-Face image may be specified, for example, with reference to two layer boundaries relating to the retinal layer detected by the segmentation processing method described above or the segmentation processing using the learned model described later. Further, the depth range may be a range including a predetermined number of pixels in a deeper direction or a shallower direction with reference to one of the two layer boundaries relating to the retinal layer detected by these segmentation processes. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to the instruction of the operator from the range between the two layer boundaries regarding the detected retinal layer. Good. At this time, the operator can change the depth range by, for example, moving an index indicating the upper limit or the lower limit of the depth range superimposed on the tomographic image.

なお、生成される正面画像は、上述のような輝度値に基づくEn−Face画像(輝度のEn−Face画像)に限られない。生成される正面画像は、例えば、複数のボリュームデータ間のモーションコントラストデータについて、上述の深度範囲に対応するデータを2次元平面に投影又は積算して生成したモーションコントラスト正面画像であってもよい。ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTAに関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 The generated front image is not limited to the En-Face image (en-Face image of brightness) based on the brightness value as described above. The generated front image may be, for example, a motion contrast front image generated by projecting or integrating the data corresponding to the above-mentioned depth range on the motion contrast data between a plurality of volume data on a two-dimensional plane. Here, the motion contrast data is data indicating a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast front image is also referred to as an OCTA front image (OCTA En-Face image) relating to OCTA for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data. The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , It may be obtained by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected.

また、OCTA正面画像を生成する際に用いられる3次元OCTAデータ(OCTボリュームデータ)は、セグメンテーションに用いられる断層画像を含むボリュームデータと共通の断層画像又は干渉信号の少なくとも一部を用いて生成されてよい。これにより、ボリュームデータ(3次元断層画像)と3次元OCTAデータとが互いに対応することができる。そのため、ボリュームデータに対応する3次元モーションコントラストデータを用いて、例えば、セグメンテーションにより検出された網膜層に基づいて決定された深度範囲に対応するモーションコントラスト正面画像が生成されることができる。 Further, the three-dimensional OCTA data (OCT volume data) used when generating the OCTA front image is generated by using at least a part of the tomographic image or the interference signal common to the volume data including the tomographic image used for segmentation. It's okay. As a result, the volume data (three-dimensional tomographic image) and the three-dimensional OCTA data can correspond to each other. Therefore, using the three-dimensional motion contrast data corresponding to the volume data, for example, a motion contrast front image corresponding to a depth range determined based on the retinal layer detected by segmentation can be generated.

(変形例3)
なお、上記実施形態及び変形例では、解析部214がルールベースのセグメンテーションを行う構成とした。これに対し、解析部214は、学習済モデルを用いてセグメンテーション処理を行ってもよい。この際、解析部214は、学習済モデルを用いて断層画像からラベル画像を生成してもよい。ここでラベル画像とは、断層画像について画素毎に領域のラベルが付されたラベル画像をいう。具体的には、取得された画像に描出されている領域群のうち、任意の領域を特定可能な画素値(以下、ラベル値)群によって分けている画像のことである。ここで、特定される任意の領域には関心領域(ROI:Region Of Interest)や関心体積(VOI:Volume Of Interest)等が含まれる。
(Modification example 3)
In the above embodiment and the modified example, the analysis unit 214 is configured to perform rule-based segmentation. On the other hand, the analysis unit 214 may perform the segmentation process using the trained model. At this time, the analysis unit 214 may generate a label image from the tomographic image using the trained model. Here, the label image refers to a label image in which a region is labeled for each pixel of a tomographic image. Specifically, it is an image in which an arbitrary region is divided by a identifiable pixel value (hereinafter, label value) group among the region groups drawn in the acquired image. Here, the specified arbitrary region includes a region of interest (ROI: Region Of Interest), a volume of interest (VOI: Volume Of Interest), and the like.

画像から任意のラベル値を持つ画素の座標群を特定すると、画像中において対応する網膜層等の領域を描出している画素の座標群を特定できる。具体的には、例えば、網膜を構成する神経節細胞層を示すラベル値が1である場合、画像の画素群のうち画素値が1である座標群を特定し、画像から該座標群に対応する画素群を抽出する。これにより、当該画像における神経節細胞層の領域を特定できる。 By specifying the coordinate group of the pixel having an arbitrary label value from the image, the coordinate group of the pixel that depicts the corresponding region such as the retinal layer in the image can be specified. Specifically, for example, when the label value indicating the ganglion cell layer constituting the retina is 1, the coordinate group having the pixel value of 1 among the pixel groups of the image is specified, and the coordinate group corresponds to the coordinate group from the image. Extract the pixel group to be used. Thereby, the region of the ganglion cell layer in the image can be identified.

なお、セグメンテーション処理には、ラベル画像に対する縮小又は拡大処理を実施する処理が含まれてもよい。このとき、ラベル画像の縮小又は拡大に用いる画像補完処理手法は、未定義のラベル値や対応する座標に存在しないはずのラベル値を誤って生成しないような、最近傍法等を使うものとする。 The segmentation process may include a process of reducing or enlarging the label image. At this time, the image complement processing method used for reducing or enlarging the label image shall use the nearest neighbor method or the like so as not to erroneously generate an undefined label value or a label value that should not exist at the corresponding coordinates. ..

ここで、セグメンテーション処理についてより詳細に説明する。セグメンテーション処理とは、画像に描出された臓器や病変といった、ROIやVOIと呼ばれる領域を、画像診断や画像解析に利用するために特定する処理のことである。例えば、セグメンテーション処理によれば、後眼部を撮影対象としたOCTの撮影によって取得された画像から、網膜を構成する層群の領域群を特定することができる。なお、画像に特定すべき領域が描出されていなければ特定される領域の数は0である。また、画像に特定すべき複数の領域群が描出されていれば、特定される領域の数は複数であってもよいし、又は、該領域群を含むように囲む領域1つであってもよい。 Here, the segmentation process will be described in more detail. The segmentation process is a process for identifying an area called ROI or VOI, such as an organ or a lesion depicted in an image, for use in image diagnosis or image analysis. For example, according to the segmentation process, it is possible to identify the region group of the layer group constituting the retina from the image acquired by the OCT imaging of the back eye portion as the imaging target. If the area to be specified is not drawn in the image, the number of specified areas is 0. Further, as long as a plurality of region groups to be specified are depicted in the image, the number of the specified regions may be a plurality, or even one region surrounding the region groups so as to include the region groups. Good.

特定された領域群は、その他の処理において利用可能な情報として出力される。具体的には、例えば、特定された領域群のそれぞれを構成する画素群の座標群を数値データ群として出力することができる。また、例えば、特定された領域群のそれぞれを含む矩形領域や楕円領域、長方体領域、楕円体領域等を示す座標群を数値データ群として出力することもできる。さらに、例えば、特定された領域群の境界にあたる直線や曲線、平面、又は曲面等を示す座標群を数値データ群として出力することもできる。また、例えば、特定された領域群を示すラベル画像を出力することもできる。 The specified area group is output as information that can be used in other processing. Specifically, for example, the coordinate group of the pixel group constituting each of the specified region groups can be output as a numerical data group. Further, for example, a coordinate group indicating a rectangular region, an ellipsoid region, a rectangular parallelepiped region, an ellipsoid region, or the like including each of the specified region groups can be output as a numerical data group. Further, for example, a coordinate group indicating a straight line, a curve, a plane, a curved surface, or the like corresponding to the boundary of the specified region group can be output as a numerical data group. Further, for example, a label image showing the specified region group can be output.

ここで、セグメンテーション用の機械学習モデルとしては、例えば、畳み込みニューラルネットワーク(CNN)を用いることができる。なお、本変形例に係る機械学習モデルとしては、例えば、図4で示したようなCNN(U−net型の機械学習モデル)や、CNNとLSTM(Long Short−Term Memory)を組み合わせたモデルを用いることができる。また、機械学習モデルとしてFCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。さらに、所望の構成に応じて、領域単位で物体認識を行う機械学習モデル等を用いることができる。領域単位で物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Here, as a machine learning model for segmentation, for example, a convolutional neural network (CNN) can be used. As the machine learning model according to this modification, for example, a CNN (U-net type machine learning model) as shown in FIG. 4 or a model combining CNN and LSTM (Long Short-Term Memory) can be used. Can be used. Further, FCN (Full Convolutional Network), SegNet, or the like can also be used as the machine learning model. Further, a machine learning model or the like that recognizes an object in a region unit can be used according to a desired configuration. As a machine learning model that recognizes an object in a region unit, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Further, as a machine learning model for recognizing an object in a region unit, YOLO (You Only Look Object) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used.

また、セグメンテーション用の機械学習モデルの学習データは、断層画像を入力データとし、当該断層画像について画素毎に領域のラベルが付されたラベル画像を出力データとする。ラベル画像としては、例えば、内境界膜(ILM)、神経線維層(NFL)、神経節細胞層(GCL)、視細胞内節外節接合部(ISOS)、網膜色素上皮層(RPE)、ブルッフ膜(BM)、及び脈絡膜等のラベルが付されたラベル画像を用いることができる。なお、その他の領域として、例えば、硝子体、強膜、外網状層(OPL)、外顆粒層(ONL)、内網状層(IPL)、内顆粒層(INL)、角膜、前房、虹彩、及び水晶体等のラベルが付された画像を用いてもよい。 Further, as the training data of the machine learning model for segmentation, the tomographic image is used as the input data, and the label image in which the area is labeled for each pixel of the tomographic image is used as the output data. Label images include, for example, the inner limiting membrane (ILM), the nerve fiber layer (NFL), the ganglion cell layer (GCL), the photoreceptor inner segment outer segment junction (ISOS), the retinal pigment epithelial layer (RPE), and Bruch. Labeled images with labels such as membrane (BM) and choroid can be used. Other regions include, for example, the vitreous body, sclera, outer plexiform layer (OPL), outer nuclear layer (ONL), inner nuclear layer (IPL), inner nuclear layer (INL), cornea, anterior chamber, and iris. And an image with a label such as a crystalline lens may be used.

また、セグメンテーション用の機械学習モデルの入力データは断層画像に限られない。前眼部画像、眼底観察光学系を用いて得た正面画像、眼底カメラ等を用いて得られた眼底正面画像、又は上述したEn−Face画像やOCTA正面画像等であってもよい。この場合、学習データは、各種画像を入力データとし、各種画像の画素毎に領域名等がラベル付けされたラベル画像を出力データとすることができる。例えば、学習データの入力データが眼底の正面画像である場合には、出力データは、視神経乳頭の周辺部、Disc、及びCup等のラベルが付された画像であってよい。 Moreover, the input data of the machine learning model for segmentation is not limited to the tomographic image. It may be an anterior segment image, a frontal image obtained by using a fundus observation optical system, a fundus anterior image obtained by using a fundus camera or the like, or the En-Face image or OCTA frontal image described above. In this case, as the learning data, various images can be used as input data, and label images in which region names and the like are labeled for each pixel of various images can be used as output data. For example, when the input data of the training data is a frontal image of the fundus, the output data may be an image labeled with the peripheral portion of the optic disc, Disc, Cup, or the like.

なお、出力データとして用いられるラベル画像は、医師等により断層画像において各領域にラベルが付された画像であってもよいし、ルールベースの領域検出処理により各領域にラベルが付された画像であってもよい。ただし、適切にラベル付けが行われていないラベル画像を学習データの出力データとして用いて機械学習を行うと、当該学習データを用いて学習した学習済モデルを用いて得た画像も適切にラベル付けが行われていないラベル画像となってしまう可能性がある。そのため、そのようなラベル画像を含むペアを学習データから取り除くことで、学習済モデルを用いて適切でないラベル画像が生成される可能性を低減させることができる。 The label image used as the output data may be an image in which each region is labeled in the tomographic image by a doctor or the like, or an image in which each region is labeled by the rule-based region detection process. There may be. However, if machine learning is performed using a label image that is not properly labeled as the output data of the training data, the image obtained by using the trained model trained using the training data is also properly labeled. There is a possibility that the label image will not be used. Therefore, by removing the pair containing such a label image from the training data, it is possible to reduce the possibility that an inappropriate label image is generated by using the trained model.

解析部214は、このようなセグメンテーション用の学習済モデルを用いて、セグメンテーション処理を行うことで、各種画像について特定の領域を高速に精度良く検出することが期待できる。 The analysis unit 214 can be expected to detect a specific region of various images at high speed and with high accuracy by performing the segmentation process using such a trained model for segmentation.

(変形例4)
上記実施形態及び変形例では、解析部214が、折返し像が低減された断層画像について画像セグメンテーション処理を行った。これに対し、演算処理部213が、学習済モデルを用いて折返し像が低減された断層画像を生成する際に、断層画像の画素毎にラベル値が付されたラベル画像を生成してもよい。
(Modification example 4)
In the above embodiment and the modified example, the analysis unit 214 performs image segmentation processing on the tomographic image in which the folded image is reduced. On the other hand, when the arithmetic processing unit 213 uses the trained model to generate a tomographic image in which the folded image is reduced, a label image with a label value attached to each pixel of the tomographic image may be generated. ..

この場合には、演算処理部213が用いる学習済モデルの学習データの出力データとして、折返し像が生じていない断層画像703及び断層画像703について画素毎にラベル値が付されたラベル画像を用いる。なお、学習データ生成部602は、断層画像703について、上述のルールベース又は学習済モデルを用いたセグメンテーション処理によりラベル画像を生成してよい。これにより、学習データ生成部602は、断層画像703及び当該ラベル画像を学習データの出力データとして生成することができる。なお、ラベル画像については、学習データ生成部602によって生成されたラベル画像を検者等が修正したものであってもよい。また、学習済モデルは、学習の傾向に従って入力データに対応する可能性の高い出力データを出力するため、検者が適切でないとラベル画像は学習データから除外することとしてもよい。 In this case, as the output data of the training data of the trained model used by the arithmetic processing unit 213, a label image in which a label value is attached to each pixel of the tomographic image 703 and the tomographic image 703 in which the folded image does not occur is used. The learning data generation unit 602 may generate a label image of the tomographic image 703 by the segmentation process using the above-mentioned rule base or the trained model. As a result, the learning data generation unit 602 can generate the tomographic image 703 and the label image as output data of the learning data. The label image may be a label image generated by the learning data generation unit 602 modified by an examiner or the like. Further, since the trained model outputs output data that is likely to correspond to the input data according to the learning tendency, the label image may be excluded from the training data if the examiner is not appropriate.

このような場合には、解析部214は、演算処理部213によって出力されたラベル画像に基づいて画像解析処理を行うことができる。なお、演算処理部213は、折返し像が生じていない断層画像として、折返し像が低減された断層画像について画素毎にラベル値が付されたラベル画像のみを生成してもよい。この場合には、学習データ生成部602は、学習データの出力データとして、断層画像703について画素毎にラベル値が付されたラベル画像のみを用いてよい。 In such a case, the analysis unit 214 can perform image analysis processing based on the label image output by the arithmetic processing unit 213. The arithmetic processing unit 213 may generate only a label image in which a label value is attached to each pixel for the tomographic image in which the folded image is reduced, as a tomographic image in which the folded image is not generated. In this case, the learning data generation unit 602 may use only the label image in which the label value is attached to each pixel of the tomographic image 703 as the output data of the learning data.

これらの場合にも、制御部200は、演算処理部213が学習済モデルを用いてラベル画像を生成することにより、信頼性の高い解析結果を取得可能な断層情報を取得することができる。なお、学習済モデルは、折返し像が低減された断層画像を生成するための学習済モデルとラベル画像を生成するための学習済モデルを別々に用意してもよいし、両方の画像を生成するための一つの学習済モデルを用意してもよい。ラベル画像を生成するための学習済モデルについては、折返し像が生じていない断層画像703について画素毎にラベル値が付されたラベル画像のみを学習データの出力データとして学習を行えばよい。 In these cases as well, the control unit 200 can acquire tomographic information capable of acquiring a highly reliable analysis result by generating a label image by the arithmetic processing unit 213 using the trained model. As the trained model, a trained model for generating a tomographic image with a reduced folding image and a trained model for generating a label image may be separately prepared, or both images are generated. One trained model for this may be prepared. As for the trained model for generating the label image, only the label image in which the label value is attached to each pixel of the tomographic image 703 in which the folded image does not occur may be trained as the output data of the training data.

(変形例5)
変形例4では、演算処理部213は、折返し低減処理が行われた断層画像のラベル画像を出力した。これに対し、演算処理部213は、学習済モデルを用いて、折返し像が生じている領域と、折返し像が生じていない領域とをそれぞれ識別可能なラベル値を付したラベル画像を生成してもよい。このような場合、学習済モデルの学習データに関するラベル画像は、医師等によってラベル値が付されたラベル画像であってよい。具体的には、図7に示される断層画像702について、医師等が画素毎のラベルを付した画像を用いることができる。
(Modification 5)
In the modification 4, the arithmetic processing unit 213 outputs a label image of the tomographic image to which the folding reduction processing has been performed. On the other hand, the arithmetic processing unit 213 uses the trained model to generate a label image with a label value that can identify the region where the folded image is generated and the region where the folded image is not generated. May be good. In such a case, the label image relating to the training data of the trained model may be a label image to which a label value is given by a doctor or the like. Specifically, with respect to the tomographic image 702 shown in FIG. 7, an image in which a doctor or the like labels each pixel can be used.

この場合には、解析部214が、生成されたラベル画像におけるラベル値に基づいて、折返し像が生じていない領域を特定し、当該領域以外の領域における層構造を選択的に解析することで、信頼性の高い解析結果を得ることができることが期待できる。この場合には、制御部200は、折返し低減画像を生成しない。しかしながら、演算処理部213が学習済モデルを用いて、折返し像が生じている領域と折返し像が生じていない領域とをそれぞれ識別可能なラベル画像を生成することにより、制御部200は、信頼性の高い解析結果を取得可能な断層情報を取得することができる。 In this case, the analysis unit 214 identifies a region where the folded image does not occur based on the label value in the generated label image, and selectively analyzes the layer structure in the region other than the region. It can be expected that highly reliable analysis results can be obtained. In this case, the control unit 200 does not generate the folding reduction image. However, the arithmetic processing unit 213 uses the trained model to generate a label image that can distinguish between the area where the folded image is generated and the area where the folded image is not generated, so that the control unit 200 is reliable. It is possible to obtain fault information that can obtain high analysis results.

(変形例6)
また、解析部214は、セグメンテーション処理によって生成されたラベル画像について、学習済モデルを用いて画像解析処理を行ってもよい。このとき、画像解析用の学習済モデルは、断層画像を含む医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってよい。なお、医用画像には断層画像、眼底正面画像、前眼部画像、En−Face画像、及びOCTA正面画像等が含まれてよい。
(Modification 6)
Further, the analysis unit 214 may perform an image analysis process on the label image generated by the segmentation process using the trained model. At this time, the trained model for image analysis includes training data including a medical image including a tomographic image and an analysis result of the medical image, and an analysis result of the medical image and a medical image of a type different from the medical image. It may be obtained by learning using the included learning data or the like. The medical image may include a tomographic image, a fundus anterior image, an anterior segment image, an En-Face image, an OCTA anterior image, and the like.

また、画像解析を行うための学習済モデルの学習データは、画像セグメンテーション処理用の学習済モデルを用いて生成されたラベル画像と、当該ラベル画像を用いた医用画像の解析結果とを含んだものでもよい。この場合、解析部214は、例えば、解析結果生成用の学習済モデルを用いて、画像セグメンテーション処理の結果から、断層画像の解析結果を生成することができる。さらに、学習済モデルは、En−Face画像及びOCTA正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。 Further, the training data of the trained model for performing image analysis includes a label image generated by using the trained model for image segmentation processing and an analysis result of a medical image using the label image. It may be. In this case, the analysis unit 214 can generate the analysis result of the tomographic image from the result of the image segmentation processing by using, for example, the trained model for generating the analysis result. Further, the trained model is obtained by learning using training data including input data including a set of a plurality of medical images of different types of predetermined parts, such as an En-Face image and an OCTA front image. May be good.

また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付けしたデータであってもよい。なお、表示制御部203は、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果を表示部250に表示させるように構成されてもよい。 Further, the training data includes, for example, at least the analysis value (for example, average value, median value, etc.) obtained by analyzing the analysis area, the table including the analysis value, the analysis map, the position of the analysis area such as the sector in the image, and the like. The information including one may be the data labeled with the input data as the correct answer data (for supervised learning). The display control unit 203 may be configured to display the analysis result obtained by using the learned model for generating the analysis result on the display unit 250 in response to an instruction from the operator.

(変形例7)
また、上述した様々な実施形態及び変形例における解析部214は、折返し像の低減された断層画像を用いて、解析結果や診断結果等を生成してもよい。このとき、表示制御部203は、表示画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。このとき、例えば、各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い解析結果を表示させることができる。なお、アーチファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーチファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーチファクト等であってもよい。また、アーチファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、表示制御部203は、上述したような様々なアーチファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示部250に表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、及びシュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。なお、画像解析処理は解析部214によって行われてもよいし、解析部214とは別の解析部によって行われてもよい。さらに、画像解析が行われる画像は、折返し像の低減された画像であってもよいし、折返し像の低減されていない画像であってもよい。
(Modification 7)
In addition, the analysis unit 214 in the various embodiments and modifications described above may generate an analysis result, a diagnosis result, or the like by using a tomographic image in which the folded image is reduced. At this time, the display control unit 203 may display the analysis results such as the layer thickness of the desired layer and various blood vessel densities on the display screen. In addition, the optic nerve head, macular region, vascular region, nerve fiber bundle, vitreous region, macular region, choroidal region, scleral region, lamina cribrosa region, retinal layer boundary, retinal layer boundary edge, photoreceptor cells, blood cells, The value (distribution) of the parameter relating to the site of interest including at least one such as the vascular wall, the vascular inner wall boundary, the vascular lateral boundary, the ganglion cell, the corneal region, the corner region, and Schlemm's canal may be displayed as the analysis result. At this time, for example, by analyzing a medical image to which various artifact reduction processes are applied, it is possible to display an accurate analysis result. The artifact is, for example, a false image region generated by light absorption by a blood vessel region or the like, a projection artifact, a band-shaped artifact in a front image generated in the main scanning direction of the measured light depending on the state of the eye to be inspected (movement, blinking, etc.), or the like. There may be. Further, the artifact may be any image loss region as long as it is randomly generated for each image taken on a medical image of a predetermined portion of the subject, for example. Further, the display control unit 203 may display the value (distribution) of the parameter relating to the region including at least one of the various artifacts (copy loss region) as described above on the display unit 250 as the analysis result. Further, the value (distribution) of the parameter relating to the region including at least one such as drusen, new blood vessel, vitiligo (hard vitiligo), and abnormal site such as pseudo-drusen may be displayed as the analysis result. The image analysis process may be performed by the analysis unit 214, or may be performed by an analysis unit different from the analysis unit 214. Further, the image for which the image analysis is performed may be an image in which the folded image is reduced, or an image in which the folded image is not reduced.

また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、解析部214又は別の解析部が、断層画像を含む医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成したものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。 Further, the analysis result may be displayed in an analysis map, a sector showing statistical values corresponding to each divided area, or the like. The analysis result is a trained model (analysis result generation engine, trained for analysis result generation) obtained by the analysis unit 214 or another analysis unit learning the analysis result of the medical image including the tomographic image as training data. It may be generated using a model). At this time, the trained model is trained using training data including a medical image and an analysis result of the medical image, training data including a medical image and an analysis result of a medical image of a type different from the medical image, and the like. It may be obtained by.

また、学習データは、セグメンテーション処理により生成された領域ラベル画像と、それらを用いた医用画像の解析結果とを含んだものでもよい。この場合、画像処理部210は、例えば、解析結果生成用の学習済モデルを用いて、セグメンテーション処理を実行して得た結果(例えば、網膜層の検出結果)から、断層画像の解析結果を生成する、解析結果生成部の一例として機能することができる。言い換えれば、画像処理部210は、折返し像が低減された断層画像を生成するための学習済モデルとは異なる解析結果生成用の学習済モデル(第2の学習済モデル)を用いて、折返し像が低減された断層画像におけるセグメンテーション処理により特定した異なる領域それぞれについて画像解析結果を生成することができる。また、画像処理部210は、折返し像の低減された画像を用いて得たEn−Face画像やOCTA正面画像等の医用画像について、解析結果生成用の学習済モデルを用いて画像解析処理を行ってもよい。 Further, the learning data may include the area label image generated by the segmentation process and the analysis result of the medical image using them. In this case, the image processing unit 210 generates an analysis result of a tomographic image from a result obtained by executing a segmentation process (for example, a detection result of the retinal layer) using, for example, a trained model for generating an analysis result. It can function as an example of the analysis result generation unit. In other words, the image processing unit 210 uses a trained model (second trained model) for generating analysis results, which is different from the trained model for generating a tomographic image with reduced folded images, and the folded image. Image analysis results can be generated for each of the different regions identified by the segmentation process in the tomographic image with reduced. Further, the image processing unit 210 performs image analysis processing on a medical image such as an En-Face image or an OCTA front image obtained by using an image in which the folded image is reduced, using a trained model for generating an analysis result. You may.

さらに、学習済モデルは、輝度正面画像及びモーションコントラスト正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。ここで、輝度正面画像は輝度のEn−Face画像に対応し、モーションコントラスト正面画像はOCTAのEn−Face画像に対応する。 Further, the trained model is obtained by learning using training data including input data in which a plurality of medical images of different types of predetermined parts are set, such as a luminance front image and a motion contrast front image. May be good. Here, the brightness front image corresponds to the brightness En-Face image, and the motion contrast front image corresponds to the OCTA En-Face image.

また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果が表示されるように構成されてもよい。 Further, the training data includes, for example, at least the analysis value (for example, average value, median value, etc.) obtained by analyzing the analysis area, the table including the analysis value, the analysis map, the position of the analysis area such as the sector in the image, and the like. The information including one may be the data labeled (annotated) with the input data as the correct answer data (for supervised learning). In addition, the analysis result obtained by using the trained model for generating the analysis result may be displayed according to the instruction from the operator.

また、上述した実施例及び変形例における表示制御部203は、表示画面において、緑内障や加齢黄斑変性等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果としては、特定された異常部位等の位置が画像上に表示されてもよいし、異常部位の状態等が文字等によって表示されてもよい。さらに、異常部位等の分類結果(例えば、カーティン分類)が診断結果として表示されてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA正面画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。 In addition, the display control unit 203 in the above-described examples and modifications may display various diagnostic results such as glaucoma and age-related macular degeneration on the display screen. At this time, for example, by analyzing a medical image to which various artifact reduction processes as described above are applied, it is possible to display an accurate diagnostic result. Further, as the diagnosis result, the position of the specified abnormal portion or the like may be displayed on the image, or the state or the like of the abnormal portion may be displayed by characters or the like. Further, the classification result of the abnormal part or the like (for example, Curtin classification) may be displayed as the diagnosis result. Further, as the classification result, for example, information indicating the certainty of each abnormal part (for example, a numerical value indicating the ratio) may be displayed. In addition, information necessary for the doctor to confirm the diagnosis may be displayed as a diagnosis result. As the necessary information, for example, advice such as additional shooting can be considered. For example, when an abnormal site is detected in the blood vessel region in the OCTA front image, it may be displayed that fluorescence imaging using a contrast medium capable of observing the blood vessel in more detail than OCTA is performed.

なお、診断結果は、制御部200が、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。 The diagnosis result is generated by using a trained model (diagnosis result generation engine, trained model for generating diagnosis result) obtained by the control unit 200 learning the diagnosis result of the medical image as learning data. It may be. In addition, the trained model is based on training using training data including a medical image and a diagnosis result of the medical image, and training data including a medical image and a diagnosis result of a medical image of a type different from the medical image. It may be obtained.

また、学習データは、セグメンテーション処理により生成された領域ラベル画像と、それらを用いた医用画像の診断結果とを含んだものでもよい。この場合、画像処理部210は、例えば、診断結果生成用の学習済モデルを用いて、セグメンテーション処理を実行して得た結果(例えば、網膜層の検出結果)から、断層画像の診断結果を生成する、診断結果生成部の一例として機能することができる。言い換えれば、画像処理部210は、折返し像が低減された断層画像を生成するための学習済モデルとは異なる診断結果生成用の学習済モデル(第3の学習済モデル)を用いて、折返し像が低減された断層画像におけるセグメンテーション処理により特定した異なる領域それぞれについて診断結果を生成することができる。また、画像処理部210は、折返し像の低減された断層画像を用いて得たEn−Face画像やOCTA正面画像等の医用画像について、診断結果生成用の学習済モデルを用いて診断結果を生成してもよい。 Further, the learning data may include the area label image generated by the segmentation process and the diagnostic result of the medical image using them. In this case, the image processing unit 210 generates a diagnosis result of a tomographic image from a result obtained by executing a segmentation process (for example, a detection result of the retinal layer) using, for example, a trained model for generating a diagnosis result. It can function as an example of a diagnosis result generation unit. In other words, the image processing unit 210 uses a trained model (third trained model) for generating diagnostic results, which is different from the trained model for generating a tomographic image with reduced folded images, and the folded image. Diagnostic results can be generated for each of the different regions identified by the segmentation process in the tomographic image with reduced. Further, the image processing unit 210 generates a diagnostic result using a trained model for generating a diagnostic result for a medical image such as an En-Face image or an OCTA front image obtained by using a tomographic image with a reduced folded image. You may.

また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルを用いて得た診断結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, the findings (interpretation findings, etc.), and the basis of the diagnosis name (affirmation). Information including at least one such as (general medical support information, etc.) and grounds for denying the diagnosis name (negative medical support information), etc. are labeled (annotated) in the input data as correct answer data (for supervised learning). It may be data. In addition, according to the instruction from the examiner, the diagnosis result obtained by using the trained model for generating the diagnosis result may be displayed.

また、異常部位を検出する場合には、画像処理部210は、敵対的生成ネットワーク(GAN:Generative Adversarial Networks)や変分オートエンコーダー(VAE:Variational Auto−Encoder)を用いてもよい。例えば、断層画像の生成を学習して得た生成器と、生成器が生成した新たな断層画像と本物の眼底正面画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。 Further, when detecting an abnormal portion, the image processing unit 210 may use a hostile generation network (GAN: Generative Adversarial Networks) or a variational autoencoder (VAE: Variational Auto-Encoder). For example, a DCGAN (Deep Convolutional GAN) consisting of a generator obtained by learning the generation of a tomographic image and a discriminator obtained by learning the discrimination between a new tomographic image generated by the generator and a real frontal image of the fundus of the eye. ) Can be used as a machine learning model.

DCGANを用いる場合には、例えば、識別器が入力された断層画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。また、VAEを用いる場合には、例えば、入力された断層画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。なお、入力データの例として断層画像を例として説明したが、眼底画像や前眼の正面画像等を用いてもよい。 When DCGAN is used, for example, the discriminator encodes the input tomographic image into a latent variable, and the generator generates a new tomographic image based on the latent variable. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal part. When VAE is used, for example, the input tomographic image is encoded by an encoder to be a latent variable, and the latent variable is decoded by a decoder to generate a new tomographic image. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal part. Although a tomographic image has been described as an example of the input data, a fundus image, a frontal image of the anterior eye, or the like may be used.

さらに、画像処理部210は、畳み込みオートエンコーダー(CAE:Convolutional Auto−Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ画像を学習させる。これにより、推定時に異常部位がある画像をCAEに入力すると、学習の傾向に従って異常部位がない画像が出力される。その後、CAEに入力された画像とCAEから出力された画像の差分を異常部位として抽出することができる。なお、この場合にも、断層画像だけでなく、眼底画像や前眼の正面画像等を入力データとして用いてもよい。 Further, the image processing unit 210 may detect an abnormal portion by using a convolutional autoencoder (CAE). When CAE is used, the same image is learned as input data and output data at the time of learning. As a result, when an image with an abnormal part is input to CAE at the time of estimation, an image without an abnormal part is output according to the learning tendency. After that, the difference between the image input to the CAE and the image output from the CAE can be extracted as an abnormal portion. In this case as well, not only the tomographic image but also the fundus image, the frontal image of the anterior eye, and the like may be used as input data.

これらの場合、画像処理部210は、敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、画像処理部210は、高速に精度よく異常部位を検出することが期待できる。ここで、オートエンコーダーには、VAEやCAE等が含まれる。 In these cases, the image processing unit 210 provides information on the difference between the medical image obtained by using the hostile generation network or the autoencoder and the medical image input to the hostile generation network or the autoencoder as information on the abnormal portion. Can be generated as. As a result, the image processing unit 210 can be expected to detect the abnormal portion at high speed and with high accuracy. Here, the autoencoder includes VAE, CAE, and the like.

また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の画像が、既に機械学習等によって該複数の画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。例えば、画像処理部210は、折返し像が低減された断層画像を生成するための学習済モデルとは異なる類似症例画像検索用の学習済モデル(第4の学習済モデル)を用いて、折返し像の低減された断層画像から、該断層画像に関連する類似症例画像の検索を行うことができる。また、画像処理部210は、折返し像の低減された断層画像を用いて得たEn−Face画像やOCTA正面画像等の医用画像について、類似症例画像検索の学習済モデルを用いて類似症例画像の検索を行ってもよい。 Further, a similar case image search using an external database stored in a server or the like may be performed using the analysis result, the diagnosis result, etc. obtained by the processing of the learned model as described above as a search key. If a plurality of images stored in the database are already managed by machine learning or the like with the feature amount of each of the plurality of images attached as incidental information, the image itself is used as a search key. A similar case image search engine (similar case image search model, trained model for similar case image search) may be used. For example, the image processing unit 210 uses a trained model (fourth trained model) for searching for similar case images, which is different from the trained model for generating a tomographic image with reduced folded images, and uses a folded image. From the reduced tomographic image of, it is possible to search for similar case images related to the tomographic image. In addition, the image processing unit 210 uses a trained model for similar case image search to obtain similar case images for medical images such as En-Face images and OCTA front images obtained by using tomographic images with reduced folded images. You may perform a search.

(変形例8)
なお、上記実施形態及び変形例における折返し低減処理は、断層画像の画素値に基づいて行われる構成に限られない。上記各種処理は、光学ヘッド部100で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データに対して適用されてよい。これらの場合も、上記構成と同様の効果を奏することができる。
(Modification 8)
The folding reduction processing in the above-described embodiment and modification is not limited to the configuration performed based on the pixel value of the tomographic image. The various processes are performed on the interference signal acquired by the optical head unit 100, the signal obtained by subjecting the interference signal to Fourier transform, the signal obtained by subjecting the signal to arbitrary processing, and the tomographic data including the tomographic image based on these. May be applied. In these cases as well, the same effect as the above configuration can be obtained.

上述した実施形態及び変形例に係る折返し低減処理用の学習済モデルでは、断層画像の輝度値の大小、ボケ量、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。特に、折返し低減処理用の学習済モデルは、例えば、学習データに含まれる折返しのある画像と折返しのない画像で、折返しの特徴量を学習し、さらに、推定結果においてその特徴量がなくなるような学習を行うと考えられる。また、網膜層の走行方向が折返し領域とそれ以外とで明らかに異なるため、折返し低減処理用の学習済モデルは、例えば、そのような特徴量を学習することで、折返し領域を選択的に低減することができる可能性がある。さらに、画像セグメンテーション処理用等の学習済モデルでは、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。 In the trained model for the folding reduction process according to the above-described embodiment and modification, the feature quantities include the magnitude of the brightness value of the tomographic image, the amount of blur, the order and inclination of the bright and dark areas, the position, the distribution, and the continuity. It can be considered that it is extracted as a part and used for the estimation process. In particular, in the trained model for the folding reduction process, for example, the feature amount of the folding is learned from the image with the folding and the image without the folding included in the training data, and the feature amount disappears in the estimation result. It is thought that learning will be done. Further, since the traveling direction of the retinal layer is clearly different between the folded region and the other regions, the trained model for the folded reduction process selectively reduces the folded region by learning such a feature amount, for example. There is a possibility that it can be done. Furthermore, in a trained model for image segmentation processing, etc., the magnitude of the brightness value of the tomographic image, the order and inclination of the bright and dark areas, the position, distribution, continuity, etc. are extracted as part of the feature amount and estimated. It can be considered that it is used for.

また、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 Further, the training data of various trained models is not limited to the data obtained by using the ophthalmic apparatus itself that actually performs the imaging, and the data obtained by using the same type of ophthalmic apparatus or the same type according to the desired configuration. It may be data obtained by using an ophthalmic apparatus or the like.

なお、上述した実施形態及び変形例に係る各種学習済モデルは制御部200に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、制御部200と接続される別のサーバの装置等に設けられてもよい。この場合には、制御部200は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。この場合、複数のOCT装置で学習済モデルを共有してもよい。 In addition, various trained models according to the above-described embodiment and modification can be provided in the control unit 200. The trained model may be composed of, for example, a CPU, a software module executed by a processor such as an MPU, GPU, or FPGA, or a circuit or the like that performs a specific function such as an ASIC. Further, these learned models may be provided in a device of another server connected to the control unit 200 or the like. In this case, the control unit 200 can use the trained model by connecting to a server or the like provided with the trained model via an arbitrary network such as the Internet. Here, the server provided with the trained model may be, for example, a cloud server, a fog server, an edge server, or the like. In this case, the trained model may be shared by a plurality of OCT devices.

さらに、上記実施形態及び変形例では、OCT装置として、SLDを光源として用いたスペクトラムドメインOCT(SD−OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS−OCT:Swept Source OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine−OCT装置(あるいはSS−Line−OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field−OCT装置(あるいはSS−Full Field−OCT装置)にも本発明を適用することもできる。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。 Further, in the above-described embodiments and modifications, a spectrum domain OCT (SD-OCT) device using an SLD as a light source has been described as the OCT device, but the configuration of the OCT device according to the present invention is not limited to this. For example, the present invention may be applied to any other type of OCT device such as a wavelength sweep type OCT (SS-OCT: Swept Source OCT) device using a wavelength sweep light source capable of sweeping the wavelength of emitted light. Can be done. The present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. The present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light. Further, the SLO device and the OCT device may include a wave surface compensation SLO (AO-SLO) device using a wave surface compensation optical system, a wave surface compensation OCT (AO-OCT) device, and the like. Further, the SLO device and the OCT device may include a polarized SLO (PS-SLO) device, a polarized OCT (PS-OCT) device, and the like for visualizing information on polarization phase difference and polarization elimination.

なお、SS−OCT装置では、ラインセンサ154を用いず、学習データを生成するための断層画像を取得する際には、例えば、干渉信号のサンプリング数を増やすことで、撮影範囲を広げることができる。より具体的には、例えば、干渉信号をサンプリングする際のkクロックと呼ばれるクロック信号を高周波数化してA/D変換器の処理を高速化させることで、撮影範囲を広げることができる。このため、SS−OCT装置の場合には、学習装置は、A/D変換器の処理を高速化させて撮影範囲を広げた断層画像を学習データの生成に用いてもよい。 In the SS-OCT apparatus, when acquiring a tomographic image for generating learning data without using the line sensor 154, for example, the imaging range can be expanded by increasing the number of interference signal samples. .. More specifically, for example, the imaging range can be expanded by increasing the frequency of a clock signal called the k clock when sampling the interference signal to speed up the processing of the A / D converter. Therefore, in the case of the SS-OCT apparatus, the learning apparatus may use a tomographic image in which the processing of the A / D converter is accelerated to widen the imaging range to generate the learning data.

(その他の実施例)
本発明は、上述の実施形態及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
(Other Examples)
The present invention is also a process in which a program that realizes one or more functions of the above-described embodiments and modifications is supplied to a system or device via a network or storage medium, and a computer of the system or device reads and executes the program. It is feasible. A computer may have one or more processors or circuits and may include multiple separate computers or a network of separate processors or circuits to read and execute computer executable instructions.

プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

以上、実施形態及び変形例を参照して本発明について説明したが、本発明は上記実施形態及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to the embodiments and modifications, the present invention is not limited to the above embodiments and modifications. The present invention also includes inventions modified to the extent not contrary to the gist of the present invention, and inventions equivalent to the present invention. In addition, the above-described embodiments and modifications can be appropriately combined as long as they do not contradict the gist of the present invention.

200:制御部(画像処理装置)、201:取得部、213:演算処理部 200: Control unit (image processing device), 201: Acquisition unit, 213: Arithmetic processing unit

Claims (28)

被検眼の第1の断層画像を取得する取得部と、
学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が低減された第2の断層画像を生成する演算処理部と、
を備える、画像処理装置。
The acquisition unit that acquires the first tomographic image of the eye to be inspected,
An arithmetic processing unit that generates a second tomographic image in which the folded image in the first tomographic image is reduced from the first tomographic image using the trained model.
An image processing device.
前記第2の断層画像は、前記第1の断層画像における前記折返し像が除去された又は正規の像として現れている断層画像である、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the second tomographic image is a tomographic image in which the folded image in the first tomographic image is removed or appears as a normal image. 前記演算処理部は、
前記学習済モデルに前記第1の断層画像を入力し、
前記学習済モデルから、前記第1の断層画像における前記折返し像が除去された第3の断層画像を取得し、
前記第3の断層画像に基づいて前記第2の断層画像を生成する、請求項1又は2に記載の画像処理装置。
The arithmetic processing unit
The first tomographic image is input to the trained model,
From the trained model, a third tomographic image in which the folded image in the first tomographic image is removed is acquired.
The image processing apparatus according to claim 1 or 2, which generates the second tomographic image based on the third tomographic image.
前記演算処理部は、
前記第1の断層画像と前記第3の断層画像の差分を上下反転して第4の断層画像を生成し、
前記第3の断層画像と前記第4の断層画像を連結することで、前記第2の断層画像を生成する、請求項3に記載の画像処理装置。
The arithmetic processing unit
The difference between the first tomographic image and the third tomographic image is flipped upside down to generate a fourth tomographic image.
The image processing apparatus according to claim 3, wherein the second tomographic image is generated by connecting the third tomographic image and the fourth tomographic image.
前記演算処理部は、
前記第1の断層画像から、前記折返し像が生じる第1の領域の画像を抽出し、
前記第1の領域の画像を前記学習済モデルに入力して得た第2の領域の画像を、前記第1の断層画像における前記第1の領域以外の領域の画像と連結することで、前記第2の断層画像を生成する、請求項1又は2に記載の画像処理装置。
The arithmetic processing unit
From the first tomographic image, an image of the first region where the folded image is generated is extracted.
By connecting the image of the second region obtained by inputting the image of the first region into the trained model with the image of the region other than the first region in the first tomographic image, the said The image processing apparatus according to claim 1 or 2, which generates a second tomographic image.
前記演算処理部は、前記第1の領域の画像として、前記第1の断層画像における所定の領域の画像を抽出する、請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the arithmetic processing unit extracts an image of a predetermined region in the first tomographic image as an image of the first region. 前記演算処理部は、前記第1の断層画像を画像解析して前記第1の領域の画像を抽出する、請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the arithmetic processing unit analyzes an image of the first tomographic image and extracts an image of the first region. 被検眼の医用画像を画像解析する解析部を更に備え、
前記解析部は、前記画像解析により、前記第1の断層画像及び前記第2の断層画像のうちの少なくとも一方における層境界を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。
It also has an analysis unit that analyzes the medical image of the eye to be inspected.
The image processing according to any one of claims 1 to 7, wherein the analysis unit detects a layer boundary in at least one of the first tomographic image and the second tomographic image by the image analysis. apparatus.
前記解析部は、前記層境界に基づいて、前記第1の断層画像及び前記第2の断層画像のうちの少なくとも一方を用いたマップ画像、En−Face画像、及びOCTA正面画像のうちの少なくとも一つを生成する、請求項8に記載の画像処理装置。 Based on the layer boundary, the analysis unit uses at least one of a map image, an En-Face image, and an OCTA front image using at least one of the first tomographic image and the second tomographic image. The image processing apparatus according to claim 8, wherein the image processing apparatus is generated. 前記マップ画像は、層厚マップ及び血管密度マップのうちの少なくとも一方を含む、請求項9に記載の画像処理装置。 The image processing apparatus according to claim 9, wherein the map image includes at least one of a layer thickness map and a blood vessel density map. 表示モードに応じて、前記第1の断層画像と前記第2の断層画像とを切り替えて表示部に表示させる、表示制御部を更に備える、請求項1乃至10のいずれか一項に記載の画像処理装置。 The image according to any one of claims 1 to 10, further comprising a display control unit that switches between the first tomographic image and the second tomographic image and displays them on the display unit according to the display mode. Processing equipment. 表示モードに応じて、前記第1の断層画像と前記第2の断層画像とを切り替えて表示部に表示させる、表示制御部を更に備え、
前記表示制御部は、前記表示モードに応じて、前記第1の断層画像の解析結果と前記第2の断層画像の解析結果とを切り替えて表示部に表示させる、請求項8乃至10のいずれか一項に記載の画像処理装置。
A display control unit that switches between the first tomographic image and the second tomographic image and displays them on the display unit according to the display mode is further provided.
Any of claims 8 to 10, wherein the display control unit switches between the analysis result of the first tomographic image and the analysis result of the second tomographic image and displays them on the display unit according to the display mode. The image processing apparatus according to one item.
前記表示制御部は、前記第2の断層画像とともに前記第2の断層画像を説明する文章を前記表示部に表示させる、請求項11又は12に記載の画像処理装置。 The image processing device according to claim 11 or 12, wherein the display control unit displays a sentence explaining the second tomographic image together with the second tomographic image on the display unit. 前記第2の断層画像には、コヒーレンスゲート位置に対応する位置にマスク領域が設けられている、請求項1乃至13のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 13, wherein a mask region is provided at a position corresponding to a coherence gate position in the second tomographic image. 前記演算処理部は、
前記第1の断層画像が前記折返し像を含むか否かを判定し、
前記第1の断層画像が前記折返し像を含むと判定した場合に、前記第2の断層画像を生成する、請求項1乃至14のいずれか一項に記載の画像処理装置。
The arithmetic processing unit
It is determined whether or not the first tomographic image includes the folded image, and the image is determined.
The image processing apparatus according to any one of claims 1 to 14, which generates the second tomographic image when it is determined that the first tomographic image includes the folded image.
前記演算処理部は、設定又は操作者の指示に応じて、前記第2の断層画像を生成する、請求項1乃至14のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 14, wherein the arithmetic processing unit generates the second tomographic image in response to a setting or an instruction of an operator. 前記学習済モデルは、断層画像を入力データとし、該断層画像に対応する、折返し像のない断層画像を出力データとした学習データを用いて学習を行った機械学習モデルである、請求項1乃至16のいずれか一項に記載の画像処理装置。 The trained model is a machine learning model in which training is performed using training data using a tomographic image as input data and a tomographic image without a folded image as output data corresponding to the tomographic image. The image processing apparatus according to any one of 16. 前記学習済モデルは、断層画像を入力データとし、該断層画像に対応する、折返し像が正規の像として現れている断層画像を出力データとした学習データを用いて学習を行った機械学習モデルである、請求項1、2、及び5〜16のいずれか一項に記載の画像処理装置。 The trained model is a machine learning model in which training is performed using training data in which a tomographic image is used as input data and a tomographic image in which a folded image appears as a normal image corresponding to the tomographic image is used as output data. The image processing apparatus according to any one of claims 1, 2, and 5 to 16. 前記学習データは、折返し像を含まない断層画像を用いて生成されたデータである、請求項17又は18に記載の画像処理装置。 The image processing apparatus according to claim 17 or 18, wherein the learning data is data generated using a tomographic image that does not include a folded image. 前記第2の断層画像は、輝度を画素値とした断層画像及び画素毎にラベル値が付された断層画像のうちの少なくとも一方である、請求項1乃至19のいずれか一項に記載の画像処理装置。 The image according to any one of claims 1 to 19, wherein the second tomographic image is at least one of a tomographic image having brightness as a pixel value and a tomographic image having a label value for each pixel. Processing equipment. 被検眼の第1の断層画像に対応する断層データを取得する取得部と、
学習済モデルを用いて、前記断層データから、前記第1の断層画像における折返し像が低減された第2の断層画像を生成する演算処理部と、
を備える、画像処理装置。
An acquisition unit that acquires tomographic data corresponding to the first tomographic image of the eye to be inspected,
An arithmetic processing unit that generates a second tomographic image in which the folded image in the first tomographic image is reduced from the tomographic data using the trained model.
An image processing device.
被検眼の第1の断層画像を取得する取得部と、
学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が生じている領域と生じていない領域とを識別可能なラベル付けがなされた第2の断層画像を生成する演算処理部と、
を備える、画像処理装置。
The acquisition unit that acquires the first tomographic image of the eye to be inspected,
Using the trained model, a second tomographic image is labeled from the first tomographic image so as to be able to distinguish between a region in which the folded image is generated and a region in which the folded image is not generated in the first tomographic image. The arithmetic processing unit to be generated and
An image processing device.
前記第2の断層画像を生成するための学習済モデルとは異なる学習済モデルを用いて、前記第2の断層画像又は前記第2の断層画像を用いて得た医用画像から、画像解析結果を生成する画像処理部を更に備える、請求項1乃至22のいずれか一項に記載の画像処理装置。 Using a trained model different from the trained model for generating the second tomographic image, the image analysis result is obtained from the second tomographic image or the medical image obtained by using the second tomographic image. The image processing apparatus according to any one of claims 1 to 22, further comprising an image processing unit for generating. 前記第2の断層画像を生成するための学習済モデルとは異なる学習済モデルを用いて、前記第2の断層画像又は前記第2の断層画像を用いて得た医用画像から、診断結果を生成する画像処理部を更に備える、請求項1乃至23のいずれか一項に記載の画像処理装置。 A diagnostic result is generated from the second tomographic image or a medical image obtained by using the second tomographic image using a trained model different from the trained model for generating the second tomographic image. The image processing apparatus according to any one of claims 1 to 23, further comprising an image processing unit. 前記第2の断層画像又は前記第2の断層画像を用いて得た医用画像から、敵対的生成ネットワーク又はオートエンコーダーを用いて得た画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された画像との差に関する情報を異常部位に関する情報として生成する画像処理部を更に備える、請求項1乃至24のいずれか一項の記載の画像処理装置。 From the second tomographic image or the medical image obtained by using the second tomographic image, an image obtained by using a hostile generation network or an auto encoder and an image obtained by the hostile generation network or the auto encoder were input to the hostile generation network or the auto encoder. The image processing apparatus according to any one of claims 1 to 24, further comprising an image processing unit that generates information regarding a difference from an image as information regarding an abnormal portion. 前記第2の断層画像を生成するための学習済モデルとは異なる学習済モデルを用いて、前記第2の断層画像又は前記第2の断層画像を用いて得た医用画像から、類似症例画像の検索を行う画像処理部を更に備える、請求項1乃至25のいずれか一項に記載の画像処理装置。 Using a trained model different from the trained model for generating the second tomographic image, a similar case image is obtained from the second tomographic image or the medical image obtained by using the second tomographic image. The image processing apparatus according to any one of claims 1 to 25, further comprising an image processing unit for performing a search. 被検眼の第1の断層画像を取得することと、
学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が低減された第2の断層画像を生成することと、
を含む、画像処理方法。
Acquiring the first tomographic image of the eye to be inspected
Using the trained model, a second tomographic image in which the folded image in the first tomographic image is reduced is generated from the first tomographic image.
Image processing methods, including.
プロセッサーによって実行されると、該プロセッサーに請求項27に記載の画像処理方法の各工程を実行させる、プログラム。 A program that, when executed by a processor, causes the processor to perform each step of the image processing method according to claim 27.
JP2019183043A 2019-10-03 2019-10-03 Image processing device, image processing method and program Pending JP2021058285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019183043A JP2021058285A (en) 2019-10-03 2019-10-03 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183043A JP2021058285A (en) 2019-10-03 2019-10-03 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2021058285A true JP2021058285A (en) 2021-04-15

Family

ID=75380692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183043A Pending JP2021058285A (en) 2019-10-03 2019-10-03 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2021058285A (en)

Similar Documents

Publication Publication Date Title
US20210224997A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP2020093076A (en) Medical image processing device, learned model, medical image processing method and program
WO2020036182A1 (en) Medical image processing device, medical image processing method, and program
US11887288B2 (en) Image processing apparatus, image processing method, and storage medium
CN113226153A (en) Image processing apparatus, image processing method, and program
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
WO2021029231A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP7362403B2 (en) Image processing device and image processing method
WO2021106987A1 (en) Medical image processing device, optical coherence tomography device, medical image processing method, and program
JP2021037239A (en) Area classification method
WO2020075719A1 (en) Image processing device, image processing method, and program
JP2019054992A (en) Ophthalmologic device and program
WO2020050308A1 (en) Image processing device, image processing method and program
WO2021100694A1 (en) Image processing device, image processing method, and program
US20200281464A1 (en) Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium
WO2022145129A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
JP2020032072A (en) Image processing device, image processing method and program
JP7494855B2 (en) IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING PROGRAM
JP2021058285A (en) Image processing device, image processing method and program
JP2022062620A (en) Image processing device, image processing method and program
JP2021069667A (en) Image processing device, image processing method and program
JP7086708B2 (en) Image processing equipment, image processing methods and programs
WO2023199847A1 (en) Image processing method, image processing device, and program
WO2023282339A1 (en) Image processing method, image processing program, image processing device, and ophthalmic device
WO2022113409A1 (en) Image processing method, image processing device, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630