JP2021058285A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2021058285A JP2021058285A JP2019183043A JP2019183043A JP2021058285A JP 2021058285 A JP2021058285 A JP 2021058285A JP 2019183043 A JP2019183043 A JP 2019183043A JP 2019183043 A JP2019183043 A JP 2019183043A JP 2021058285 A JP2021058285 A JP 2021058285A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tomographic image
- tomographic
- unit
- folded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
被検眼の断層画像を非侵襲で得ることができる眼科装置として、低コヒーレント光を用いて撮影を行う光断層干渉撮影法(OCT:Optical Choherence Tomography)を用いた装置(OCT装置)が知られている。OCT装置は、低コヒーレント光を参照光と測定光に分け、測定光を被検査物に照射し、被検査物からの戻り光と参照光を干渉させ、干渉光のスペクトル情報から被検査物の断層を撮影する。 As an ophthalmic apparatus capable of non-invasively obtaining a tomographic image of an eye to be inspected, an apparatus (OCT apparatus) using an optical coherence tomography (OCT), which photographs using low coherence light, is known. There is. The OCT device divides the low coherent light into reference light and measurement light, irradiates the object to be measured with the measurement light, interferes with the return light from the object to be inspected and the reference light, and uses the spectral information of the interference light to indicate the object to be inspected. Take a picture of the fault.
ここで、人の眼の網膜は複数の層で構成されていることが知られており、眼科診断ではOCT装置の撮影データに基づいて層構造を読影したり、病変部の状態を確認したりする。また、網膜のボリューム画像データを用いて病変部の状態を確認するためには、断層画像を表示する他、網膜の層構造を画像解析し、層厚グラフや層厚マップ等を表示することが有効である。 Here, it is known that the retina of the human eye is composed of a plurality of layers, and in ophthalmic diagnosis, the layer structure is interpreted based on the imaging data of the OCT device, and the state of the lesion is confirmed. To do. In addition, in order to confirm the condition of the lesion using the volume image data of the retina, it is possible to display a tomographic image, analyze the layer structure of the retina, and display a layer thickness graph, layer thickness map, etc. It is valid.
しかしながら、スペクトル情報を利用して被検査物の断層像を得ようとする場合、コヒーレンスゲート位置と呼ばれる測定光路と参照光路とが等しい位置を基準として、正規の断層像に対する折返し像が生じてしまうことが知られている。特に、強度近視などの湾曲の大きい被検眼を撮影する場合は折返し像が発生しやすい。また、湾曲が小さい被検眼であっても、コヒーレンスゲート位置の調整が不充分な場合や、撮影中に被検眼が動いてしまった場合には折返し像が発生することがある。 However, when trying to obtain a tomographic image of an object to be inspected using spectral information, a folded image with respect to a normal tomographic image is generated based on a position called the coherence gate position where the measurement optical path and the reference optical path are equal to each other. It is known. In particular, when an eye to be inspected having a large curvature such as high myopia is photographed, a folded image is likely to occur. Further, even if the eye to be inspected has a small curvature, a folded image may occur if the position of the coherence gate is insufficiently adjusted or if the eye to be inspected moves during imaging.
断層画像に折返し像が発生した場合、画像解析による層構造の識別が困難となる。このため、断層像の折返し像が発生した領域の層厚解析データ等を適正にユーザに提示することができない可能性がある。そこで、特許文献1では、断層画像において折返し像が発生した領域を層厚マップに明示し、信頼性が低い領域を分かりやすく表示する技術が開示されている。 When a folded image occurs in a tomographic image, it becomes difficult to identify the layer structure by image analysis. Therefore, there is a possibility that the layer thickness analysis data of the region where the folded image of the tomographic image is generated cannot be properly presented to the user. Therefore, Patent Document 1 discloses a technique in which a region in which a folded image is generated in a tomographic image is clearly shown on a layer thickness map, and a region having low reliability is displayed in an easy-to-understand manner.
しかしながら、特許文献1に開示された技術は、折返しによって画像解析結果の信頼性が低下した領域を識別しやすくするものである。そのため、特許文献1に開示された技術は、折返し像が発生した領域において信頼性の低い画像解析結果も依然として表示してしまう。 However, the technique disclosed in Patent Document 1 makes it easy to identify a region where the reliability of the image analysis result is lowered due to folding back. Therefore, the technique disclosed in Patent Document 1 still displays unreliable image analysis results in the region where the folded image is generated.
そこで、本発明の一実施態様では、信頼性の高い解析結果を取得可能な断層情報を取得することができる画像処理装置を提供することを目的の一つとする。 Therefore, one of the objects of one embodiment of the present invention is to provide an image processing apparatus capable of acquiring tomographic information capable of acquiring highly reliable analysis results.
本発明の一実施態様に係る画像処理装置は、被検眼の第1の断層画像を取得する取得部と、学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が低減された第2の断層画像を生成する演算処理部とを備える。 An image processing apparatus according to an embodiment of the present invention uses an acquisition unit for acquiring a first tomographic image of an eye to be inspected and a trained model to obtain a first tomographic image from the first tomographic image. It is provided with an arithmetic processing unit that generates a second tomographic image in which the folded image is reduced.
本発明の一実施態様によれば、信頼性の高い解析結果を取得可能な断層情報を取得することができる。 According to one embodiment of the present invention, it is possible to acquire tomographic information capable of acquiring highly reliable analysis results.
以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。なお、本明細書において、折返し像とは、撮像対象である断層像についてコヒーレンスゲート位置を基準として折返している像をいう。また、正規の像とは、像対象である断層像についてコヒーレンスゲート位置を基準として折返していない像、言い換えると、折返し像以外の像をいう。さらに、折返し像が低減された画像とは、画像中において折返し像が現れている領域が少なくなっている画像をいい、例えば、折返し像が除去された画像や折返し像が正規像に修正された画像を含む。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following embodiments are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar. In the present specification, the folded image means an image in which the tomographic image to be imaged is folded with reference to the coherence gate position. Further, the normal image means an image in which the tomographic image to be imaged is not folded with respect to the coherence gate position, in other words, an image other than the folded image. Further, the image in which the folded image is reduced means an image in which the region where the folded image appears is reduced in the image. For example, the image in which the folded image is removed or the folded image is corrected to a normal image. Includes images.
さらに、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、多階層のニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を機械学習モデルとして用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダー(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝播法)に関する技術が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。このとき、機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。なお、適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施形態に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。 Further, the machine learning model refers to a learning model based on a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, a decision tree, and a support vector machine. In addition, deep learning (deep learning) in which features and coupling weighting coefficients for learning are generated by oneself using a multi-layer neural network can also be mentioned. Further, for at least a part of the multi-layer neural network, for example, a convolutional neural network (CNN) can be used as a machine learning model. Further, a technique related to an autoencoder (self-encoder) may be used for at least a part of a multi-layer neural network. Further, a technique related to backpropagation (backpropagation method) may be used for learning. However, the machine learning is not limited to deep learning, and any learning using a model capable of extracting (expressing) the features of learning data such as images by learning may be used. At this time, the machine learning model may be, for example, a capsule network (Capsule Network; CapsNet). Here, in a general neural network, each unit (each neuron) is configured to output a scalar value, so that, for example, spatial information regarding the spatial positional relationship (relative position) between features in an image can be obtained. It is configured to be reduced. Thereby, for example, learning can be performed so as to reduce the influence of local distortion and translation of the image. On the other hand, in the capsule network, each unit (each capsule) is configured to output spatial information as a vector, so that, for example, spatial information is retained. Thereby, for example, learning can be performed in which the spatial positional relationship between the features in the image is taken into consideration. It should be noted that, as appropriate, any of the above algorithms that can be used can be applied to the following embodiments. The teacher data refers to learning data and is composed of a pair of input data and output data. The correct answer data refers to the output data of the learning data (teacher data).
なお、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加学習を行うこともできる。追加学習は、装置が使用先に設置された後も行われることができる。 The trained model is a model obtained (trained) by training a machine learning model by an arbitrary machine learning algorithm using appropriate learning data in advance. However, although the trained model is obtained by using appropriate training data in advance, it does not mean that further training is not performed, and additional learning can be performed. Additional learning can be performed even after the device has been installed at the site of use.
(実施形態1)
<眼科撮影装置の概略構成>
以下、図1乃至6を参照して、本発明の実施形態1に係る眼科装置の一例として光干渉断層撮影装置(OCT)装置について説明する。本実施形態に係るOCT装置は、学習済モデルを用いて折返し像が低減された断層画像を生成し、信頼性の高い解析結果を提供する。
(Embodiment 1)
<Outline configuration of ophthalmic imaging device>
Hereinafter, an optical coherence tomography apparatus (OCT) apparatus will be described as an example of the ophthalmic apparatus according to the first embodiment of the present invention with reference to FIGS. 1 to 6. The OCT apparatus according to the present embodiment generates a tomographic image in which the folded image is reduced by using the trained model, and provides a highly reliable analysis result.
図1を参照して、本実施形態に係るOCT装置の概略的な構成について説明する。図1は、本実施形態に係るOCT装置の概略的な構成例を示す。本実施形態のOCT装置は、干渉光を分光してスペクトル情報から奥行き方向の情報を得るスペクトラムドメイン(SD:Spectrum Domain)−OCTである。本実施形態のOCT装置には、光学ヘッド部100、分光器150、制御部200(画像処理装置)、及び表示部250が設けられている。なお、表示部250は、任意のディスプレイによって構成され、制御部200による制御に従い、被検者の情報や各種画像等を表示することができる。以下、光学ヘッド部100、分光器150、及び制御部200の構成を順に説明する。
A schematic configuration of the OCT apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 shows a schematic configuration example of the OCT apparatus according to the present embodiment. The OCT apparatus of this embodiment is a spectrum domain (SD: Spectrum Domain) -OCT that disperses interference light and obtains information in the depth direction from spectral information. The OCT apparatus of this embodiment is provided with an
<光学ヘッド部100及び分光器150の構成>
光学ヘッド部100には、被検眼Eの前眼部Eaや眼底Efの2次元画像及び断層画像を撮像するための測定光学系が設けられている。以下、光学ヘッド部100の内部について説明する。光学ヘッド部100では、被検眼Eに対向して対物レンズ101−1が設置されており、その光軸上に設けられた、光路分離部として機能する第1ダイクロイックミラー102及び第2ダイクロイックミラー103によって光路が分離される。これにより、対物レンズ101−1からの光路が、OCT光学系の測定光路L1、眼底観察光路と固視灯光路L2、及び前眼観察光路L3に波長帯域ごとに分岐される。
<Structure of
The
なお、本実施形態では、第1ダイクロイックミラー102の透過方向に前眼観察用の光路L3が設けられ、反射方向にOCT光学系の測定光路L1、及び眼底観察光路と固視灯光路L2が設けられている。また、第2ダイクロイックミラー103の透過方向に、OCT光学系の測定光路L1が設けられ、反射方向に眼底観察光路と固視灯光路L2が設けられている。しかしながら、各光学系の光路を設ける方向はこれに限られず、所望の構成に応じて任意に変更されてよい。
In the present embodiment, the optical path L3 for front eye observation is provided in the transmission direction of the first
さらに、光路L2は、第3ダイクロイックミラー118によって、眼底観察用のAPD(アバランシェフォトダイオード)115への光路及び固視灯116への光路に、波長帯域ごとに分岐される。なお、本実施形態では、第3ダイクロイックミラー118の透過方向にAPD115が設けられ、反射方向に固視灯116が設けられている。しかしながら、第3ダイクロイックミラー118の透過方向に固視灯116が設けられ、反射方向にAPD115が設けられてもよい。
Further, the optical path L2 is branched by a third
光路L2には、第2ダイクロイックミラー103から順に、レンズ101−2、Xスキャナ117−1、Yスキャナ117−2、レンズ111,112、第3ダイクロイックミラー118、APD115、及び固視灯116が設けられている。レンズ111は、固視灯及び眼底観察用の光の合焦調整のため、制御部200によって制御される不図示のモータにより図中矢印で示される光軸方向に駆動されることができる。
The optical path L2 is provided with a lens 101-2, an X scanner 117-1, a Y scanner 117-2,
APD115は、不図示の眼底観察用照明光の波長、具体的には780nm付近に感度を持つ。APD115は、シングルディテクターであり、眼底Efから散乱・反射され戻ってきた光を検出する。APD115は、検出した光に基づいて出力信号を生成し制御部200に送る。制御部200は、APD115からの出力信号に基づいて、眼底Efの2次元画像(眼底正面画像)を生成することができる。固視灯116は、可視光を発生して被検者の固視を促すために用いられることができる。
The
また、Xスキャナ117−1(主走査方向用)、Yスキャナ117−2(主走査方向と交差する副走査方向用)は、不図示の眼底観察用照明光源から発せられた光を被検眼Eの眼底Ef上で走査するための走査部として機能することができる。なお、光路L2の走査部は、ポリゴンミラーやガルバノミラー等の任意の偏向手段を用いて構成されてよい。レンズ101−2は、Xスキャナ117−1及びYスキャナ117−2の中心位置付近を焦点位置として配置されている。第3ダイクロイックミラー118は、穴あきミラーや、中空のミラーが蒸着されたプリズムであり、被検眼Eに照射される照明光と、眼底Efからの戻り光とを分離する。
Further, the X scanner 117-1 (for the main scanning direction) and the Y scanner 117-2 (for the sub scanning direction intersecting the main scanning direction) emit light emitted from an illumination light source for observing the fundus of the eye (not shown). It can function as a scanning unit for scanning on the fundus Ef of the eye. The scanning portion of the optical path L2 may be configured by using an arbitrary deflection means such as a polygon mirror or a galvano mirror. The lens 101-2 is arranged with the vicinity of the center position of the X scanner 117-1 and the Y scanner 117-2 as the focal position. The third
光路L3には、レンズ141と、前眼観察用の赤外線CCD142とが配置されている。赤外線CCD142は、不図示の前眼観察用照射光の波長、具体的には970nm付近に感度を有する。赤外線CCD142は、検出した光に基づいて出力信号を生成し制御部200に送る。制御部200は、赤外線CCD142からの出力信号に基づいて、前眼部画像を生成することができる。
A
OCT光学系の測定光路L1には、被検眼Eの断層画像を撮像するためのOCT光学系が設けられている。より具体的には、OCT光学系は、被検眼Eの眼底Efの断層画像を生成するための干渉信号を得るために用いられる。なお、OCTA光学系は、被検眼Eの前眼部Eaの断層画像を生成するために用いられてもよい。 The measurement optical path L1 of the OCT optical system is provided with an OCT optical system for capturing a tomographic image of the eye E to be inspected. More specifically, the OCT optical system is used to obtain an interference signal for generating a tomographic image of the fundus Ef of the eye E to be inspected. The OCTA optical system may be used to generate a tomographic image of the anterior segment Ea of the eye E to be inspected.
測定光路L1には、レンズ101−3と、ミラー121と、光を被検眼Eの眼底Ef上で走査するためのOCT走査部として機能するXスキャナ122−1及びYスキャナ122−2とが配置されている。なお、Xスキャナ122−1及びYスキャナ122−2は、Xスキャナ122−1及びYスキャナ122−2の中心位置付近が、レンズ101−3の焦点位置となるように配置されている。また、Xスキャナ122−1及びYスキャナ122−2の中心位置付近と、被検眼Eの瞳の位置とが光学的な共役関係となっている。なお、OCT走査部の構成はこれに限られず、所望の構成に応じて任意に変更されてよい。例えば、1枚で二次元方向に光を偏向させることができるMEMSミラー等によって、OCT走査部を構成してもよい。
A lens 101-3, a
さらに、測定光路L1にはレンズ123,124が配置され、レンズ123は、OCT光学系の合焦調整を行うために、制御部200によって制御される不図示のモータにより図中矢印で示される光軸方向に駆動されることができる。
Further,
次に、測定光源126からの光路と参照光学系、分光器150の構成について説明する。測定光源126は、測定光を測定光路に入射させるための低コヒーレント光源である。測定光源126は、光ファイバー125−1を介して光カプラー125に接続される。光カプラー125には、光ファイバー125−1〜4が接続される。光ファイバー125−1〜4は、光カプラー125に接続されて一体化しているシングルモードの光ファイバーである。
Next, the configuration of the optical path from the
光ファイバー125−2のファイバー端は、測定光路L1上に配置され、測定光は光ファイバー125−2を通って測定光路L1に入射する。一方、光ファイバー125−3のファイバー端は、参照光学系の光路に配置され、後述する参照光は光ファイバー125−3を通って参照光学系の光路に入射する。参照光学系の光路には、レンズ131、分散補償用ガラス132、及び参照ミラー133が設けられている。また、光ファイバー125−4は分光器150に接続される。
The fiber end of the optical fiber 125-2 is arranged on the measurement optical path L1, and the measurement light enters the measurement optical path L1 through the optical fiber 125-2. On the other hand, the fiber end of the optical fiber 125-3 is arranged in the optical path of the reference optical system, and the reference light described later enters the optical path of the reference optical system through the optical fiber 125-3. A
測定光源126、光カプラー125、光ファイバー125−1〜4、レンズ131、分散補償用ガラス132、参照ミラー133、及び分光器150によってマイケルソン干渉系が構成される。なお、本実施形態では、干渉系としてマイケルソン干渉系を用いたが、マッハツェンダー干渉系を用いてもよい。測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉系を、光量差が比較的小さい場合にはマイケルソン干渉系を用いることができる。
The Michelson interferometer is composed of the
測定光源126から出射された光は、光ファイバー125−1を通じ、光カプラー125を介して光ファイバー125−2側の測定光と、光ファイバー125−3側の参照光とに分割される。測定光は、前述のOCT光学系の測定光路L1を通じ、観察対象である被検眼Eの眼底Efに照射され、網膜による反射や散乱により同じ光路を通じて光カプラー125に到達する。
The light emitted from the
一方、参照光は光ファイバー125−3、レンズ131、及び分散補償用ガラス132を介して参照ミラー133に到達し反射される。そして、参照光は、同じ光路を戻り光カプラー125に到達する。ここで、参照ミラー133は、制御部200によって制御される不図示のモータ等によって、図中矢印で示される光軸方向に位置を調整可能に保持される。
On the other hand, the reference light reaches the
光カプラー125において、測定光と参照光とが合波され干渉光となる。ここで、測定光と参照光は、測定光の光路長と参照光の光路長とがほぼ同一となったときに干渉を生じる。制御部200は、不図示のモータ等を制御し、参照ミラー133を光軸方向に移動させることで、被検眼Eによって変わる測定光の光路長に参照光の光路長を合わせることができる。光カプラー125で生じた干渉光は、光ファイバー125−4を介して分光器150に導かれる。
In the
分光器150には、レンズ151と、回折格子152と、レンズ153と、ラインセンサ154とが設けられている。光ファイバー125−4から出射された干渉光は、レンズ151を介して略平行光となった後、回折格子152で分光され、レンズ153によってラインセンサ154に結像される。ラインセンサ154は複数の画素、すなわち受光エレメントが1列に並んだ構成になっており、所定のクロックによって全画素を一括で読み出すことができる。制御部200は、ラインセンサ154から出力された、干渉光に基づく干渉信号を用いて被検眼Eの断層画像を生成することができる。
The
次に、図2を参照して制御部200(画像処理装置)について説明する。図2は、制御部200の構成例を示す。制御部200には、取得部201、装置制御部202、表示制御部203、及び画像処理部210が設けられている。
Next, the control unit 200 (image processing device) will be described with reference to FIG. FIG. 2 shows a configuration example of the
取得部201は、制御部200に接続された光学ヘッド部100や、不図示の外部装置、不図示の入力部から各種情報や画像等を取得する。例えば、取得部201は、APD115及び赤外線CCD142の出力信号、並びにラインセンサ154から出力される干渉信号等の情報を光学ヘッド部100から取得することができる。なお、取得部201は、これらに対応する情報を制御部200に接続される外部装置から取得してもよい。ここで、制御部200は、外部装置と直接接続されてもよいし、LANやインターネット等の任意のネットワークを介して接続されてもよい。また、入力部は、キーボードやマウス等を含んでよい。また、表示部250がタッチパネルディスプレイで構成される場合には、表示部250が入力部の少なくとも一部として機能してよい。
The
なお、取得部201は、光学ヘッド部100で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データを取得することができる。また、取得部201は、同様の断層データを外部装置から取得してもよい。
The
装置制御部202は、OCT装置の制御、より具体的には各スキャナの駆動制御や光源の点灯制御など、光学ヘッド部100の光学部品等の制御を行う。表示制御部203は、患者情報や画像処理部210によって処理された画像、画像を解析して得た情報等を表示部250に表示させる。
The
画像処理部210は、光学ヘッド部100や外部装置等から取得した情報に基づいて画像を生成したり、当該画像への画像処理をしたりする。画像処理部210には、正面画像生成部211、断層画像生成部212、演算処理部213、及び解析部214が設けられている。
The
正面画像生成部211は、眼底観察光学系におけるAPD115の信号や前眼部観察光学系の赤外線CCD142の信号に基づいて被検眼Eの正面画像を生成する。より具体的には、正面画像生成部211は、装置制御部202がXスキャナ117−1及びYスキャナ117−2を制御し照明光を眼底Ef上で走査した際にAPD115から取得した出力信号に基づいて、正面画像を生成することができる。また、正面画像生成部211は、不図示の前眼観察用光源から発せられ、被検眼Eの前眼部Eaによって反射された光を検出した赤外線CCD142からの出力信号に基づいて、前眼部画像を生成することができる。
The front
断層画像生成部212は、取得部201が取得したラインセンサ154からの干渉信号に基づいて、被検眼Eの眼底Efの断層画像を生成する。断層画像生成部212は、ラインセンサ154から取得した干渉信号をフーリエ変換によって波長分解することで、眼底Efのある1点における深さ方向の情報を得ることができる。また、装置制御部202によりXスキャナ122−1及びYスキャナ122−2を制御し、測定光を眼底Ef上で任意の主走査方向に走査して得た干渉信号について上記の処理を繰り返すことで、断層画像生成部212は眼底Efの2次元断層画像を生成できる。さらに、測定光を主走査の方向と交差(直交)する方向(副走査方向)に移動させて、再び測定光を主走査方向に走査させて得た干渉信号について上記処理を繰り返すことで、断層画像生成部212は眼底Efの3次元ボリュームデータ(3次元断層画像)を生成できる。なお、断層画像生成部212は、測定光を被検眼Eの前眼部Eaに照射した際の干渉信号に基づいて前眼部Eaの2次元断層画像や3次元ボリュームデータを生成することもできる。
The tomographic
このとき、フーリエ変換の特性上、参照光と測定光の光路長差が0になる光路長付近で断層画像において折返し像が発生してしまう。折返し像が発生する条件としては、眼底Efの湾曲が大きく測定光の光路長が場所によって大きく異なる場合や、参照ミラー133による参照光の光路長調整が不充分である場合などが考えられる。折返し像が発生すると、断層画像における網膜等の構造が不明瞭となり、後述する層厚の解析や層厚マップの生成等が困難となるため、診断精度が低下してしまう。
At this time, due to the characteristics of the Fourier transform, a folded image is generated in the tomographic image near the optical path length where the optical path length difference between the reference light and the measurement light becomes zero. The conditions under which the folded image is generated may be a case where the curvature of the fundus Ef is large and the optical path length of the measurement light varies greatly depending on the location, or a case where the optical path length adjustment of the reference light by the
演算処理部213は、後述する方法により学習済モデルを用いて断層画像における折返し像を低減する折返し低減処理を行う。演算処理部213は、折返し低減処理により折返し像の低減された断層画像を生成することができる。
The
解析部214は、演算処理部213によって生成された、折返し像の低減された断層画像等について画像解析処理を行うことができる。また、解析部214は、正面画像生成部211によって生成された各種正面画像や断層画像生成部212によって生成された断層画像、取得部201によって外部装置等から取得された各種医用画像について画像解析処理を行うこともできる。より具体的には、解析部214は、例えば、折返し像の低減された断層画像についてセグメンテーション処理を行い、被検眼の網膜の層ごとの境界を検出する。解析部214は、検出した境界データから眼底Efの各位置における層の厚さを算出することができる。
The
なお、セグメンテーション処理は既知の任意の手法を用いることができる。本実施形態では、解析部214は、ルールベースのセグメンテーション処理を行う。ここで、ルールベースの処理とは既知の規則性、例えば網膜の形状の規則性等の既知の規則性を利用した処理をいう。
Any known method can be used for the segmentation process. In this embodiment, the
具体的には、解析部214は、平均断層画像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を生成する(以下、それぞれメディアン画像、Sobel画像ともいう)。次に解析部214は、生成したメディアン画像とSobel画像から、Aスキャンに対応するデータ毎にプロファイルを生成する。生成されるプロファイルは、メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、解析部214は、Sobel画像から生成したプロファイル内のピークを検出する。解析部214は、検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を検出することができる。なお、当該セグメンテーション処理の手法は一例である。
Specifically, the
なお、制御部200は、演算装置やメモリを含む汎用のコンピュータによって構成されてもよいし、OCT装置の専用のコンピュータによって構成されてもよい。また、制御部200の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。
The
図3(a)及び(b)は、本実施形態に係る表示制御部203が表示部250に表示させる表示画面300,310の一例を示す。図3(a)に示す表示画面300には、折返し低減処理が行われていない断層画像301、正面画像302、及び解析結果305が示されている。
3A and 3B show an example of
断層画像301は断層画像生成部212によって生成された被検眼Eの断層画像である。図3(a)に示す例では、断層画像301の両端に折返し像が発生しており、網膜の構造が不明瞭になっている。正面画像302は正面画像生成部211によって生成された被検眼Eの正面画像である。なお、断層画像301及び正面画像302は、互いに対応する画像であれば、取得部201が外部装置から取得した断層画像であってもよい。解析結果305は、解析部214によって断層画像301又は正面画像302を画像解析した結果を示す。
The
インジケータ303は、断層画像301の眼底Ef上の位置を示したものである。検者は不図示のマウスなどの入力手段によってインジケータ303を上下に動かすことによって表示画面300に表示される断層画像301を変更することができる。また、インジケータ304は、3次元断層画像を取得した範囲を示したものである。
The
折返し低減ボタン306は、折返し低減処理を行った画像を表示するか否かを示すボタンであり、断層画像の表示モードを示すボタンである。折返し低減ボタン306がOFFと表示されている場合、折返し低減処理を行っていない画像が表示されていることを示している。検者が不図示の入力部によってボタンを押すと、表示制御部203は、折返し低減処理を行った画像を表示部250に表示させる。
The fold-
図3(b)には、制御部200が後述する方法によって折返し低減処理を行った断層画像311を含む表示画面310を示している。断層画像311は、眼底Efの中央部分は断層画像301と同等であるが、両端で折返しの像が除去されている点で断層画像301と異なる。これにより、検者は網膜の明瞭な構造を確認することができ、診断精度が向上する。また、断層画像301を画像解析することで、例えば層厚等について信頼性の高い解析結果315を取得することができ、診断精度が向上する。
FIG. 3B shows a
折返し低減ボタン316はONと表示されており、これは折返し低減処理が行われた断層画像が表示されていることを示している。検者は不図示の入力部によってボタンを押すことにより、折返し低減処理を行っていない画像を表示するように、表示制御部203に指示を行うことができる。メッセージ317は折返し低減ボタン316がONの場合のみ表示されるメッセージ(文章)である。メッセージ317は、断層画像311が後述する学習済モデル(例えば、ディープラーニングによる学習済モデル)を用いて生成された画像であることを検者に説明するために表示されている。
The
次に、図4を参照して、本実施形態に係る演算処理部213が用いる機械学習モデルを、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)で構成する例について説明する。図4は、折返しを低減するために、演算処理部213が用いる学習済モデルの構成410の一例を示している。なお、本実施形態に係る機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。
Next, with reference to FIG. 4, an example in which the machine learning model used by the
図4に示す機械学習モデルは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該機械学習モデルの構成410に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。
The machine learning model shown in FIG. 4 is composed of a plurality of layers responsible for processing and outputting an input value group. The types of layers included in the
畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。 The convolutional layer is a layer that performs convolutional processing on an input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image.
ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。 The downsampling layer is a layer that performs processing to reduce the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, as such a process, for example, there is a Max Polling process.
アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。 The upsampling layer is a layer that performs processing to increase the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding the interpolated value from the input value group. Specifically, as such a process, for example, there is a linear interpolation process.
合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them.
なお、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。 Note that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the output data may differ. That is, in many cases, the appropriate parameters differ depending on the embodiment, and therefore, the values can be changed to preferable values as needed.
また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、より精度の高いアライメント位置の情報を出力したり、処理時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。 In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics include, for example, more accurate alignment position information output, shorter processing time, shorter training time for machine learning models, and the like.
なお、本実施形態で用いるCNNの構成410は、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルである。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。
The
図示しないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。CNNのこれらのステップを通して、撮影画像の特徴を抽出することができる。 Although not shown, as an example of changing the configuration of the CNN, for example, a batch normalization layer or an activation layer using a rectifier linear unit may be incorporated after the convolutional layer. Good. Through these steps of CNN, the features of the captured image can be extracted.
学習済モデルに入力データを入力すると、該学習済モデルの設計に従った出力データが出力される。学習済モデルは、例えば、学習データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。本実施形態に係る学習済モデルは、学習の傾向に従って、断層画像401が入力されると、折返し像が除去され、折返し像が低減された断層画像402を出力することができるように構成されている。
When input data is input to the trained model, output data according to the design of the trained model is output. The trained model outputs, for example, output data that is likely to correspond to the input data according to the tendency trained with the trained data. The trained model according to the present embodiment is configured to be able to output a
ここで、本実施形態に係る学習済モデルに関する学習データについて説明する。学習データは入力データと出力データとのペア群で構成される。本実施形態では、断層画像を入力データとし、折返し像が低減された断層画像を出力データとする。なお、学習データの作成方法は後述する。また、本実施形態に係る学習データの入力データは、折返し像が生じていない断層画像を含んでよく、この場合の出力データは入力データとして用いられる断層画像としてよい。これにより、本実施形態に係る学習済モデルは、折返し像が生じていない断層画像が入力された場合には、不必要な折返し低減処理を行わずに、折返し像の生じていない断層画像を適切に出力することができる。 Here, the learning data regarding the trained model according to the present embodiment will be described. The training data is composed of a pair group of input data and output data. In the present embodiment, the tomographic image is used as input data, and the tomographic image with reduced folded images is used as output data. The method of creating the learning data will be described later. Further, the input data of the training data according to the present embodiment may include a tomographic image in which no folded image is generated, and the output data in this case may be a tomographic image used as the input data. As a result, the trained model according to the present embodiment appropriately obtains a tomographic image without a folded image without performing unnecessary folding reduction processing when a tomographic image without a folded image is input. Can be output to.
図5は、制御部200による撮影から表示までの一連の処理を示すフローチャートである。ステップS501では、取得部201は、装置制御部202が光学ヘッド部100を制御し、被検眼Eの眼底Efを走査した際の干渉信号のデータを取得する。その後、断層画像生成部212が、取得した干渉信号のデータに基づいて被検眼Eの断層画像を生成することで、取得部201は断層画像を取得する。なお、取得部201は、外部装置から干渉信号又は断層画像を取得してもよい。また、取得部201は、光学ヘッド部100からAPD115や赤外線CCD142から出力信号を取得し、正面画像生成部211がこれら出力信号に基づいて正面画像を生成・取得してよい。なお、取得部201は、外部装置からこれら出力信号又は正面画像を取得してもよい。
FIG. 5 is a flowchart showing a series of processes from shooting to display by the
ステップS502では、演算処理部213は、学習済モデルを用いてステップS601で取得した断層画像401から、折返し像が低減された断層画像402を生成する(折返し低減処理)。具体的には、演算処理部213は、断層画像401を学習済モデルに入力し、学習済モデルの出力に基づいて断層画像402を生成する。
In step S502, the
ステップS503では、解析部214は、折返し像が低減された断層画像402の層解析等の画像解析処理を行い、層厚等の解析結果を算出する。また、解析部214は、ステップS501で取得された断層画像や正面画像についても任意の画像解析を行うことができる。
In step S503, the
ステップS504では、表示制御部203は、ステップS502で生成された断層画像402、ステップS503で算出された解析結果、及び正面画像を表示部250に図3(b)に示すように表示する。なお、表示制御部203は、折返し低減ボタン306,316の操作等の操作者の指示に応じて、折返し像が低減されていない断層画像とその解析結果、及び折返し像が低減された断層画像とその解析結果を切り替えて表示部250に表示させることができる。ステップS504において、表示制御部203による表示処理が終了したら、制御部200による一連の処理が終了する。
In step S504, the
以上の実施形態によれば、学習済モデルを用いて折返し像が低減された断層画像を取得することができ、このような断層画像を検者に提供することで、診断精度を向上させることができる。また、このような断層画像に基づけば、信頼性の高い解析結果を取得することができる。そのため、本実施形態に係る折返し低減処理により得た断層画像及びその解析結果を検者に提供することで、診断精度をより向上させることができる。 According to the above embodiment, it is possible to acquire a tomographic image in which the folded image is reduced by using the trained model, and by providing such a tomographic image to the examiner, the diagnostic accuracy can be improved. it can. Moreover, based on such a tomographic image, highly reliable analysis results can be obtained. Therefore, the diagnostic accuracy can be further improved by providing the examiner with the tomographic image obtained by the folding reduction process according to the present embodiment and the analysis result thereof.
次に、図6乃至8を参照して、学習済モデルを用意する際の学習について説明する。なお、機械学習モデルの学習は予め行われていてよく、本実施形態に係る演算処理部213は、既に学習が行われた学習済モデルを用いて折返し低減処理を行えばよい。なお、学習データは、光学ヘッド部100を用いて取得したデータに限られず、同型の測定光学系を有する装置等で取得したデータであってもよい。
Next, learning when preparing a trained model will be described with reference to FIGS. 6 to 8. The machine learning model may be learned in advance, and the
ここで、図6を参照して折返し低減処理に用いる学習済モデルを生成するために学習を行う学習装置について説明する。学習装置には学習部600が設けられている。なお、学習装置は、制御部200とは別の装置であってよいが、制御部200に学習部600が設けられてもよい。なお、制御部200に学習部600が設けられる場合には、制御部200は、予め学習部600によって生成された学習済モデルを折返し低減処理に用いることができ、折返し低減処理を行う際に学習済モデルを逐一生成する必要はない。
Here, a learning device that performs learning to generate a trained model used for the turnaround reduction process will be described with reference to FIG. The learning device is provided with a
なお、学習装置は、演算装置やメモリを含む汎用のコンピュータによって構成されてもよいし、OCT装置の専用のコンピュータによって構成されてもよい。また、学習装置の各構成要素は、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 The learning device may be configured by a general-purpose computer including an arithmetic unit and a memory, or may be configured by a dedicated computer of the OCT device. Further, each component of the learning device may be composed of a software module executed by a processor such as a CPU, MPU, GPU, or FPGA. In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC.
図6は、学習部600の構成例を示す。学習部600は学習全体の処理を行う。学習部600には、画像格納部601、学習データ生成部602、及び学習処理部603が設けられている。画像格納部601は、学習に用いる学習データを生成するための複数の断層画像を格納するストレージである。画像格納部601は、断層画像を記憶できる媒体であれば、メモリや可搬メディアなどでもよい。画像格納部601には被検眼の折返し像が発生していない断層画像が格納されている。格納されている断層画像は多いことが望ましいが、学習に充分な数であればよい。
FIG. 6 shows a configuration example of the
学習データ生成部602は、画像格納部601に格納されている画像を用いて、後述する方法で機械学習モデルの学習データを生成する。学習処理部603は、学習データ生成部602によって生成された学習データを用いて、機械学習モデルについて学習処理を行う。なお、学習処理が行われる機械学習モデルは、図4に示す構成410と同じ構成を有するが、パラメータが学習されていない状態のCNNである。
The learning
図7は、学習データ生成部602によって学習データを生成する方法を説明するための図である。断層画像701はあらかじめ画像格納部601に格納されている、折返しのない断層画像である。断層画像701を得る方法は、折返し像のない断層画像を得る方法であれば何でもよい。本実施形態では、ラインセンサ154を画素数が2倍のラインセンサに置き換え、深さ方向の撮像範囲を2倍にした特別なOCT装置を用いることで、折返し像のない断層画像を取得する。
FIG. 7 is a diagram for explaining a method of generating learning data by the learning
また、例えば、参照ミラー133を駆動して深さ方向の撮像位置を変更して撮像を行って、深さ方向の撮像位置が異なる複数の断層画像を取得し、それらを合成処理することによって折返し像のない断層画像701を取得してもよい。さらに、例えば、湾曲が小さく折返し像が発生していない断層画像を選択して断層画像701として用いてもよい。
Further, for example, the
学習データ生成部602は、断層画像701から学習データの入力データとなる断層画像702及び出力データとなる断層画像703を生成する。具体的には、学習データ生成部602は、断層画像701を上下に2分割し、上半分の画像を上下反転して下半分の画像と重ね合わせることで、学習データの入力データとなる断層画像702を生成する。
The learning
ただし、実際の断層画像の折返し像が生じている部分では、測定光と参照光の光路長差が逆になるため、信号処理の位相補正が逆に適用された画像が生成される。そのため、学習データ生成部602は、断層画像701の上半分を上下反転した後、信号処理の位相補正を逆向きに適用してから重ね合わせることができる。
However, in the portion where the folded image of the actual tomographic image is generated, the optical path length difference between the measurement light and the reference light is opposite, so that an image in which the phase correction of signal processing is applied in reverse is generated. Therefore, the learning
なお、位相補正は、公知のフィルタ処理により行われてよい。また、断層画像を逆フーリエ変換して干渉信号に戻し、信号処理の位相補正を逆向きに適用した断層画像を生成し、当該断層画像と断層画像701を用いて断層画像702を生成してもよい。また、画像格納部601が断層画像701に対応する干渉信号を有している場合には、位相補正に対応する分散補償処理を正側で適用した断層画像と負側で適用した断層画像を生成し、これら断層画像の上半分と下半分を用いて断層画像702を生成してもよい。
The phase correction may be performed by a known filter process. Further, even if the tomographic image is inverse Fourier transformed and returned to the interference signal, a tomographic image to which the phase correction of signal processing is applied in the reverse direction is generated, and the
また、学習データ生成部602は、断層画像701の下半分を切り出して、学習データの出力データとなる断層画像703を生成する。なお、学習データ生成部602は、折返し像のない断層画像を、ラインセンサ154の画素数に対応する画像サイズに調整し、学習データの入力データ及び出力データとして用いることもできる。これにより、当該学習データを用いて学習を行った学習済モデルは、折返しのない断層画像が入力された場合に、不必要な折返し低減処理を行うことなく、適切な断層画像を出力することができる。
Further, the learning
なお、当該学習データの生成方法は一例であり、所望の構成に応じて変更されてよい。例えば、湾曲が小さく折返し像が発生していない断層画像を選択して断層画像701として用いる場合には、断層画像701を任意の位置で上下に分割し、上側の画像を上下反転した後、信号処理の位相補正を逆向きにして適用して重ね合わせることができる。この場合、生成された断層画像の深さ方向の画像サイズが光学ヘッド部100で用いるラインセンサ154の画素数に対応する画像サイズとなるように、生成された断層画像についてパディング処理等を行ってよい。また、深さ方向の撮像位置が異なる複数の断層画像を合成して得た断層画像701を用いる場合にも同様の処理を行うことができる。なお、生成された断層画像の深さ方向の画像サイズが光学ヘッド部100で用いるラインセンサ154の画素数に対応する画像サイズよりも大きい場合には、生成された断層画像についてトリミング処理を行ってよい。
The method of generating the learning data is an example, and may be changed according to a desired configuration. For example, when a tomographic image with small curvature and no folded image is selected and used as the
学習処理部603は、学習データ生成部602が生成した断層画像702及び断層画像703を学習データの入力データ及び出力データとして用いて、機械学習モデルの学習処理を行う。なお、入力データ及び出力データを、画像全体とせず、画像に含まれる矩形領域のデータとしてもよい。この場合、入力データと出力データは互いに対応する領域を切り出したものとする。このような学習データは局所領域に着目したものであるため、眼底の湾曲の様子などの大局的な構造に影響を受けずに折返しを低減できる利点がある。また、元となる断層画像において、領域の位置を異なる座標に変えながら多数の矩形領域画像のペアを作成することで、学習データを構成するペア群を充実させることができる。
The
なお、このような学習データを用いて学習を行った学習済モデルを用いる場合には、演算処理部213は、折返し低減処理を行う際に、入力データとなる断層画像を、学習データと対応する画像サイズ毎の領域画像に分割し学習済モデルに入力する。その後、演算処理部213は、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、入力データとなる断層画像に対応する、折返し像が低減された断層画像を生成することができる。
When using a trained model trained using such training data, the
図8は、学習部600による一連の処理のフローチャートである。まず、ステップS801において、学習部600は、画像格納部601から折返しのない断層画像をすべて読み込む。
FIG. 8 is a flowchart of a series of processes performed by the
ステップS802では、学習データ生成部602が、学習部600が読み込んだすべての断層画像に対して前述の方法により学習データの入力データとなる断層画像702を生成する。また、ステップS803において、学習データ生成部602は、学習部600が読み込んだすべての断層画像に対して前述の方法により学習データの出力データとなる断層画像703を生成する。
In step S802, the learning
ステップS804では、学習処理部603が、断層画像702を入力した機械学習モデルが出力した断層画像を、断層画像703と比較する。ここで、学習処理部603は、損失関数を用いて、機械学習モデルから出力した断層画像と学習データの出力データである断層画像703との差を計算するようにしてもよい。その後、学習処理部603は、機械学習モデルが出力した断層画像と学習データの出力データである断層画像703との差が小さくなるように図4に記載の各層の結合重み係数等のパラメータを調整・更新する。
In step S804, the
なお、本実施形態では、パラメータの最適化方法として誤差逆伝播法などのディープラーニングで一般に用いられる手法を用いるが、折返しを低減できるパラメータ最適化方法であれば他の公知の方法を用いてもよい。ここで、誤差逆伝播法は、上記の差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。学習処理部603は、当該パラメータの調整をすべての学習データの入力データと出力データのペアに対して繰り返し実施し、パラメータを最適化する。
In the present embodiment, a method generally used in deep learning such as an error backpropagation method is used as the parameter optimization method, but other known methods may be used as long as the parameter optimization method can reduce the turnaround. Good. Here, the error backpropagation method is a method of adjusting the coupling weighting coefficient and the like between the nodes of each neural network so that the above difference becomes small. The
なお、機械学習モデルの構成は図4に記載のものと異なっていてもよく、例えば、層の種類や数や順番が異なっていてもよい。例えば、前述のように折返し部分には位相補正が逆向きに適用されるため、折返し部分は縦方向に筋が発生する傾向がある。そのため、この縦方向の筋の特徴を捉える特別な畳み込み層を機械学習モデルの構成に追加してもよい。 The configuration of the machine learning model may be different from that shown in FIG. 4, and for example, the type, number, and order of the layers may be different. For example, as described above, since the phase correction is applied to the folded portion in the opposite direction, the folded portion tends to have streaks in the vertical direction. Therefore, a special convolutional layer that captures the characteristics of this vertical streak may be added to the configuration of the machine learning model.
また、断層画像の湾曲の構造に着目したルールベースの処理や層を機械学習モデルの構成に追加してもよい。例えば、断層画像の傾きを検出し、傾きが不連続に変化した点を折返しの開始地点と判断する処理が含まれていてもよい。 In addition, rule-based processing and layers focusing on the curved structure of the tomographic image may be added to the configuration of the machine learning model. For example, it may include a process of detecting the inclination of the tomographic image and determining the point where the inclination changes discontinuously as the start point of the turnaround.
また、学習処理部603は、敵対的生成ネットワーク(GAN:Generative Adversarial Networks)を用いてもよい。GANを用いる場合には、学習処理部603は、学習を行っている機械学習モデルが出力した断層画像がディープラーニングによって生成された画像であるかどうかを判定する学習済モデルを用いる真贋評価部を有することができる。学習処理部603は、真贋評価部が用いる機械学習モデルと、学習を行っている機械学習モデルを相互にフィードバックさせて学習させることによって、より自然な断層画像を生成するように機械学習モデルに学習を行わせることができる。
In addition, the
ステップS804において、学習処理部603による学習処理が終了したら、学習部600による一連の処理が終了する。このような学習部600の処理によれば、折返し像が生じている断層画像が入力されると、折返し像が低減された断層画像を出力するように学習した学習済モデルを生成することができる。
When the learning process by the
なお、OCT撮影と並行して追加学習が行われてもよい。その場合、画像処理部210は、断層画像生成部212によって生成された断層画像に折返し像があるかどうかを判定し、折返し像がない画像のみを画像格納部601に送り、学習部600によって追加用の学習データを生成させることができる。OCT撮影の継続に伴い追加の学習が繰り返されることで、折返し低減処理の処理精度を向上させることができる。
In addition, additional learning may be performed in parallel with OCT imaging. In that case, the
上記のように、本実施形態に係る制御部200は、取得部201と、演算処理部213とを備える。取得部201は、被検眼Eの断層画像401(第1の断層画像)を取得する。演算処理部213は、学習済モデルを用いて、断層画像401から、断層画像401における折返し像が低減された断層画像(第2の断層画像)を生成する。特に、本実施形態では、演算処理部213は、折返し像が低減された断層画像として、折返し像が除去された断層画像402を生成する。
As described above, the
当該構成によれば、学習済モデルを用いて折返し像が低減された断層画像を取得することができ、このような断層画像を検者に提供することで、診断精度を向上させることができる。また、このような断層画像に基づけば、信頼性の高い解析結果を取得することができる。そのため、本実施形態に係る折返し低減処理により得た断層画像及びその解析結果を検者に提供することで、診断精度をより向上させることができる。 According to this configuration, it is possible to acquire a tomographic image in which the folded image is reduced by using the trained model, and by providing such a tomographic image to the examiner, the diagnostic accuracy can be improved. Moreover, based on such a tomographic image, highly reliable analysis results can be obtained. Therefore, the diagnostic accuracy can be further improved by providing the examiner with the tomographic image obtained by the folding reduction process according to the present embodiment and the analysis result thereof.
また、制御部200は、被検眼の医用画像を画像解析する解析部214を更に備える。解析部214は、断層画像401及び折返し像が低減された断層画像のうちの少なくとも一方における層境界を検出し、画像解析結果を出力する。制御部200は、解析部214により、折返し像が低減された断層画像の画像解析結果を得ることで、信頼性の高い解析結果を取得することができる。
In addition, the
さらに、制御部200は、表示モードに応じて、断層画像401と折返し像が低減された断層画像とを切り替えて表示部250に表示させる、表示制御部203を更に備える。表示制御部203は、表示モードに応じて、断層画像401の解析結果と折返し像が低減された断層画像の解析結果とを切り替えて表示部250に表示させる。また、表示制御部203は、折返し像が低減された断層画像とともに当該断層画像を説明する文章、例えば、学習済モデルを用いて生成された断層画像であることを説明する文章を表示部250に表示させることができる。この場合には、検者に断層画像の説明を提示することで、診断効率を向上させることができる。
Further, the
また、学習済モデルは、断層画像を入力データとし、該断層画像に対応する、折返し像のない断層画像を出力データとした学習データを用いて学習を行った機械学習モデルである。また、学習データは、折返し像を含まない断層画像を用いて生成されたデータである。このため、本実施形態に係る演算処理部213は、学習済モデルを用いることで、学習の傾向に従って、折返し像が除去された断層画像402を得ることができる。
Further, the trained model is a machine learning model in which training is performed using training data in which a tomographic image is used as input data and a tomographic image without a folded image corresponding to the tomographic image is used as output data. The learning data is data generated using a tomographic image that does not include a folded image. Therefore, the
なお、学習済モデルの学習データの入力データと出力データは断層画像に限らない。例えば、ラインセンサから取得した干渉信号のデータを入力データとし、折返し像が低減された干渉信号のデータを出力データとしてもよい。そのような学習済モデルを用いる場合は、断層画像生成部212によって干渉信号のデータから断層画像を生成する信号処理の前に、演算処理部213による折返し低減処理が行われるように、制御部200を構成することができる。
The input data and output data of the training data of the trained model are not limited to tomographic images. For example, the data of the interference signal acquired from the line sensor may be used as the input data, and the data of the interference signal with the reduced folded image may be used as the output data. When such a trained model is used, the
また、ステップS501においては、複数の2次元断層画像からなる3次元ボリュームデータが取得されてもよい。この場合には、ステップS502において、演算処理部213は、それぞれの2次元断層画像について、折返し低減処理を行い、折返し像が低減された複数の2次元断層画像を生成することができる。これにより、演算処理部213は、折返し像が低減された3次元ボリュームデータを生成することができる。
Further, in step S501, three-dimensional volume data including a plurality of two-dimensional tomographic images may be acquired. In this case, in step S502, the
なお、学習部600について、GPUはデータをより多く並列処理することで効率的な演算を行うことができるため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合にはGPUで処理を行うことが有効である。そのため、学習部600による処理にはCPUに加えてGPUを用いてもよい。この場合には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部600の処理はCPU又はGPUのみにより演算が行われてもよい。また、学習済モデルを用いた処理を実行する演算処理部213(推定部)も、学習部600と同様にGPUを用いてもよい。
Since the GPU can perform efficient calculations by processing more data in parallel with respect to the
また、学習部600は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
Further, the
また、学習データの生成に用いる断層画像701については、様々な状況で撮影された断層画像を含んでよい。例えば、断層画像701は、断層画像中の像の傾きが様々な角度になっている断層画像群を含んでよい。また、断層画像701は、様々なノイズパターンを付加した断層画像群を含んでよい。
Further, the
(実施形態2)
実施形態1では、演算処理部213は、折返し低減処理において、折返し像が生じている断層画像から、折返し像が低減した断層画像として、折返し像を除去した断層画像を生成した。これに対し、実施形態2に係る折返し低減処理では、折返し像が低減した断層画像として、断層画像における折返し像を正規の像に修正した断層画像を生成する。
(Embodiment 2)
In the first embodiment, the
以下、図9乃至11を参照して、本実施形態に係るOCT装置及び学習装置について、実施形態1に係るOCT装置及び学習装置との違いを中心に説明する。なお、本実施形態に係るOCT装置の構成は実施形態1に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態1に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。 Hereinafter, the OCT apparatus and the learning apparatus according to the present embodiment will be described with reference to FIGS. 9 to 11, focusing on the differences from the OCT apparatus and the learning apparatus according to the first embodiment. Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the first embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the first embodiment, the description will be omitted using the same reference number.
図9は、本実施形態に係る制御部200による一連の処理のフローチャートを示す。本実施形態に係る制御部200による処理において、ステップS501及びステップS502は、実施形態1に係るステップS501及びステップS502と同様のステップであるため説明を省略する。ステップS502において、演算処理部213が学習済モデルを用いて折返しの像を除去した断層画像を生成したら、処理はステップS901に移行する。
FIG. 9 shows a flowchart of a series of processes by the
ステップS901では、演算処理部213が、ステップS501で取得された断層画像及びステップS502で生成した断層画像を用いて画像合成処理を行い、断層画像における折返し像を正規の像に修正した断層画像を生成する。以下、図10を参照して、ステップS501及びステップS901の処理を含む、本実施形態に係る折返し低減処理について説明する。図10は、演算処理部213が行う折返し低減処理について説明するための図である。
In step S901, the
断層画像401と断層画像402は、学習済モデルを用いた演算処理に関する入力データと出力データに対応するものであり、それぞれ、ステップS501で取得された断層画像及びステップS502で生成した断層画像に対応する。なお、断層画像401と断層画像402は、図4に記載のものと同一のものであるため、説明を省略する。
The
ステップS901における画像合成処理が開始されると、ステップS911において、演算処理部213は、断層画像401から断層画像402の減算処理を行う。これにより演算処理部213は、折返し像のみからなる折返し画像1001を生成することができる。
When the image composition process in step S901 is started, the
次に、ステップS912において、演算処理部213は、折返し画像1001を上下反転し、断層画像1002を生成する。その後、ステップS913において、演算処理部213は、断層画像1002を断層画像402の上部に連結することで、折返し像を正規の像に修正し、折返し像が低減された断層画像1003を生成することができる。断層画像1003では、折返し像が正規の像に修正されているため、実施形態1に係る断層画像402に比べて、広い範囲について断層の情報を検者に提供することができる。なお、演算処理部213は、断層画像1002に対して逆の位相補正を適用し直してもよい。当該処理は、実施形態1における学習データ生成部602による処理と同様に行われてよい。
Next, in step S912, the
なお、OCT装置においては、フーリエ変換の直流成分の信号強度が顕著に高くなる。そのため、断層画像1003において直流成分に相当する上下の中心部分に白い線が発生してしまう場合がある。そこで、演算処理部213は、断層画像1003の上下の中心部分において、画像処理により眼底の断層を表示しないマスク領域1004を設ける。なお、マスク領域1004が設けられている断層画像1003の位置は、測定光と参照光との光路長が等しい位置であるコヒーレンスゲート位置に対応する位置である。
In the OCT apparatus, the signal strength of the DC component of the Fourier transform is remarkably increased. Therefore, in the
演算処理部213の折返し低減処理により断層画像1003が生成されると、処理はステップS902に移行する。ステップS902では、解析部214が、断層画像1003について層解析等の画像解析処理を行い、層厚等の解析結果を算出する。また、解析部214は、ステップS501で取得された断層画像や正面画像についても画像解析を行ってもよい。ここで、断層画像1003では、折返し像が正規の像に修正されているため、実施形態1に係る断層画像402に比べて、広い範囲について適切な画像解析処理を行うことができる。なお、解析部214は、断層画像1003におけるマスク領域1004を画像解析において無視するように構成されることができる。
When the
ステップS903では、表示制御部203が、ステップS901で生成された断層画像1003、ステップS902で算出された解析結果、及び正面画像を表示部250に表示する。また、表示制御部203は、ステップS501で取得された断層画像401、その解析結果、及び正面画像を表示部250に表示することもできる。ここで、図11(a)及び(b)は、本実施形態に係る表示制御部203が、表示部250に表示させる表示画面1100,1110を示している。
In step S903, the
図11(a)は、折返し低減処理が行われていない断層画像1101を含む表示画面1100を示している。表示画面1100には、折返し低減処理が行われていない断層画像1101、正面画像1102、及び解析結果1105が示されている。なお、インジケータ1103,1104及び折返し低減ボタン1106は、実施形態1に係る表示画面300に示されるインジケータ303,304及び折返し低減ボタン306と同様のものであるため説明を省略する。
FIG. 11A shows a
図11(b)は、折返し低減処理が行われた断層画像1111を含む表示画面1110を示している。表示画面1110には、折返し低減処理が行われた断層画像1111、正面画像1102、及び解析結果1115が示されている。ここで、断層画像1111及び解析結果1115は、ステップS901で生成された断層画像1003及びステップS902で算出された解析結果に対応する。また、断層画像1111におけるマスク領域1118は、断層画像1003におけるマスク領域1004に対応する。なお、折返し低減ボタン1116及びメッセージ1117は、実施形態1に係る表示画面310に示される折返し低減ボタン316及びメッセージ317と同様のものであるため説明を省略する。
FIG. 11B shows a
なお、表示制御部203は、折返し低減ボタン1106,1116の操作等の操作者の指示に応じて、折返し像が低減されていない断層画像とその解析結果、及び折返し像が低減された断層画像とその解析結果を切り替えて表示部250に表示させることができる。ステップS903において、表示制御部203による表示処理が終了したら、制御部200による一連の処理が終了する。
In addition, the
上記のように、本実施形態に係る演算処理部213は、学習済モデルに断層画像401を入力し、学習済モデルから、断層画像401における折返し像が除去された断層画像402(第3の断層画像)を取得する。また、演算処理部213は、断層画像401と断層画像402の差分(折返し画像1001)を上下反転して断層画像1002(第4の断層画像)を生成する。さらに、演算処理部213は、断層画像402と断層画像1002を連結することで、断層画像1003(第2の断層画像)を生成する。ここで、断層画像1003は、断層画像401における折返し像が正規の像として現れている断層画像である。
As described above, the
本実施形態による折返し低減処理によれば、学習済モデルを用いて折返し像が低減されるとともに、折返し像を正規の像に修正した断層画像を取得することができる。このため、断層画像の広い範囲について適切な断層の情報を検者に提供することができ、診断精度を向上させることができる。また、このような断層画像に基づけば、折返し像が発生していた領域においても信頼性の高い解析結果を取得することができる。そのため、本実施形態に係る折返し低減処理により得た断層画像及びその解析結果を検者に提供することで、診断精度をより向上させることができる。 According to the folding reduction processing according to the present embodiment, the folding image is reduced by using the trained model, and a tomographic image obtained by modifying the folding image into a normal image can be acquired. Therefore, it is possible to provide the examiner with appropriate tomographic information for a wide range of the tomographic image, and it is possible to improve the diagnostic accuracy. In addition, based on such a tomographic image, highly reliable analysis results can be obtained even in the region where the folded image was generated. Therefore, the diagnostic accuracy can be further improved by providing the examiner with the tomographic image obtained by the folding reduction process according to the present embodiment and the analysis result thereof.
また、本実施形態では、演算処理部213によって生成された断層画像1003には、コヒーレンスゲート位置に対応する位置にマスク領域1004が設けられている。これにより、断層画像1003において直流成分に相当する上下の中心部分に白い線が発生してしまうことを防止することができる。また、学習済モデルを用いた折返し低減処理により、本来取得されていない信号を示す像が同領域に現れることを防止することができる。
Further, in the present embodiment, the
なお、折返し像が修正された断層画像1003を得る方法は、図10を用いて説明した折返し低減処理と異なっていてもよい。例えば、断層画像402と折返し画像1001の両方を出力データとした学習データを用いて学習済モデルの学習が行われてもよい。この場合、学習データ生成部602は、実施形態1と同様に断層画像701から断層画像702,703を生成する。また、学習データ生成部602は、断層画像702を生成する際に用いた上半分の断層画像を上下反転させた折返し断層画像を生成することができる。ここで、学習データ生成部602によって生成された断層画像703及び折返し断層画像とは、それぞれ断層画像402と折返し画像1001に対応する。また、学習処理部603は、学習データ生成部602によって生成された断層画像703及び折返し断層画像を学習データの出力データとして用いて、機械学習モデルの学習処理を行うことができる。このような学習を行った学習済モデルを用いれば、演算処理部213は、断層画像401から断層画像402及び折返し画像1001を生成することができる。
The method of obtaining the
なお、第1実施形態と同様に、矩形領域画像を学習データの入力データと出力データとして用いてもよい。この場合、学習データ生成部602は、入力データとなる矩形領域画像に対応する位置の断層画像703の矩形領域画像及び折返し断層画像の矩形領域を出力データとすればよい。
As in the first embodiment, the rectangular area image may be used as the input data and the output data of the learning data. In this case, the learning
同様に、例えば、断層画像402と断層画像1002の両方を出力データとした学習データを用いて学習済モデルの学習が行われてもよい。この場合、学習データ生成部602は、実施形態1と同様に断層画像701から断層画像702,703を生成する。また、学習データ生成部602は、断層画像702を生成する際に用いた上半分の断層画像も学習データの出力データとする。ここで、学習データ生成部602によって生成された断層画像703及び上半分の断層画像とは、それぞれ断層画像402と断層画像1002に対応する。また、学習処理部603は、学習データ生成部602によって生成された断層画像703及び上半分の断層画像を学習データの出力データとして用いて、機械学習モデルの学習処理を行うことができる。このような学習を行った学習済モデルを用いれば、演算処理部213は、断層画像401から断層画像402及び断層画像1002を生成することができる。
Similarly, for example, the trained model may be trained using the training data using both the
なお、第1実施形態と同様に、矩形領域画像を学習データの入力データと出力データとして用いてもよい。この場合、学習データ生成部602は、入力データとなる矩形領域画像に対応する位置の断層画像703の矩形領域画像及び上述の上半分の断層画像の矩形領域を出力データとすればよい。
As in the first embodiment, the rectangular area image may be used as the input data and the output data of the learning data. In this case, the learning
また、折返し像が修正された断層画像1003を学習データの出力データとした学習データを用いて学習済モデルの学習が行われてもよい。より具体的には、学習済モデルは、断層画像401を入力データとし、該断層画像401に対応する、折返し像が正規の像として現れている断層画像1003を出力データとした学習データを用いて学習を行ってもよい。この場合には、学習データ生成部602は、実施形態1と同様に断層画像702を生成するが、断層画像703は生成しなくてよい。学習処理部603は、学習データ生成部602によって生成された断層画像702を学習データの入力データとし、画像格納部601に格納されていた断層画像701を学習データの出力データとして用いて、機械学習モデルの学習処理を行うことができる。このような学習を行った学習済モデルを用いれば、演算処理部213は、折返し像が修正された断層画像1003を断層画像401から直接生成することができる。この場合には、ステップS901は省略されてよい。
Further, the trained model may be trained using the training data in which the
なお、演算処理部213が、学習済モデルを用いて、断層画像1003を断層画像401から直接生成する場合においても、学習データの入力データ及び出力データとして断層画像702及び断層画像701の矩形領域画像を用いることができる。この場合には、まず、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の上半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。また、同様に、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の下半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。
Even when the
演算処理部213は、入力データとなる断層画像を矩形領域毎に分割し、これらの学習済モデルのそれぞれに入力する。その後、演算処理部213は、各学習済モデルについて、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、折返し像が修正された断層画像1003の上半分の画像及び下半分の画像に対応する画像を生成することができるため、これらを結合することで、断層画像1003を生成することができる。
The
なお、1つの学習済モデルを用いて断層画像1003を断層画像401から直接生成することもできる。この場合には、学習データの出力データとして、入力データである矩形領域画像に対応する、断層画像701の上半分の画像及び下半分の画像における矩形領域画像を用いればよい。
It is also possible to generate the
また、本実施形態では、演算処理部213は、断層画像1003の上下の中心部分(コヒーレンスゲート位置に対応する位置)において、画像処理により眼底の断層を表示しないマスク領域1004を設けた。これに対し、学習データ生成部602が、断層画像702の上端にマスク領域を設けた画像を学習データの出力データの生成に用いてもよい。この場合、演算処理部213は、断層画像1002の下端にマスク領域を設けてもよい。また、学習済モデルを用いて折返し像が修正された断層画像1003を直接得る場合には、学習データ生成部602は、断層画像701の上下の中心部分にマスク領域を設けた画像を学習データの出力データの生成に用いてもよい。
Further, in the present embodiment, the
(実施形態3)
実施形態2では、演算処理部213は、入力データとなる断層画像の全体について折返し低減処理を行った。これに対して、患眼において黄斑部に病変がある場合には、黄斑部の像が描写される断層画像の中心部分に凹凸などの変化が生じる場合がある。このため、断層画像の中心部分については画像の修正処理を行うべきでない場合もある。また、学習済モデルでは、断層画像の横方向の特徴を修正せず、縦方向の特徴だけを修正することも考えられうる。このような場合に、断層画像全体に修正処理を適用すると、断層画像の中心部分の病変の像まで変更されてしまう可能性がある。
(Embodiment 3)
In the second embodiment, the
そこで、実施形態3では、演算処理部213による折返し低減処理を、入力データとなる断層画像の中心部以外の領域、特に折返し像が生じている領域に適用する。以下、図12及び13を参照して、本実施形態に係るOCT装置及び学習装置について、実施形態2に係るOCT装置及び学習装置との違いを中心に説明する。なお、本実施形態に係るOCT装置の構成は実施形態2に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態2に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。
Therefore, in the third embodiment, the folding reduction processing by the
図12は、本実施形態に係る制御部200による一連の処理のフローチャートを示す。本実施形態に係る制御部200による処理において、ステップS501では、実施形態1に係る同ステップと同様の処理を行うため説明を省略する。また、図13は、ステップS1201乃至ステップS1203の処理を含む、演算処理部213が行う折返し低減処理について説明するための図である。なお、図13において、断層画像401は、学習済モデルを用いた演算処理に関する入力データに対応するものであり、ステップS501で取得された断層画像に対応する。
FIG. 12 shows a flowchart of a series of processes by the
ステップS501において、取得部201が断層画像を取得したら、処理はステップS1201に移行する。ステップS1201では、演算処理部213が、ステップS501で取得された断層画像401から折返し像が生じる領域の画像1301,1302(折返し領域画像)を抽出する。なお、演算処理部213は、断層画像の所定の領域の画像を折返し像が生じる領域の画像として抽出することができる。本実施形態では、例えば、断層画像の横方向の両端部から、断層画像の横方向の画像サイズの1/4の画像サイズを有する2つの折返し領域画像1301,1302を抽出する。また、演算処理部213は、断層画像の残りの領域の画像を中央部分の領域の画像1305として抽出することができる。なお、所定の領域については、断層画像の横方向の両端部から、断層画像の横方向の画像サイズの1/4の画像サイズを有する領域に限らず、所望の構成に応じて任意の画像サイズを有する領域としてよい。
When the
ステップS1202では、演算処理部213は、学習済モデルを用いて、各折返し領域画像1301,1302から、折返し像を正規の像に修正し、折返し像が低減された領域画像1303,1304をそれぞれ生成する。なお、学習データとしては、図7に示す、断層画像702における折返し像が生じる領域の画像を入力データとし、断層画像701の対応する領域の画像を出力データとすることができる。なお、学習データに関する折返し像が生じる領域についても、断層画像の所定の領域、例えば、断層画像の横方向の両端部から、断層画像の横方向の画像サイズの1/4の画像サイズを有する領域とすることができる。
In step S1202, the
ステップS1203では、折返し像が低減された各領域画像1303,1304及び中央部分の領域の画像1305を用いて画像合成処理を行い、折返し像を正規の像に修正した全体の断層画像1306を生成する。より具体的には、演算処理部213は、ステップS1203に含まれるステップS1231において、中央部分の領域の画像1305の左端部に領域画像1303を連結し、右端部に領域画像1304を連結する。なお、演算処理部213は、中央部分の領域の画像1305の上部において、領域画像1303,1304の間に任意の画素値を追加するパディング処理を行ってよい。また、演算処理部213は、実施形態3と同様に、断層画像1306においてマスク領域1307を設けることができる。
In step S1203, image composition processing is performed using each
ステップS1203において、断層画像1306が生成されると、処理はステップS902に移行する。ステップS902及びステップS903は、実施形態2に係るステップS902及びS903と同様のステップであるため説明を省略する。ステップS903において、表示処理が終了すると一連の処理が終了する。
When the
上記のように、本実施形態に係る演算処理部213は、断層画像401から、折返し像が生じる領域の折返し領域画像1301,1302(第1の領域の画像)を抽出する。また、演算処理部213は、折返し領域画像1301,1302を学習済モデルに入力して領域画像1303,1304(第2の領域画像)を得る。演算処理部213は、領域画像1303,1304を断層画像401における折返し像が生じる領域以外の領域の画像1305と連結することで、断層画像1306を生成する。特に本実施形態では、演算処理部213は、折返し領域画像1301,1302として、断層画像401における所定の領域の画像を抽出する。
As described above, the
本実施形態による折返し低減処理によれば、実施形態2係る折り返し低減処理と同様の効果を奏することができる。さらに、患眼において黄斑部に病変がある場合においても、黄斑部の像が描写される断層画像の中心部分に不必要な修正処理を行わないことで、病変の情報を改変することを抑制することができる。 According to the fold-back reduction process according to the present embodiment, the same effect as that of the fold-back reduction process according to the second embodiment can be obtained. Furthermore, even if there is a lesion in the macula in the affected eye, it is possible to suppress alteration of the lesion information by not performing unnecessary correction processing on the central part of the tomographic image in which the image of the macula is depicted. be able to.
なお、学習データの生成方法としては、上述のように、学習データ生成部602が、図7に示す、断層画像702における折返し像が生じる領域の画像を入力データとし、断層画像701の対応する領域の画像を出力データとして生成してよい。
As a method of generating training data, as described above, the training
また、本実施形態では、演算処理部213は、学習済モデルを用いて、折返し領域画像1301,1302から、領域画像1303,1304をそれぞれ生成した。これに対し、学習済モデルについて、折返し領域画像1301,1302の両方を入力データとし、断層画像1306における中央部分の領域の画像1305以外の領域の画像を出力データとした学習を行ってもよい。この場合には、学習データ生成部602は、図7に示す、断層画像702における折返し像が生じる領域の画像の両方を入力データとして生成してよい。また、学習データ生成部602は、断層画像702の残りの領域の画像(中央部分の領域の画像)に対応する領域以外の、断層画像701の領域の画像を出力データとして生成してよい。
Further, in the present embodiment, the
この場合には、演算処理部213は、学習済モデルを用いて、折返し領域画像1301,1302から、断層画像1306における、中央部分の領域の画像1305に対応する領域以外の領域の画像を生成することができる。これにより、演算処理部213は、当該生成した画像と中央部分の領域の画像1305を連結することで、断層画像1306を生成することができる。この場合には、連結処理(ステップS1231)における、パディング処理を省略することができる。
In this case, the
また、演算処理部213は、入力データとなる断層画像に対してセグメンテーション処理等の画像解析処理を行い、折返し像が生じる領域を特定して当該領域の画像を抽出してもよい。なお、折返し像が生じる領域を特定するためのセグメンテーション処理は、公知の任意の手法を用いてよい。この場合、演算処理部213が抽出する領域の横方向のサイズは、断層画像中の折返し像に基づくため不定である。
Further, the
そのため、このような場合には、演算処理部213は、抽出した領域の画像を所定の画像サイズを有する複数の矩形領域画像に分割し、学習済モデルに入力することができる。ここで、矩形領域画像は他の矩形領域画像と重複する領域を有してもよい。演算処理部213は、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、折返し像を正規の像に修正し、折返し像が低減された領域画像を生成することができる。その後の処理は、本実施形態と同様であってよい。なお、学習済モデルから出力される矩形領域画像群のそれぞれを結合する際には、矩形領域画像における互いに重複する領域が互いに重畳するように、矩形領域画像群を結合してよい。この場合、互いに重畳される領域では、重畳される矩形領域画像のうちの任意の1つの矩形領域画像の画素値のみを用いて画素値を決定してもよいし、重畳される矩形領域画像の画素値の平均値や中央値等を画素値として決定してもよい。
Therefore, in such a case, the
この場合には、実施形態2で述べたように、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の上半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。また、同様に、入力データとして用いられる断層画像702の矩形領域画像に対応する、断層画像701の下半分の画像における矩形領域の画像を出力データとして学習を行った学習済モデルを用意する。
In this case, as described in the second embodiment, learning is performed using the rectangular region image in the upper half image of the
演算処理部213は、入力データとなる断層画像を矩形領域毎に分割し、これらの学習済モデルのそれぞれに入力する。その後、演算処理部213は、各学習済モデルについて、学習済モデルから出力される矩形領域画像群のそれぞれを、学習済モデルに入力した矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、演算処理部213は、折返し像が修正された領域画像1303,1304の上半分の画像及び下半分の画像に対応する画像を生成することができるため、これらを結合することで、領域画像1303,1304を生成することができる。
The
なお、1つの学習済モデルを用いて領域画像1303,1304を折返し領域画像1301,1302から直接生成することもできる。この場合には、学習データの出力データとして、入力データである断層画像702の矩形領域画像に対応する、断層画像701の上半分の画像及び下半分の画像における矩形領域画像を用いればよい。
It should be noted that the
また、この場合には、学習データ生成部602は、断層画像701,702における折返し像が生じていない部分、例えば中心部分の画像については、学習データの生成に用いなくてもよい。これによって、学習データの数を少なくし、学習処理に係る時間を短くすることができる。
Further, in this case, the learning
また、演算処理部213が、断層画像に対してセグメンテーション処理を行い、折返し像が生じる領域を特定して当該領域の画像を抽出する場合には、抽出した画像について学習データの画像サイズに対応するようにパディング処理を行ってもよい。この場合には、演算処理部213が学習済モデルに入力する折返し領域画像の画像サイズを、学習データの画像サイズに対応するように一定とすることができ、本実施形態に係る折返し低減処理と同様の処理を行うことができる。なお、演算処理部213は、学習済モデルから出力された領域画像について、パディング処理を行う前の画像サイズとなるようにトリミング処理を行い、中央部分の領域の画像と連結させることができる。
Further, when the
この場合の学習データは、本実施形態に係る学習データと同様の学習データであってよい。なお、学習済モデルは、パディング処理した部分についてはそのままの値を出力するように学習を行ってもよい。この場合には、例えば、パディング処理に用いる画素値と同様の画素値を有する領域を含む画像を学習データの入力データ及び出力データに用いればよい。 The learning data in this case may be the same learning data as the learning data according to the present embodiment. The trained model may be trained so as to output the value as it is for the padded portion. In this case, for example, an image including a region having a pixel value similar to the pixel value used for the padding process may be used as the input data and the output data of the training data.
これらの場合であっても、本実施形態と同様の効果を奏することができる。そのため、患眼において黄斑部に病変がある場合においても、黄斑部の像が描写される断層画像の中心部分に不必要な修正処理を行わないことで、病変の情報を改変することを抑制することができる。 Even in these cases, the same effect as that of the present embodiment can be obtained. Therefore, even if there is a lesion in the macula in the affected eye, it is possible to suppress alteration of the lesion information by not performing unnecessary correction processing on the central part of the tomographic image in which the image of the macula is depicted. be able to.
また、本実施形態では、演算処理部213は、断層画像1306の上下の中心部分において、画像処理により眼底の断層を表示しないマスク領域1307を設けた。これに対し、学習データ生成部602は、断層画像701の上下の中心部分にマスク領域を設けた画像を学習データの出力データの生成に用いてもよい。
Further, in the present embodiment, the
なお、本実施形態では、演算処理部213は、折返し像が正規の像に修正された断層画像を生成した。これに対して、演算処理部213は、実施形態1と同様に、折返し像を除去した断層画像を生成してもよい。この場合にも、黄斑部の像が描写される断層画像の中心部分に不必要な処理を行わないことで、病変の情報を改変することを抑制することができる。なお、この場合の学習データは、断層画像702の折返し像が生じる領域の画像を入力データとし、断層画像703における対応する領域の画像を出力データとすればよい。
In the present embodiment, the
(実施形態4)
実施形態1乃至3では、制御部200が、折返し像が低減された断層画像を自動的に生成し、表示の際に折返し像が低減されていない断層画像と折返し像が低減された断層画像を操作者の指示に応じて切り替えて表示した。これに対して、実施形態4では、制御部が、設定又は操作者の指示に応じて折返し低減処理を行うか否かを判断する。
(Embodiment 4)
In the first to third embodiments, the
以下、図14を参照して、本実施形態に係るOCT装置及び学習装置について、実施形態2に係るOCT装置及び学習装置との違いを中心に説明する。なお、本実施形態に係るOCT装置の構成は実施形態2に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態2に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。 Hereinafter, the OCT apparatus and the learning apparatus according to the present embodiment will be described with reference to FIG. 14, focusing on the differences from the OCT apparatus and the learning apparatus according to the second embodiment. Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the second embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the second embodiment, the description will be omitted using the same reference number.
図14は、本実施形態に係る制御部200による一連の処理のフローチャートを示す。本実施形態に係る制御部200による処理において、ステップS501及びステップS502は、実施形態1に係るステップS501及びステップS502と同様であるため説明を省略する。また、ステップS901乃至ステップS903は、実施形態2に係るステップS901乃至ステップS903と同様であるため説明を省略する。本実施形態では、ステップS501において断層画像が取得されると、処理はステップS1401に移行する。
FIG. 14 shows a flowchart of a series of processes by the
ステップS1401では、画像処理部210は、制御部200の表示モードが折返し低減モードであるか否かを判定する。具体的には、前回の撮影において折返し低減ボタンがONである場合に折返し低減モードであると判定し、折返し低減ボタンがOFFである場合に折返し低減モードでないと判定する。ここで、折返し低減ボタンは図11に示す折返し低減ボタン1106,1116と同様のものであってよい。
In step S1401, the
また、画像処理部210は、折返し低減ボタンの状態ではなく、断層画像の状態から折返し低減モードであるか否かを判定してもよい。具体的には、画像処理部210はセグメンテーション処理等の画像解析によって断層画像に折返し像が発生しているか否かを判定し、折返し像が発生していれば折返し低減モードであり、折返し像が発生していなければ折返し低減モードではないと判定してもよい。なお、断層画像に折返し像が発生しているか否かを判断するためのセグメンテーション処理は、公知の任意の手法を用いてよい。
Further, the
さらに、折返し低減モードかどうかは、表示画面の表示後に検者が折返し低減ボタンを操作することで後から変更することができる。また、ステップS1401において、表示制御部203が折返し低減処理を行うか否かを表示部250に表示させ、画像処理部210が操作者の指示に応じて折返し低減処理を行う折返し低減モードが選択されたか否かを判定してもよい。
Further, whether or not the wrapping reduction mode is set can be changed later by the examiner operating the wrapping reduction button after the display screen is displayed. Further, in step S1401, a folding reduction mode is selected in which the
ステップS1401において、画像処理部210により、制御部200が折返し低減モードであると判定された場合は、処理はステップS502に移行する。一方で、ステップS1401において、画像処理部210により、制御部200が折返し低減モードでないと判定された場合は、処理はステップS902に移行する。ステップS502以降の処理は、実施形態2に係る処理と同様であるため説明を省略する。なお、ステップS1401からステップS902に処理が移行した場合には、ステップS902では解析部214は折返し低減処理が行われていない断層画像や正面画像等について画像解析を行ってよい。ステップS903で表示処理が終了すると、一連の処理が終了する。
If the
上記のように、本実施形態に係る演算処理部213は、設定又は操作者の指示に応じて、断層画像1003を生成する。また、演算処理部213は、断層画像401が折返し像を含むか否かを判定し、断層画像401が折返し像を含むと判定した場合に、断層画像1003を生成してもよい。
As described above, the
これにより、本実施形態に係る制御部200は、必要に応じて折返し低減処理を実行することができ、計算負荷を軽減することができる。また、実施形態1乃至3では、自動的に折返し低減処理が実行されるため、学習データに折返し像が生じていない断層画像も含むことができるように構成した。これに対し、本実施形態に係る制御部200では、折返し像が生じている断層画像について折返し低減処理を適用することが想定されるため、学習データに折返し像が生じていない画像を用いなくてもよい。このため、用意すべき学習データの数を減らすことができ、学習に係る時間を短くすることができる。
As a result, the
なお、本実施形態に係る一連の処理については、実施形態2に係る一連の処理との違いを中心に説明したが、実施形態1及び3に係る一連の処理において、本実施形態と同様の折返し低減処理を行うか否かの判定を行ってもよい。 The series of processes according to the present embodiment has been described mainly on the difference from the series of processes according to the second embodiment, but in the series of processes according to the first and third embodiments, the same return as that of the present embodiment has been described. It may be determined whether or not the reduction process is performed.
(実施形態5)
実施形態1乃至4では、解析部214が、画像解析を行って層厚等の解析結果を算出する構成について述べた。これに対し、解析部214は、折返し像が低減された断層画像等から層厚マップ等のマップ画像を生成してもよい。
(Embodiment 5)
In the first to fourth embodiments, the configuration in which the
ここで、上述の特許文献1に開示された技術は、層厚マップにおいて、折返し像によって信頼性が低下した領域を識別しやすくするものであり、折返し像が発生した領域に対して信頼性の高い層厚データを得るものではなかった。そのため、特許文献1に開示された技術では、折返し像が発生した領域の層厚情報は診断に使用できないという問題があった。 Here, the technique disclosed in Patent Document 1 described above makes it easy to identify a region where the reliability is lowered by the folded image in the layer thickness map, and is reliable with respect to the region where the folded image is generated. It did not provide high layer thickness data. Therefore, the technique disclosed in Patent Document 1 has a problem that the layer thickness information of the region where the folded image is generated cannot be used for diagnosis.
これに対し、実施態様1乃至4に係る制御部では、折返し像が発生した領域においても信頼性の高い解析結果を取得することができるため、このような解析結果を用いることで、広い範囲にわたって信頼性の高い解析結果を示すマップ画像を生成することができる。以下、図15を参照して、広い範囲にわたって信頼性の高い解析結果を示すマップ画像を生成する実施形態5に係るOCT装置について、実施形態2に係るOCT装置との違いを中心に説明する。 On the other hand, the control unit according to the first to fourth embodiments can acquire a highly reliable analysis result even in the region where the folded image is generated. Therefore, by using such an analysis result, a wide range can be obtained. It is possible to generate a map image showing a highly reliable analysis result. Hereinafter, the OCT apparatus according to the fifth embodiment, which generates a map image showing highly reliable analysis results over a wide range, will be described with reference to FIG. 15, focusing on the difference from the OCT apparatus according to the second embodiment.
なお、本実施形態に係るOCT装置の構成は実施形態2に係るOCT装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。なお、本実施形態に係る学習装置の構成も実施形態2に係る学習装置の構成と同様であるため、同じ参照番号を用いて説明を省略する。また、制御部による一連の処理の流れも実施形態2に係る制御部による一連の処理の流れと同様であるため説明を省略する。ただし、本実施形態では、ステップS902において、解析部214が、折返し低減処理が行われた断層画像に基づく画像解析結果として、被検眼Eのマップ画像を生成する。また、解析部214は、折返し低減処理が行われていない断層画像や正面画像について画像解析を行ってもよい。
Since the configuration of the OCT apparatus according to the present embodiment is the same as the configuration of the OCT apparatus according to the second embodiment, the description will be omitted using the same reference number. Since the configuration of the learning device according to the present embodiment is the same as the configuration of the learning device according to the second embodiment, the description will be omitted using the same reference number. Further, since the flow of a series of processes by the control unit is the same as the flow of a series of processes by the control unit according to the second embodiment, the description thereof will be omitted. However, in the present embodiment, in step S902, the
本実施形態に係る解析部214は、画像解析結果として、マップ画像の一種である被検眼Eの層厚マップを生成する。層厚マップは、眼底Efの厚み分布に濃淡や色を付けたものである。解析部214は、断層画像生成部212によって生成された3次元ボリュームデータのそれぞれの断層画像から、セグメンテーション処理によって被検眼Eの網膜の層ごとの境界を検出する。なお、セグメンテーション処理については、実施形態1と同様の処理であるため説明を省略する。
The
解析部214は、検出した境界データから解析部214は眼底Efの各場所における各層の厚さを算出する。そして、解析部214は、眼底Efの各場所の厚さに応じて濃淡や色を付与した層厚マップを生成する。
The
ここで、図15(a)及び(b)は、本実施形態に係る表示画面の一例を示す。図15(a)は、折返し低減処理が行われていない断層画像1501を含む表示画面1500を示している。表示画面1500には、折返し低減処理が行われていない断層画像1501、正面画像1502、及び層厚マップ1504が示されている。なお、インジケータ1503及び折返し低減ボタン1505は、実施形態2に係る表示画面1100に示されるインジケータ1103及び折返し低減ボタン1106と同様のものであるため説明を省略する。
Here, FIGS. 15A and 15B show an example of a display screen according to the present embodiment. FIG. 15A shows a
ここで、層厚マップ1504は被検眼Eの層厚マップである。不図示のプルダウンなどの選択手段により、検者は層厚マップ1504に表示する層を切り替えることができる。層厚マップ1504における濃淡は、濃いほど層が厚いことを意味する。層厚マップ1504では濃さをもつ部分が円状であり、円の外側は白くなっている。白い部分は解析部214が層の厚さ検出に失敗したことを意味している。この失敗は、断層画像1501の両端に見られる折返し像によって層構造が不明瞭になったことが原因である。
Here, the
これに対し、図15(b)は、折返し低減処理が行われた断層画像1511を含む表示画面1510を示している。表示画面1510には、折返し低減処理が行われた断層画像1511、正面画像1502、及び層厚マップ1514が示されている。ここで、断層画像1511は、図11(b)に示す断層画像1111と同様のものである。また、断層画像1511におけるマスク領域1517は、断層画像1111におけるマスク領域1118と同様のものである。なお、インジケータ1513、折返し低減ボタン1515、及びメッセージ1516は、実施形態2に係る表示画面1110に示されるインジケータ1113、折返し低減ボタン1116、及びメッセージ1117と同様のものであるため説明を省略する。
On the other hand, FIG. 15B shows a
層厚マップ1514では、中央部分は層厚マップ1504と同等であるが、外側の領域も濃度を持っている点が層厚マップ1504と異なる。これは、解析部214が外側の領域まで層の厚さ検出に成功したことを意味している。このように、折り返し低減処理を行った断層画像に基づいて層厚マップを生成すると、折返し像が発生した領域においても信頼性の高い層厚情報を得ることができ、広い範囲の層厚マップを生成することができる。このため、層厚マップ1514を検者に提供することで、検者は層厚マップ1504よりも広い範囲で網膜の層厚を確認することができ、診断効率を向上させることができる。
In the
層厚マップを用いた診断としては、例えば緑内障の診断が知られている。緑内障の診断には、神経節細胞複合体(GCC:Ganglion Cell Complex)と呼ばれる層の厚み分布が重要であることが知られている。このため、神経節細胞複合体の層の厚みを示す層厚マップとして、本実施形態に係る折り返し低減処理を行った断層画像に基づく層厚マップを用いることで、広い範囲で信頼性の高い層厚情報を得ることができ、緑内障の診断効率を向上させることができる。 As a diagnosis using a layer thickness map, for example, a diagnosis of glaucoma is known. It is known that the thickness distribution of a layer called ganglion cell complex (GCC) is important for the diagnosis of glaucoma. Therefore, as a layer thickness map showing the thickness of the layer of the ganglion cell complex, a layer thickness map based on the tomographic image subjected to the folding reduction treatment according to the present embodiment is used, and a layer with high reliability in a wide range. It is possible to obtain thickness information and improve the diagnostic efficiency of glaucoma.
上記のように、本実施形態に係る解析部214は、検出した層境界に基づいて、断層画像401及び断層画像1003のうちの少なくとも一方を用いたマップ画像を生成する。ここで、マップ画像は、層厚マップを含む。
As described above, the
実施形態2と同様の本実施形態による折返し低減処理によれば、学習済モデルを用いて折返し像が低減されるとともに、折返し像を修正した断層画像を取得することができる。このため、断層画像の広い範囲について適切な断層の情報を検者に提供することができ、診断精度を向上させることができる。また、このような断層画像に基づけば、折返し像が発生していた領域においても信頼性の高い解析結果を取得することができる。また、本実施形態では、このような解析結果として層厚マップ等のマップ画像を提供することができるため、広い範囲で信頼性の高い層厚情報を検者に提供することで、診断精度をより向上させることができる。 According to the folding reduction processing according to the present embodiment similar to the second embodiment, the folding image is reduced by using the trained model, and a tomographic image in which the folding image is corrected can be acquired. Therefore, it is possible to provide the examiner with appropriate tomographic information for a wide range of the tomographic image, and it is possible to improve the diagnostic accuracy. In addition, based on such a tomographic image, highly reliable analysis results can be obtained even in the region where the folded image was generated. Further, in the present embodiment, since a map image such as a layer thickness map can be provided as such an analysis result, the diagnostic accuracy can be improved by providing the examiner with highly reliable layer thickness information in a wide range. It can be improved further.
なお、本実施形態では、マップ画像として、層厚マップを例に挙げた。しかしながら、マップ画像はこれに限られず、断層画像等を用いた解析結果を正面画像上の位置毎に示す画像であればよい。例えば、血管密度に関する解析結果を示す血管密度マップであってもよい。なお、断層画像等から血管密度を解析する解析手法は、公知の任意の手法を用いてよい。 In this embodiment, a layer thickness map is taken as an example as a map image. However, the map image is not limited to this, and may be an image showing the analysis result using a tomographic image or the like for each position on the front image. For example, it may be a blood vessel density map showing the analysis result regarding the blood vessel density. As an analysis method for analyzing the blood vessel density from a tomographic image or the like, any known method may be used.
また、本実施形態に係る制御部について、実施形態2に係る制御部との違いを中心に説明したが、実施形態1、3及び4に係る制御部についても、本実施形態と同様に解析部214がマップ画像を生成するように構成してもよい。 Further, the control unit according to the present embodiment has been described mainly on the difference from the control unit according to the second embodiment, but the control unit according to the first, third and fourth embodiments is also an analysis unit as in the present embodiment. 214 may be configured to generate a map image.
(変形例1)
上記実施形態1乃至5では、学習済モデルとして用いる機械学習モデルの構成として、図4に示すようなCNNの構成とした。しかしながら、機械学習モデルの構成はこれに限られない。図16は、実施形態1乃至5において、折返し低減処理用の学習済モデルとして用いる機械学習モデルの他の構成例を示す。
(Modification example 1)
In the above-described first to fifth embodiments, the machine learning model used as the trained model has a CNN configuration as shown in FIG. However, the configuration of the machine learning model is not limited to this. FIG. 16 shows another configuration example of the machine learning model used as the learned model for the folding reduction processing in the first to fifth embodiments.
図16に示す機械学習モデルもCNNで構成されている。当該CNNの構成には、複数の畳み込み処理ブロック1610群が含まれる。畳み込み処理ブロック1610は、畳み込み(Convolution)層1611と、バッチ正規化(Batch Normalization)層1612と、正規化線形関数(Rectifier Linear Unit)を用いた活性化層1613とを含む。
The machine learning model shown in FIG. 16 is also composed of CNN. The configuration of the CNN includes a plurality of
また、当該CNNの構成には、合成(Merger)層1620と、最後の畳み込み層1630が含まれる。合成層1620は、畳み込み処理ブロック1610の出力値群と画像を構成する画素値群とを連結したり、加算したりして合成する。最後の畳み込み層1630は、合成層1620で合成された、断層画像402を構成する画素値群を出力する。このような構成では、入力された断層画像401を構成する画素値群が畳み込み処理ブロック1610群を経て出力された値群と、入力された断層画像1601を構成する画素値群とが、合成層1620で合成される。その後、合成された画素値群は最後の畳み込み層1630で折返し像が低減された断層画像402に成形される。
The CNN configuration also includes a synthetic (Merge)
このような構成の機械学習モデルを用いても、実施形態1乃至5と同様に、折返し像が低減された断層画像を生成することができ、診断精度を向上させることができる。 Even if the machine learning model having such a configuration is used, it is possible to generate a tomographic image in which the folded image is reduced, as in the first to fifth embodiments, and it is possible to improve the diagnostic accuracy.
(変形例2)
実施形態5において、解析部214は、折返しの低減された断層画像を用いて、層厚マップを生成した。これに対し、解析部214は、折返しの低減された3次元ボリュームデータのそれぞれの断層画像を用いて、被検眼EのEn−Face画像やOCTA(OCT Angiography)正面画像を生成することもできる。この場合、表示制御部203は、生成されたEn−Face画像やOCTA正面画像を表示部250に表示させることができる。また、解析部214は、生成されたEn−Face画像やOCTA正面画像について解析を行うこともできる。このとき、解析部214は、例えば、OCTA正面画像を解析することで、血管密度マップを得てもよい。
(Modification 2)
In the fifth embodiment, the
ここで、En−Face画像及びOCTA正面画像について説明する。En−Face画像は、光干渉を用いて得た3次元断層画像における任意の深度範囲のデータをXY方向に投影して生成した正面画像である。正面画像は、光干渉を用いて得たボリュームデータ(3次元断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影又は積算して生成される。 Here, the En-Face image and the OCTA front image will be described. The En-Face image is a frontal image generated by projecting data in an arbitrary depth range in a three-dimensional tomographic image obtained by using optical interference in the XY directions. The front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and the data corresponding to the depth range determined based on the two reference planes is displayed on the two-dimensional plane. It is generated by projecting or integrating on.
例えばEn−Face画像は、ボリュームデータのうちの、2次元断層画像についてのセグメンテーション処理により検出された網膜層に基づいて決定された深度範囲に対応するデータを二次元平面に投影して生成されることができる。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲(深度範囲)内における画素値の平均値、中央値又は最大値などの値を含むことができる。 For example, an En-Face image is generated by projecting data corresponding to a depth range determined based on a retinal layer detected by a segmentation process on a two-dimensional tomographic image of volume data onto a two-dimensional plane. be able to. As a method of projecting data corresponding to a depth range determined based on two reference planes on a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range (depth range) in the depth direction of a region surrounded by two reference planes.
En−Face画像に係る深度範囲は、例えば、上述したセグメンテーション処理の手法や後述する学習済モデルを用いたセグメンテーション処理によって検出された網膜層に関する2つの層境界を基準として指定されてよい。また、当該深度範囲は、これらセグメンテーション処理によって検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。この際、操作者は、例えば、断層画像上に重畳された、深度範囲の上限又は下限を示す指標を移動させる等により、深度範囲を変更することができる。 The depth range related to the En-Face image may be specified, for example, with reference to two layer boundaries relating to the retinal layer detected by the segmentation processing method described above or the segmentation processing using the learned model described later. Further, the depth range may be a range including a predetermined number of pixels in a deeper direction or a shallower direction with reference to one of the two layer boundaries relating to the retinal layer detected by these segmentation processes. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to the instruction of the operator from the range between the two layer boundaries regarding the detected retinal layer. Good. At this time, the operator can change the depth range by, for example, moving an index indicating the upper limit or the lower limit of the depth range superimposed on the tomographic image.
なお、生成される正面画像は、上述のような輝度値に基づくEn−Face画像(輝度のEn−Face画像)に限られない。生成される正面画像は、例えば、複数のボリュームデータ間のモーションコントラストデータについて、上述の深度範囲に対応するデータを2次元平面に投影又は積算して生成したモーションコントラスト正面画像であってもよい。ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTAに関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 The generated front image is not limited to the En-Face image (en-Face image of brightness) based on the brightness value as described above. The generated front image may be, for example, a motion contrast front image generated by projecting or integrating the data corresponding to the above-mentioned depth range on the motion contrast data between a plurality of volume data on a two-dimensional plane. Here, the motion contrast data is data indicating a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast front image is also referred to as an OCTA front image (OCTA En-Face image) relating to OCTA for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data. The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , It may be obtained by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected.
また、OCTA正面画像を生成する際に用いられる3次元OCTAデータ(OCTボリュームデータ)は、セグメンテーションに用いられる断層画像を含むボリュームデータと共通の断層画像又は干渉信号の少なくとも一部を用いて生成されてよい。これにより、ボリュームデータ(3次元断層画像)と3次元OCTAデータとが互いに対応することができる。そのため、ボリュームデータに対応する3次元モーションコントラストデータを用いて、例えば、セグメンテーションにより検出された網膜層に基づいて決定された深度範囲に対応するモーションコントラスト正面画像が生成されることができる。 Further, the three-dimensional OCTA data (OCT volume data) used when generating the OCTA front image is generated by using at least a part of the tomographic image or the interference signal common to the volume data including the tomographic image used for segmentation. It's okay. As a result, the volume data (three-dimensional tomographic image) and the three-dimensional OCTA data can correspond to each other. Therefore, using the three-dimensional motion contrast data corresponding to the volume data, for example, a motion contrast front image corresponding to a depth range determined based on the retinal layer detected by segmentation can be generated.
(変形例3)
なお、上記実施形態及び変形例では、解析部214がルールベースのセグメンテーションを行う構成とした。これに対し、解析部214は、学習済モデルを用いてセグメンテーション処理を行ってもよい。この際、解析部214は、学習済モデルを用いて断層画像からラベル画像を生成してもよい。ここでラベル画像とは、断層画像について画素毎に領域のラベルが付されたラベル画像をいう。具体的には、取得された画像に描出されている領域群のうち、任意の領域を特定可能な画素値(以下、ラベル値)群によって分けている画像のことである。ここで、特定される任意の領域には関心領域(ROI:Region Of Interest)や関心体積(VOI:Volume Of Interest)等が含まれる。
(Modification example 3)
In the above embodiment and the modified example, the
画像から任意のラベル値を持つ画素の座標群を特定すると、画像中において対応する網膜層等の領域を描出している画素の座標群を特定できる。具体的には、例えば、網膜を構成する神経節細胞層を示すラベル値が1である場合、画像の画素群のうち画素値が1である座標群を特定し、画像から該座標群に対応する画素群を抽出する。これにより、当該画像における神経節細胞層の領域を特定できる。 By specifying the coordinate group of the pixel having an arbitrary label value from the image, the coordinate group of the pixel that depicts the corresponding region such as the retinal layer in the image can be specified. Specifically, for example, when the label value indicating the ganglion cell layer constituting the retina is 1, the coordinate group having the pixel value of 1 among the pixel groups of the image is specified, and the coordinate group corresponds to the coordinate group from the image. Extract the pixel group to be used. Thereby, the region of the ganglion cell layer in the image can be identified.
なお、セグメンテーション処理には、ラベル画像に対する縮小又は拡大処理を実施する処理が含まれてもよい。このとき、ラベル画像の縮小又は拡大に用いる画像補完処理手法は、未定義のラベル値や対応する座標に存在しないはずのラベル値を誤って生成しないような、最近傍法等を使うものとする。 The segmentation process may include a process of reducing or enlarging the label image. At this time, the image complement processing method used for reducing or enlarging the label image shall use the nearest neighbor method or the like so as not to erroneously generate an undefined label value or a label value that should not exist at the corresponding coordinates. ..
ここで、セグメンテーション処理についてより詳細に説明する。セグメンテーション処理とは、画像に描出された臓器や病変といった、ROIやVOIと呼ばれる領域を、画像診断や画像解析に利用するために特定する処理のことである。例えば、セグメンテーション処理によれば、後眼部を撮影対象としたOCTの撮影によって取得された画像から、網膜を構成する層群の領域群を特定することができる。なお、画像に特定すべき領域が描出されていなければ特定される領域の数は0である。また、画像に特定すべき複数の領域群が描出されていれば、特定される領域の数は複数であってもよいし、又は、該領域群を含むように囲む領域1つであってもよい。 Here, the segmentation process will be described in more detail. The segmentation process is a process for identifying an area called ROI or VOI, such as an organ or a lesion depicted in an image, for use in image diagnosis or image analysis. For example, according to the segmentation process, it is possible to identify the region group of the layer group constituting the retina from the image acquired by the OCT imaging of the back eye portion as the imaging target. If the area to be specified is not drawn in the image, the number of specified areas is 0. Further, as long as a plurality of region groups to be specified are depicted in the image, the number of the specified regions may be a plurality, or even one region surrounding the region groups so as to include the region groups. Good.
特定された領域群は、その他の処理において利用可能な情報として出力される。具体的には、例えば、特定された領域群のそれぞれを構成する画素群の座標群を数値データ群として出力することができる。また、例えば、特定された領域群のそれぞれを含む矩形領域や楕円領域、長方体領域、楕円体領域等を示す座標群を数値データ群として出力することもできる。さらに、例えば、特定された領域群の境界にあたる直線や曲線、平面、又は曲面等を示す座標群を数値データ群として出力することもできる。また、例えば、特定された領域群を示すラベル画像を出力することもできる。 The specified area group is output as information that can be used in other processing. Specifically, for example, the coordinate group of the pixel group constituting each of the specified region groups can be output as a numerical data group. Further, for example, a coordinate group indicating a rectangular region, an ellipsoid region, a rectangular parallelepiped region, an ellipsoid region, or the like including each of the specified region groups can be output as a numerical data group. Further, for example, a coordinate group indicating a straight line, a curve, a plane, a curved surface, or the like corresponding to the boundary of the specified region group can be output as a numerical data group. Further, for example, a label image showing the specified region group can be output.
ここで、セグメンテーション用の機械学習モデルとしては、例えば、畳み込みニューラルネットワーク(CNN)を用いることができる。なお、本変形例に係る機械学習モデルとしては、例えば、図4で示したようなCNN(U−net型の機械学習モデル)や、CNNとLSTM(Long Short−Term Memory)を組み合わせたモデルを用いることができる。また、機械学習モデルとしてFCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。さらに、所望の構成に応じて、領域単位で物体認識を行う機械学習モデル等を用いることができる。領域単位で物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Here, as a machine learning model for segmentation, for example, a convolutional neural network (CNN) can be used. As the machine learning model according to this modification, for example, a CNN (U-net type machine learning model) as shown in FIG. 4 or a model combining CNN and LSTM (Long Short-Term Memory) can be used. Can be used. Further, FCN (Full Convolutional Network), SegNet, or the like can also be used as the machine learning model. Further, a machine learning model or the like that recognizes an object in a region unit can be used according to a desired configuration. As a machine learning model that recognizes an object in a region unit, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Further, as a machine learning model for recognizing an object in a region unit, YOLO (You Only Look Object) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used.
また、セグメンテーション用の機械学習モデルの学習データは、断層画像を入力データとし、当該断層画像について画素毎に領域のラベルが付されたラベル画像を出力データとする。ラベル画像としては、例えば、内境界膜(ILM)、神経線維層(NFL)、神経節細胞層(GCL)、視細胞内節外節接合部(ISOS)、網膜色素上皮層(RPE)、ブルッフ膜(BM)、及び脈絡膜等のラベルが付されたラベル画像を用いることができる。なお、その他の領域として、例えば、硝子体、強膜、外網状層(OPL)、外顆粒層(ONL)、内網状層(IPL)、内顆粒層(INL)、角膜、前房、虹彩、及び水晶体等のラベルが付された画像を用いてもよい。 Further, as the training data of the machine learning model for segmentation, the tomographic image is used as the input data, and the label image in which the area is labeled for each pixel of the tomographic image is used as the output data. Label images include, for example, the inner limiting membrane (ILM), the nerve fiber layer (NFL), the ganglion cell layer (GCL), the photoreceptor inner segment outer segment junction (ISOS), the retinal pigment epithelial layer (RPE), and Bruch. Labeled images with labels such as membrane (BM) and choroid can be used. Other regions include, for example, the vitreous body, sclera, outer plexiform layer (OPL), outer nuclear layer (ONL), inner nuclear layer (IPL), inner nuclear layer (INL), cornea, anterior chamber, and iris. And an image with a label such as a crystalline lens may be used.
また、セグメンテーション用の機械学習モデルの入力データは断層画像に限られない。前眼部画像、眼底観察光学系を用いて得た正面画像、眼底カメラ等を用いて得られた眼底正面画像、又は上述したEn−Face画像やOCTA正面画像等であってもよい。この場合、学習データは、各種画像を入力データとし、各種画像の画素毎に領域名等がラベル付けされたラベル画像を出力データとすることができる。例えば、学習データの入力データが眼底の正面画像である場合には、出力データは、視神経乳頭の周辺部、Disc、及びCup等のラベルが付された画像であってよい。 Moreover, the input data of the machine learning model for segmentation is not limited to the tomographic image. It may be an anterior segment image, a frontal image obtained by using a fundus observation optical system, a fundus anterior image obtained by using a fundus camera or the like, or the En-Face image or OCTA frontal image described above. In this case, as the learning data, various images can be used as input data, and label images in which region names and the like are labeled for each pixel of various images can be used as output data. For example, when the input data of the training data is a frontal image of the fundus, the output data may be an image labeled with the peripheral portion of the optic disc, Disc, Cup, or the like.
なお、出力データとして用いられるラベル画像は、医師等により断層画像において各領域にラベルが付された画像であってもよいし、ルールベースの領域検出処理により各領域にラベルが付された画像であってもよい。ただし、適切にラベル付けが行われていないラベル画像を学習データの出力データとして用いて機械学習を行うと、当該学習データを用いて学習した学習済モデルを用いて得た画像も適切にラベル付けが行われていないラベル画像となってしまう可能性がある。そのため、そのようなラベル画像を含むペアを学習データから取り除くことで、学習済モデルを用いて適切でないラベル画像が生成される可能性を低減させることができる。 The label image used as the output data may be an image in which each region is labeled in the tomographic image by a doctor or the like, or an image in which each region is labeled by the rule-based region detection process. There may be. However, if machine learning is performed using a label image that is not properly labeled as the output data of the training data, the image obtained by using the trained model trained using the training data is also properly labeled. There is a possibility that the label image will not be used. Therefore, by removing the pair containing such a label image from the training data, it is possible to reduce the possibility that an inappropriate label image is generated by using the trained model.
解析部214は、このようなセグメンテーション用の学習済モデルを用いて、セグメンテーション処理を行うことで、各種画像について特定の領域を高速に精度良く検出することが期待できる。
The
(変形例4)
上記実施形態及び変形例では、解析部214が、折返し像が低減された断層画像について画像セグメンテーション処理を行った。これに対し、演算処理部213が、学習済モデルを用いて折返し像が低減された断層画像を生成する際に、断層画像の画素毎にラベル値が付されたラベル画像を生成してもよい。
(Modification example 4)
In the above embodiment and the modified example, the
この場合には、演算処理部213が用いる学習済モデルの学習データの出力データとして、折返し像が生じていない断層画像703及び断層画像703について画素毎にラベル値が付されたラベル画像を用いる。なお、学習データ生成部602は、断層画像703について、上述のルールベース又は学習済モデルを用いたセグメンテーション処理によりラベル画像を生成してよい。これにより、学習データ生成部602は、断層画像703及び当該ラベル画像を学習データの出力データとして生成することができる。なお、ラベル画像については、学習データ生成部602によって生成されたラベル画像を検者等が修正したものであってもよい。また、学習済モデルは、学習の傾向に従って入力データに対応する可能性の高い出力データを出力するため、検者が適切でないとラベル画像は学習データから除外することとしてもよい。
In this case, as the output data of the training data of the trained model used by the
このような場合には、解析部214は、演算処理部213によって出力されたラベル画像に基づいて画像解析処理を行うことができる。なお、演算処理部213は、折返し像が生じていない断層画像として、折返し像が低減された断層画像について画素毎にラベル値が付されたラベル画像のみを生成してもよい。この場合には、学習データ生成部602は、学習データの出力データとして、断層画像703について画素毎にラベル値が付されたラベル画像のみを用いてよい。
In such a case, the
これらの場合にも、制御部200は、演算処理部213が学習済モデルを用いてラベル画像を生成することにより、信頼性の高い解析結果を取得可能な断層情報を取得することができる。なお、学習済モデルは、折返し像が低減された断層画像を生成するための学習済モデルとラベル画像を生成するための学習済モデルを別々に用意してもよいし、両方の画像を生成するための一つの学習済モデルを用意してもよい。ラベル画像を生成するための学習済モデルについては、折返し像が生じていない断層画像703について画素毎にラベル値が付されたラベル画像のみを学習データの出力データとして学習を行えばよい。
In these cases as well, the
(変形例5)
変形例4では、演算処理部213は、折返し低減処理が行われた断層画像のラベル画像を出力した。これに対し、演算処理部213は、学習済モデルを用いて、折返し像が生じている領域と、折返し像が生じていない領域とをそれぞれ識別可能なラベル値を付したラベル画像を生成してもよい。このような場合、学習済モデルの学習データに関するラベル画像は、医師等によってラベル値が付されたラベル画像であってよい。具体的には、図7に示される断層画像702について、医師等が画素毎のラベルを付した画像を用いることができる。
(Modification 5)
In the modification 4, the
この場合には、解析部214が、生成されたラベル画像におけるラベル値に基づいて、折返し像が生じていない領域を特定し、当該領域以外の領域における層構造を選択的に解析することで、信頼性の高い解析結果を得ることができることが期待できる。この場合には、制御部200は、折返し低減画像を生成しない。しかしながら、演算処理部213が学習済モデルを用いて、折返し像が生じている領域と折返し像が生じていない領域とをそれぞれ識別可能なラベル画像を生成することにより、制御部200は、信頼性の高い解析結果を取得可能な断層情報を取得することができる。
In this case, the
(変形例6)
また、解析部214は、セグメンテーション処理によって生成されたラベル画像について、学習済モデルを用いて画像解析処理を行ってもよい。このとき、画像解析用の学習済モデルは、断層画像を含む医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってよい。なお、医用画像には断層画像、眼底正面画像、前眼部画像、En−Face画像、及びOCTA正面画像等が含まれてよい。
(Modification 6)
Further, the
また、画像解析を行うための学習済モデルの学習データは、画像セグメンテーション処理用の学習済モデルを用いて生成されたラベル画像と、当該ラベル画像を用いた医用画像の解析結果とを含んだものでもよい。この場合、解析部214は、例えば、解析結果生成用の学習済モデルを用いて、画像セグメンテーション処理の結果から、断層画像の解析結果を生成することができる。さらに、学習済モデルは、En−Face画像及びOCTA正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。
Further, the training data of the trained model for performing image analysis includes a label image generated by using the trained model for image segmentation processing and an analysis result of a medical image using the label image. It may be. In this case, the
また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付けしたデータであってもよい。なお、表示制御部203は、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果を表示部250に表示させるように構成されてもよい。
Further, the training data includes, for example, at least the analysis value (for example, average value, median value, etc.) obtained by analyzing the analysis area, the table including the analysis value, the analysis map, the position of the analysis area such as the sector in the image, and the like. The information including one may be the data labeled with the input data as the correct answer data (for supervised learning). The
(変形例7)
また、上述した様々な実施形態及び変形例における解析部214は、折返し像の低減された断層画像を用いて、解析結果や診断結果等を生成してもよい。このとき、表示制御部203は、表示画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。このとき、例えば、各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い解析結果を表示させることができる。なお、アーチファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーチファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーチファクト等であってもよい。また、アーチファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、表示制御部203は、上述したような様々なアーチファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示部250に表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、及びシュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。なお、画像解析処理は解析部214によって行われてもよいし、解析部214とは別の解析部によって行われてもよい。さらに、画像解析が行われる画像は、折返し像の低減された画像であってもよいし、折返し像の低減されていない画像であってもよい。
(Modification 7)
In addition, the
また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、解析部214又は別の解析部が、断層画像を含む医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成したものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。
Further, the analysis result may be displayed in an analysis map, a sector showing statistical values corresponding to each divided area, or the like. The analysis result is a trained model (analysis result generation engine, trained for analysis result generation) obtained by the
また、学習データは、セグメンテーション処理により生成された領域ラベル画像と、それらを用いた医用画像の解析結果とを含んだものでもよい。この場合、画像処理部210は、例えば、解析結果生成用の学習済モデルを用いて、セグメンテーション処理を実行して得た結果(例えば、網膜層の検出結果)から、断層画像の解析結果を生成する、解析結果生成部の一例として機能することができる。言い換えれば、画像処理部210は、折返し像が低減された断層画像を生成するための学習済モデルとは異なる解析結果生成用の学習済モデル(第2の学習済モデル)を用いて、折返し像が低減された断層画像におけるセグメンテーション処理により特定した異なる領域それぞれについて画像解析結果を生成することができる。また、画像処理部210は、折返し像の低減された画像を用いて得たEn−Face画像やOCTA正面画像等の医用画像について、解析結果生成用の学習済モデルを用いて画像解析処理を行ってもよい。
Further, the learning data may include the area label image generated by the segmentation process and the analysis result of the medical image using them. In this case, the
さらに、学習済モデルは、輝度正面画像及びモーションコントラスト正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。ここで、輝度正面画像は輝度のEn−Face画像に対応し、モーションコントラスト正面画像はOCTAのEn−Face画像に対応する。 Further, the trained model is obtained by learning using training data including input data in which a plurality of medical images of different types of predetermined parts are set, such as a luminance front image and a motion contrast front image. May be good. Here, the brightness front image corresponds to the brightness En-Face image, and the motion contrast front image corresponds to the OCTA En-Face image.
また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果が表示されるように構成されてもよい。 Further, the training data includes, for example, at least the analysis value (for example, average value, median value, etc.) obtained by analyzing the analysis area, the table including the analysis value, the analysis map, the position of the analysis area such as the sector in the image, and the like. The information including one may be the data labeled (annotated) with the input data as the correct answer data (for supervised learning). In addition, the analysis result obtained by using the trained model for generating the analysis result may be displayed according to the instruction from the operator.
また、上述した実施例及び変形例における表示制御部203は、表示画面において、緑内障や加齢黄斑変性等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果としては、特定された異常部位等の位置が画像上に表示されてもよいし、異常部位の状態等が文字等によって表示されてもよい。さらに、異常部位等の分類結果(例えば、カーティン分類)が診断結果として表示されてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA正面画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。
In addition, the
なお、診断結果は、制御部200が、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。
The diagnosis result is generated by using a trained model (diagnosis result generation engine, trained model for generating diagnosis result) obtained by the
また、学習データは、セグメンテーション処理により生成された領域ラベル画像と、それらを用いた医用画像の診断結果とを含んだものでもよい。この場合、画像処理部210は、例えば、診断結果生成用の学習済モデルを用いて、セグメンテーション処理を実行して得た結果(例えば、網膜層の検出結果)から、断層画像の診断結果を生成する、診断結果生成部の一例として機能することができる。言い換えれば、画像処理部210は、折返し像が低減された断層画像を生成するための学習済モデルとは異なる診断結果生成用の学習済モデル(第3の学習済モデル)を用いて、折返し像が低減された断層画像におけるセグメンテーション処理により特定した異なる領域それぞれについて診断結果を生成することができる。また、画像処理部210は、折返し像の低減された断層画像を用いて得たEn−Face画像やOCTA正面画像等の医用画像について、診断結果生成用の学習済モデルを用いて診断結果を生成してもよい。
Further, the learning data may include the area label image generated by the segmentation process and the diagnostic result of the medical image using them. In this case, the
また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルを用いて得た診断結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, the findings (interpretation findings, etc.), and the basis of the diagnosis name (affirmation). Information including at least one such as (general medical support information, etc.) and grounds for denying the diagnosis name (negative medical support information), etc. are labeled (annotated) in the input data as correct answer data (for supervised learning). It may be data. In addition, according to the instruction from the examiner, the diagnosis result obtained by using the trained model for generating the diagnosis result may be displayed.
また、異常部位を検出する場合には、画像処理部210は、敵対的生成ネットワーク(GAN:Generative Adversarial Networks)や変分オートエンコーダー(VAE:Variational Auto−Encoder)を用いてもよい。例えば、断層画像の生成を学習して得た生成器と、生成器が生成した新たな断層画像と本物の眼底正面画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。
Further, when detecting an abnormal portion, the
DCGANを用いる場合には、例えば、識別器が入力された断層画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。また、VAEを用いる場合には、例えば、入力された断層画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。なお、入力データの例として断層画像を例として説明したが、眼底画像や前眼の正面画像等を用いてもよい。 When DCGAN is used, for example, the discriminator encodes the input tomographic image into a latent variable, and the generator generates a new tomographic image based on the latent variable. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal part. When VAE is used, for example, the input tomographic image is encoded by an encoder to be a latent variable, and the latent variable is decoded by a decoder to generate a new tomographic image. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal part. Although a tomographic image has been described as an example of the input data, a fundus image, a frontal image of the anterior eye, or the like may be used.
さらに、画像処理部210は、畳み込みオートエンコーダー(CAE:Convolutional Auto−Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ画像を学習させる。これにより、推定時に異常部位がある画像をCAEに入力すると、学習の傾向に従って異常部位がない画像が出力される。その後、CAEに入力された画像とCAEから出力された画像の差分を異常部位として抽出することができる。なお、この場合にも、断層画像だけでなく、眼底画像や前眼の正面画像等を入力データとして用いてもよい。
Further, the
これらの場合、画像処理部210は、敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、画像処理部210は、高速に精度よく異常部位を検出することが期待できる。ここで、オートエンコーダーには、VAEやCAE等が含まれる。
In these cases, the
また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の画像が、既に機械学習等によって該複数の画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。例えば、画像処理部210は、折返し像が低減された断層画像を生成するための学習済モデルとは異なる類似症例画像検索用の学習済モデル(第4の学習済モデル)を用いて、折返し像の低減された断層画像から、該断層画像に関連する類似症例画像の検索を行うことができる。また、画像処理部210は、折返し像の低減された断層画像を用いて得たEn−Face画像やOCTA正面画像等の医用画像について、類似症例画像検索の学習済モデルを用いて類似症例画像の検索を行ってもよい。
Further, a similar case image search using an external database stored in a server or the like may be performed using the analysis result, the diagnosis result, etc. obtained by the processing of the learned model as described above as a search key. If a plurality of images stored in the database are already managed by machine learning or the like with the feature amount of each of the plurality of images attached as incidental information, the image itself is used as a search key. A similar case image search engine (similar case image search model, trained model for similar case image search) may be used. For example, the
(変形例8)
なお、上記実施形態及び変形例における折返し低減処理は、断層画像の画素値に基づいて行われる構成に限られない。上記各種処理は、光学ヘッド部100で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データに対して適用されてよい。これらの場合も、上記構成と同様の効果を奏することができる。
(Modification 8)
The folding reduction processing in the above-described embodiment and modification is not limited to the configuration performed based on the pixel value of the tomographic image. The various processes are performed on the interference signal acquired by the
上述した実施形態及び変形例に係る折返し低減処理用の学習済モデルでは、断層画像の輝度値の大小、ボケ量、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。特に、折返し低減処理用の学習済モデルは、例えば、学習データに含まれる折返しのある画像と折返しのない画像で、折返しの特徴量を学習し、さらに、推定結果においてその特徴量がなくなるような学習を行うと考えられる。また、網膜層の走行方向が折返し領域とそれ以外とで明らかに異なるため、折返し低減処理用の学習済モデルは、例えば、そのような特徴量を学習することで、折返し領域を選択的に低減することができる可能性がある。さらに、画像セグメンテーション処理用等の学習済モデルでは、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。 In the trained model for the folding reduction process according to the above-described embodiment and modification, the feature quantities include the magnitude of the brightness value of the tomographic image, the amount of blur, the order and inclination of the bright and dark areas, the position, the distribution, and the continuity. It can be considered that it is extracted as a part and used for the estimation process. In particular, in the trained model for the folding reduction process, for example, the feature amount of the folding is learned from the image with the folding and the image without the folding included in the training data, and the feature amount disappears in the estimation result. It is thought that learning will be done. Further, since the traveling direction of the retinal layer is clearly different between the folded region and the other regions, the trained model for the folded reduction process selectively reduces the folded region by learning such a feature amount, for example. There is a possibility that it can be done. Furthermore, in a trained model for image segmentation processing, etc., the magnitude of the brightness value of the tomographic image, the order and inclination of the bright and dark areas, the position, distribution, continuity, etc. are extracted as part of the feature amount and estimated. It can be considered that it is used for.
また、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 Further, the training data of various trained models is not limited to the data obtained by using the ophthalmic apparatus itself that actually performs the imaging, and the data obtained by using the same type of ophthalmic apparatus or the same type according to the desired configuration. It may be data obtained by using an ophthalmic apparatus or the like.
なお、上述した実施形態及び変形例に係る各種学習済モデルは制御部200に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、制御部200と接続される別のサーバの装置等に設けられてもよい。この場合には、制御部200は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。この場合、複数のOCT装置で学習済モデルを共有してもよい。
In addition, various trained models according to the above-described embodiment and modification can be provided in the
さらに、上記実施形態及び変形例では、OCT装置として、SLDを光源として用いたスペクトラムドメインOCT(SD−OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS−OCT:Swept Source OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine−OCT装置(あるいはSS−Line−OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field−OCT装置(あるいはSS−Full Field−OCT装置)にも本発明を適用することもできる。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。 Further, in the above-described embodiments and modifications, a spectrum domain OCT (SD-OCT) device using an SLD as a light source has been described as the OCT device, but the configuration of the OCT device according to the present invention is not limited to this. For example, the present invention may be applied to any other type of OCT device such as a wavelength sweep type OCT (SS-OCT: Swept Source OCT) device using a wavelength sweep light source capable of sweeping the wavelength of emitted light. Can be done. The present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. The present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light. Further, the SLO device and the OCT device may include a wave surface compensation SLO (AO-SLO) device using a wave surface compensation optical system, a wave surface compensation OCT (AO-OCT) device, and the like. Further, the SLO device and the OCT device may include a polarized SLO (PS-SLO) device, a polarized OCT (PS-OCT) device, and the like for visualizing information on polarization phase difference and polarization elimination.
なお、SS−OCT装置では、ラインセンサ154を用いず、学習データを生成するための断層画像を取得する際には、例えば、干渉信号のサンプリング数を増やすことで、撮影範囲を広げることができる。より具体的には、例えば、干渉信号をサンプリングする際のkクロックと呼ばれるクロック信号を高周波数化してA/D変換器の処理を高速化させることで、撮影範囲を広げることができる。このため、SS−OCT装置の場合には、学習装置は、A/D変換器の処理を高速化させて撮影範囲を広げた断層画像を学習データの生成に用いてもよい。
In the SS-OCT apparatus, when acquiring a tomographic image for generating learning data without using the
(その他の実施例)
本発明は、上述の実施形態及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
(Other Examples)
The present invention is also a process in which a program that realizes one or more functions of the above-described embodiments and modifications is supplied to a system or device via a network or storage medium, and a computer of the system or device reads and executes the program. It is feasible. A computer may have one or more processors or circuits and may include multiple separate computers or a network of separate processors or circuits to read and execute computer executable instructions.
プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).
以上、実施形態及び変形例を参照して本発明について説明したが、本発明は上記実施形態及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to the embodiments and modifications, the present invention is not limited to the above embodiments and modifications. The present invention also includes inventions modified to the extent not contrary to the gist of the present invention, and inventions equivalent to the present invention. In addition, the above-described embodiments and modifications can be appropriately combined as long as they do not contradict the gist of the present invention.
200:制御部(画像処理装置)、201:取得部、213:演算処理部 200: Control unit (image processing device), 201: Acquisition unit, 213: Arithmetic processing unit
Claims (28)
学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が低減された第2の断層画像を生成する演算処理部と、
を備える、画像処理装置。 The acquisition unit that acquires the first tomographic image of the eye to be inspected,
An arithmetic processing unit that generates a second tomographic image in which the folded image in the first tomographic image is reduced from the first tomographic image using the trained model.
An image processing device.
前記学習済モデルに前記第1の断層画像を入力し、
前記学習済モデルから、前記第1の断層画像における前記折返し像が除去された第3の断層画像を取得し、
前記第3の断層画像に基づいて前記第2の断層画像を生成する、請求項1又は2に記載の画像処理装置。 The arithmetic processing unit
The first tomographic image is input to the trained model,
From the trained model, a third tomographic image in which the folded image in the first tomographic image is removed is acquired.
The image processing apparatus according to claim 1 or 2, which generates the second tomographic image based on the third tomographic image.
前記第1の断層画像と前記第3の断層画像の差分を上下反転して第4の断層画像を生成し、
前記第3の断層画像と前記第4の断層画像を連結することで、前記第2の断層画像を生成する、請求項3に記載の画像処理装置。 The arithmetic processing unit
The difference between the first tomographic image and the third tomographic image is flipped upside down to generate a fourth tomographic image.
The image processing apparatus according to claim 3, wherein the second tomographic image is generated by connecting the third tomographic image and the fourth tomographic image.
前記第1の断層画像から、前記折返し像が生じる第1の領域の画像を抽出し、
前記第1の領域の画像を前記学習済モデルに入力して得た第2の領域の画像を、前記第1の断層画像における前記第1の領域以外の領域の画像と連結することで、前記第2の断層画像を生成する、請求項1又は2に記載の画像処理装置。 The arithmetic processing unit
From the first tomographic image, an image of the first region where the folded image is generated is extracted.
By connecting the image of the second region obtained by inputting the image of the first region into the trained model with the image of the region other than the first region in the first tomographic image, the said The image processing apparatus according to claim 1 or 2, which generates a second tomographic image.
前記解析部は、前記画像解析により、前記第1の断層画像及び前記第2の断層画像のうちの少なくとも一方における層境界を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。 It also has an analysis unit that analyzes the medical image of the eye to be inspected.
The image processing according to any one of claims 1 to 7, wherein the analysis unit detects a layer boundary in at least one of the first tomographic image and the second tomographic image by the image analysis. apparatus.
前記表示制御部は、前記表示モードに応じて、前記第1の断層画像の解析結果と前記第2の断層画像の解析結果とを切り替えて表示部に表示させる、請求項8乃至10のいずれか一項に記載の画像処理装置。 A display control unit that switches between the first tomographic image and the second tomographic image and displays them on the display unit according to the display mode is further provided.
Any of claims 8 to 10, wherein the display control unit switches between the analysis result of the first tomographic image and the analysis result of the second tomographic image and displays them on the display unit according to the display mode. The image processing apparatus according to one item.
前記第1の断層画像が前記折返し像を含むか否かを判定し、
前記第1の断層画像が前記折返し像を含むと判定した場合に、前記第2の断層画像を生成する、請求項1乃至14のいずれか一項に記載の画像処理装置。 The arithmetic processing unit
It is determined whether or not the first tomographic image includes the folded image, and the image is determined.
The image processing apparatus according to any one of claims 1 to 14, which generates the second tomographic image when it is determined that the first tomographic image includes the folded image.
学習済モデルを用いて、前記断層データから、前記第1の断層画像における折返し像が低減された第2の断層画像を生成する演算処理部と、
を備える、画像処理装置。 An acquisition unit that acquires tomographic data corresponding to the first tomographic image of the eye to be inspected,
An arithmetic processing unit that generates a second tomographic image in which the folded image in the first tomographic image is reduced from the tomographic data using the trained model.
An image processing device.
学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が生じている領域と生じていない領域とを識別可能なラベル付けがなされた第2の断層画像を生成する演算処理部と、
を備える、画像処理装置。 The acquisition unit that acquires the first tomographic image of the eye to be inspected,
Using the trained model, a second tomographic image is labeled from the first tomographic image so as to be able to distinguish between a region in which the folded image is generated and a region in which the folded image is not generated in the first tomographic image. The arithmetic processing unit to be generated and
An image processing device.
学習済モデルを用いて、前記第1の断層画像から、前記第1の断層画像における折返し像が低減された第2の断層画像を生成することと、
を含む、画像処理方法。 Acquiring the first tomographic image of the eye to be inspected
Using the trained model, a second tomographic image in which the folded image in the first tomographic image is reduced is generated from the first tomographic image.
Image processing methods, including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183043A JP2021058285A (en) | 2019-10-03 | 2019-10-03 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183043A JP2021058285A (en) | 2019-10-03 | 2019-10-03 | Image processing device, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021058285A true JP2021058285A (en) | 2021-04-15 |
Family
ID=75380692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183043A Pending JP2021058285A (en) | 2019-10-03 | 2019-10-03 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021058285A (en) |
-
2019
- 2019-10-03 JP JP2019183043A patent/JP2021058285A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210224997A1 (en) | Image processing apparatus, image processing method and computer-readable medium | |
JP2020093076A (en) | Medical image processing device, learned model, medical image processing method and program | |
WO2020036182A1 (en) | Medical image processing device, medical image processing method, and program | |
US11887288B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN113226153A (en) | Image processing apparatus, image processing method, and program | |
US10561311B2 (en) | Ophthalmic imaging apparatus and ophthalmic information processing apparatus | |
WO2021029231A1 (en) | Ophthalmic device, method for controlling ophthalmic device, and program | |
JP7362403B2 (en) | Image processing device and image processing method | |
WO2021106987A1 (en) | Medical image processing device, optical coherence tomography device, medical image processing method, and program | |
JP2021037239A (en) | Area classification method | |
WO2020075719A1 (en) | Image processing device, image processing method, and program | |
JP2019054992A (en) | Ophthalmologic device and program | |
WO2020050308A1 (en) | Image processing device, image processing method and program | |
WO2021100694A1 (en) | Image processing device, image processing method, and program | |
US20200281464A1 (en) | Ophthalmologic information processing apparatus, ophthalmologic system, ophthalmologic information processing method, and recording medium | |
WO2022145129A1 (en) | Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program | |
JP2020032072A (en) | Image processing device, image processing method and program | |
JP7494855B2 (en) | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND IMAGE PROCESSING PROGRAM | |
JP2021058285A (en) | Image processing device, image processing method and program | |
JP2022062620A (en) | Image processing device, image processing method and program | |
JP2021069667A (en) | Image processing device, image processing method and program | |
JP7086708B2 (en) | Image processing equipment, image processing methods and programs | |
WO2023199847A1 (en) | Image processing method, image processing device, and program | |
WO2023282339A1 (en) | Image processing method, image processing program, image processing device, and ophthalmic device | |
WO2022113409A1 (en) | Image processing method, image processing device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20220630 |