JP2022098699A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2022098699A
JP2022098699A JP2020212249A JP2020212249A JP2022098699A JP 2022098699 A JP2022098699 A JP 2022098699A JP 2020212249 A JP2020212249 A JP 2020212249A JP 2020212249 A JP2020212249 A JP 2020212249A JP 2022098699 A JP2022098699 A JP 2022098699A
Authority
JP
Japan
Prior art keywords
image
data
images
eye
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020212249A
Other languages
Japanese (ja)
Inventor
樹 小林
Shigeru Kobayashi
バラッシュスキー トマシュ
Bajraszewski Tomasz
ジィーバック トマッシュ
Dziubak Tomasz
オーロウスキー スラウォミール
Orlowski Slawomir
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020212249A priority Critical patent/JP2022098699A/en
Publication of JP2022098699A publication Critical patent/JP2022098699A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide an image processing device capable of acquiring a front image that allows an object structure to be confirmed easily.SOLUTION: An image processing device includes: an acquisition unit for acquiring a plurality of front images corresponding to different depth ranges in three-dimensional data on an eye to be examined; an evaluation unit for acquiring an evaluation value that evaluates the presence of an object region by using at least two front images of the plurality of acquired front images as input data input to different channels of a learned model acquired by executing learning using learning data including the plurality of front images corresponding to the different depth ranges of the eye to be examined; and a determination unit for determining at least one of the plurality of front images as an output image using the evaluation value.SELECTED DRAWING: Figure 12

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

光干渉断層血管撮影法(OCTA:Optical Coherence Tomography Angiography)により、網膜の血管の形態を観察できることが知られている。特許文献1には、一般的なOCT(Optical Coherence Tomography)及びOCTAの撮影装置とその光学系、モーションコントラストデータの生成方法、並びにモーションコントラストデータを所定の深度範囲で2次元平面に投影する技術に関して記載されている。 It is known that the morphology of blood vessels in the retina can be observed by optical coherence tomography (OCTA: Optical Coherence Tomography). Patent Document 1 relates to a general OCT (Optical Coherence Tomography) and an OCTA imaging device and its optical system, a method for generating motion contrast data, and a technique for projecting motion contrast data on a two-dimensional plane in a predetermined depth range. Have been described.

特開2018-89160号公報Japanese Unexamined Patent Publication No. 2018-89160

網膜や硝子体、脈絡膜を含む眼の構造的な特徴(血管を含む)を抽出するために、3次元のOCT画像又は3次元のOCTA正面画像(モーションコントラスト画像)を所定の深度範囲内で投影し、2次元の正面画像を生成することがある。この際には、対象とする構造物を抽出しやすい深度範囲について網膜層の特定の層を基準として定義し、その深度範囲で画像を投影することが一般的である。また、投影方法は複数適用でき、体積血管造影データでは、データが平均化される平均画像投影(AIP)と、特定の深度範囲のデータからの最大値が抽出される最大画像投影(MIP)の2つの投影方法が通常用いられる。これに対し、ボリュームデータの種類に応じて他の投影方法を用いることもできる。例えば、深度範囲のデータの合計値、最小値、又は中央値などを求めることによって投影を行ってもよい。 A 3D OCT image or a 3D OCTA frontal image (motion contrast image) is projected within a predetermined depth range to extract structural features (including blood vessels) of the eye including the retina, vitreous body, and choroid. However, it may generate a two-dimensional front image. In this case, it is common to define a depth range in which the target structure can be easily extracted with a specific layer of the retinal layer as a reference, and project an image in that depth range. In addition, multiple projection methods can be applied, and for volume angiography data, there are two types of projection: average image projection (AIP), in which the data is averaged, and maximum image projection (MIP), in which the maximum value is extracted from the data in a specific depth range. Two projection methods are commonly used. On the other hand, other projection methods can be used depending on the type of volume data. For example, projection may be performed by obtaining the total value, the minimum value, the median value, or the like of the data in the depth range.

しかしながら、個人差や構造物の形態、その状態(病変の進行度合い)等によって、確認されるべき構造物の特徴が、正面画像上で確認できなかったり、鮮明に見えなかったりすることがあった。そこで、本発明の一実施態様では、対象となる構造物を確認することが容易な正面画像を取得することができる画像処理装置、画像処理方法、及びプログラムを提供する。 However, depending on individual differences, the morphology of the structure, its condition (degree of lesion progression), etc., the characteristics of the structure to be confirmed may not be confirmed on the front image or may not be clearly seen. .. Therefore, in one embodiment of the present invention, there is provided an image processing device, an image processing method, and a program capable of acquiring a front image in which it is easy to confirm the target structure.

本発明の一実施態様に係る画像処理装置は、被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得する取得部と、被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する評価部と、前記評価値を用いて、前記複数の正面画像のうち少なくとも一つを出力画像として決定する決定部とを備える、画像処理装置。 The image processing apparatus according to one embodiment of the present invention includes an acquisition unit that acquires a plurality of front images corresponding to different depth ranges of three-dimensional data of the eye to be inspected, and a plurality of front faces corresponding to different depth ranges of the eye to be inspected. By using at least two front images out of the plurality of acquired front images as input data input to different channels of the trained model obtained by training using the training data including images, the target area An image processing apparatus comprising an evaluation unit for acquiring an evaluation value for evaluating the existence of an image, and a determination unit for determining at least one of the plurality of front images as an output image using the evaluation value.

本発明の一実施態様によれば、対象となる構造物を確認することが容易な正面画像を取得することができる。 According to one embodiment of the present invention, it is possible to obtain a front image in which it is easy to confirm the target structure.

実施例1に係るOCT装置の概略的な構成例を示す。A schematic configuration example of the OCT apparatus according to the first embodiment is shown. 実施例1に係る画像処理装置の概略的な機能構成例を示す。A schematic functional configuration example of the image processing apparatus according to the first embodiment is shown. 実施例1に係る画像生成部を説明するための図である。It is a figure for demonstrating the image generation part which concerns on Example 1. FIG. 実施例1に係るGUIの一例を示す。An example of the GUI according to the first embodiment is shown. 実施例1に係るGUIの一例を示す。An example of the GUI according to the first embodiment is shown. 実施例1に係るGUIの一例を示す。An example of the GUI according to the first embodiment is shown. 実施例1に係る一連の処理のフローチャートを示す。A flowchart of a series of processes according to the first embodiment is shown. 実施例1に係る正面画像生成処理のフローチャートを示す。The flowchart of the front image generation processing which concerns on Example 1 is shown. 実施例2に係る画像生成部を説明するための図である。It is a figure for demonstrating the image generation part which concerns on Example 2. FIG. 実施例2に係る正面画像生成処理のフローチャートを示す。The flowchart of the front image generation processing which concerns on Example 2 is shown. 実施例2に係る正面画像決定処理のフローチャートを示す。The flowchart of the front image determination process which concerns on Example 2 is shown. 実施例2に係る学習済モデルの構成を説明するための図である。It is a figure for demonstrating the structure of the trained model which concerns on Example 2. FIG. 実施例2の変形例に係る正面画像決定処理のフローチャートを示す。The flowchart of the front image determination process which concerns on the modification of Example 2 is shown. 実施例2の変形例に係る正面画像決定処理のフローチャートを示す。The flowchart of the front image determination process which concerns on the modification of Example 2 is shown. 実施例3に係る学習済モデルの構成を説明するための図である。It is a figure for demonstrating the structure of the trained model which concerns on Example 3. FIG. 実施例3に係る学習済モデルの追加画像の効果を説明するための図である。It is a figure for demonstrating the effect of the additional image of the trained model which concerns on Example 3. FIG. 実施例3に係る学習済モデルの入力画像の一例を示す。An example of the input image of the trained model according to the third embodiment is shown. 実施例4に係る学習済モデルの構成を説明するための図である。It is a figure for demonstrating the structure of the trained model which concerns on Example 4. FIG. 実施例5に係る学習済モデルの構成を説明するための図である。It is a figure for demonstrating the structure of the trained model which concerns on Example 5. FIG. 実施例6に係る正面画像生成処理のフローチャートを示す。The flowchart of the front image generation processing which concerns on Example 6 is shown.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, exemplary examples for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.

なお、以下において、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。また、決定木を用いたアルゴリズムとして、LightGBMやXGBoostのように勾配ブースティングを用いた手法も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施例及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データ(正解データ)のペアで構成される。 In the following, the machine learning model refers to a learning model based on a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, the decision tree, and the support vector machine. In addition, deep learning (deep learning) in which features for learning and coupling weighting coefficients are generated by themselves using a neural network can also be mentioned. Further, as an algorithm using a decision tree, a method using gradient boosting such as LightGBM and XGBoost can be mentioned. As appropriate, any of the above algorithms that can be used can be applied to the following examples and modifications. The teacher data refers to learning data, and is composed of a pair of input data and output data (correct answer data).

なお、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。 The trained model is a model in which training (learning) is performed in advance using appropriate teacher data (learning data) for a machine learning model that follows an arbitrary machine learning algorithm such as deep learning. .. However, although the trained model is obtained by using appropriate training data in advance, it is not that no further training is performed, and additional training can be performed. Additional learning can be done even after the device has been installed at the site of use.

なお、実施例1乃至6では、滲出性加齢黄斑変性症(AMD:Age-related Macular Degeneration)由来の新生血管(CNV:Choroidal Neovascularization)を確認するための正面画像を生成する場合の例に関して説明する。一方で、例えば、視神経乳頭部の篩状板や、脈絡膜の層(Sattler層、Haller層)又は網膜血管の毛細血管瘤を確認するための正面画像を生成する場合にも本発明を適用可能である。 In Examples 1 to 6, an example of generating a frontal image for confirming a neovascularization (CNV) derived from exudative age-related macular degeneration (AMD) will be described. do. On the other hand, the present invention can also be applied to generate a frontal image for confirming, for example, a lamina cribrosa of the optic nerve head, a layer of choroid (Sattler layer, Haller layer), or a capillary aneurysm of a retinal blood vessel. be.

(実施例1)
本発明の実施例1では、抽出対象(対象領域)に応じた複数の深度範囲や投影方法に関する正面画像を操作者に提供することで、対象となる構造物を確認することが容易な正面画像を表示する。以下、図1乃至8を参照して、本発明の実施例1に係る眼科装置、特に眼科医院等で使用される光干渉断層撮影装置(OCT装置)の画像処理装置及び画像処理方法について説明する。以下、本実施例に係るOCTAを用いた新生血管(CNV)の表示方法に関して説明する。
(Example 1)
In Example 1 of the present invention, by providing the operator with frontal images relating to a plurality of depth ranges and projection methods according to the extraction target (target area), it is easy to confirm the target structure. Is displayed. Hereinafter, with reference to FIGS. 1 to 8, the image processing device and the image processing method of the ophthalmic device according to the first embodiment of the present invention, particularly the optical coherence tomography device (OCT device) used in an ophthalmic clinic or the like will be described. .. Hereinafter, a method for displaying a new blood vessel (CNV) using OCTA according to this embodiment will be described.

(OCT光学系)
図1は本実施例に係るOCT装置の概略的な構成例を示す。本実施例に係るOCT装置には、光干渉部100、走査光学系200、画像処理装置300、表示部310、ポインティングデバイス320、及びキーボード321が設けられている。光干渉部100には、近赤外光を発光する低コヒーレンス光源101、光分岐部103、コリメート光学系111、分散補償光学系112、及び参照ミラー113が設けられている。さらに、光干渉部100には、コリメート光学系122、回折格子123、結像レンズ124、及びラインセンサ125が設けられている。低コヒーレンス光源101から発光した光は、光ファイバ102aを伝搬し、光分岐部103で測定光と参照光に分割される。光分岐部103により分割された測定光は、光ファイバ102bに入射され、走査光学系200に導かれる。一方、光分岐部103により分岐された参照光は、光ファイバ102cに入射され、参照ミラー113へ導かれる。なお、光分岐部103は、例えば、光ファイバカプラ等を用いて構成されてよい。
(OCT optical system)
FIG. 1 shows a schematic configuration example of the OCT apparatus according to this embodiment. The OCT device according to this embodiment is provided with an optical interference unit 100, a scanning optical system 200, an image processing device 300, a display unit 310, a pointing device 320, and a keyboard 321. The optical interference unit 100 is provided with a low coherence light source 101 that emits near-infrared light, an optical branching unit 103, a collimating optical system 111, a dispersion compensation optical system 112, and a reference mirror 113. Further, the optical interference unit 100 is provided with a collimating optical system 122, a diffraction grating 123, an imaging lens 124, and a line sensor 125. The light emitted from the low coherence light source 101 propagates through the optical fiber 102a and is divided into the measurement light and the reference light by the optical branching portion 103. The measurement light divided by the optical branching portion 103 is incident on the optical fiber 102b and guided to the scanning optical system 200. On the other hand, the reference light branched by the optical branching portion 103 is incident on the optical fiber 102c and guided to the reference mirror 113. The optical branching portion 103 may be configured by using, for example, an optical fiber coupler or the like.

光ファイバ102cに入射した参照光はファイバ端から射出され、コリメート光学系111を介して、分散補償光学系112に入射し、参照ミラー113へと導かれる。参照ミラー113で反射した参照光は、光路を逆にたどり再び光ファイバ102cに入射する。分散補償光学系112は、走査光学系200及び被測定物体である被検眼Eにおける光学系の分散を補正するものである。参照ミラー113は、不図示のモータ等を含む駆動部によって光軸方向に駆動可能なように構成されており、参照光の光路長を、測定光の光路長に対して相対的に変化させることができる。一方、光ファイバ102bに入射した測定光はファイバ端より射出され、走査光学系200に入射される。これらの低コヒーレンス光源101、及び不図示の駆動部は画像処理装置300の制御下で制御される。 The reference light incident on the optical fiber 102c is emitted from the fiber end, enters the dispersion adaptive optics system 112 via the collimating optical system 111, and is guided to the reference mirror 113. The reference light reflected by the reference mirror 113 follows the optical path in the opposite direction and is incident on the optical fiber 102c again. The dispersion compensating optical system 112 corrects the dispersion of the optical system in the scanning optical system 200 and the eye E to be inspected, which is the object to be measured. The reference mirror 113 is configured to be driven in the optical axis direction by a drive unit including a motor (not shown) or the like, and changes the optical path length of the reference light relative to the optical path length of the measurement light. Can be done. On the other hand, the measurement light incident on the optical fiber 102b is emitted from the fiber end and incident on the scanning optical system 200. These low coherence light sources 101 and a drive unit (not shown) are controlled under the control of the image processing device 300.

次に走査光学系200について説明する。走査光学系200は被検眼Eに対して相対的に移動可能なように構成された光学系である。走査光学系200、コリメート光学系202、走査部203、及びレンズ204が設けられている。走査光学系200は、画像処理装置300によって制御される不図示の駆動部により、被検眼Eの眼軸に対して前後上下左右方向に駆動可能なように構成される。画像処理装置300は、不図示の駆動部を制御することで、被検眼Eに対して走査光学系200をアライメントすることができる。 Next, the scanning optical system 200 will be described. The scanning optical system 200 is an optical system configured to be relatively movable with respect to the eye E to be inspected. A scanning optical system 200, a collimating optical system 202, a scanning unit 203, and a lens 204 are provided. The scanning optical system 200 is configured to be able to be driven in the front-back, up-down, left-right directions with respect to the eye axis of the eye E to be inspected by a drive unit (not shown) controlled by the image processing device 300. The image processing device 300 can align the scanning optical system 200 with respect to the eye E to be inspected by controlling a drive unit (not shown).

光ファイバ102bのファイバ端より射出した測定光は、コリメート光学系202により略平行化され、走査部203へ入射する。走査部203は、ミラー面を回転可能なガルバノミラーを2つ有し、一方は水平方向に光を偏向し、他方は垂直方向に光を偏向し、画像処理装置300の制御下で入射した光を偏向する。これにより、走査部203は、紙面内の主走査方向と紙面垂直方向の副走査方向の2方向に、被検眼Eの眼底Er上で測定光を走査することができる。なお、主走査方向及び副走査方向はこれに限られず、被検眼Eの深度方向と直交し、互いに交差する方向であればよい。また、走査部203は、任意の変更手段を用いて構成されてよく、例えば、1枚で2軸方向に光を偏向することができるMEMSミラー等を用いて構成されてもよい。 The measurement light emitted from the fiber end of the optical fiber 102b is substantially parallelized by the collimating optical system 202 and is incident on the scanning unit 203. The scanning unit 203 has two galvano mirrors whose mirror surface can be rotated, one of which deflects light in the horizontal direction and the other of which deflects light in the vertical direction, and the light incident under the control of the image processing apparatus 300. Is deflected. As a result, the scanning unit 203 can scan the measurement light on the fundus Er of the eye E to be inspected in two directions, the main scanning direction in the paper surface and the sub-scanning direction in the direction perpendicular to the paper surface. The main scanning direction and the sub-scanning direction are not limited to this, and may be any direction that is orthogonal to the depth direction of the eye E to be inspected and intersects with each other. Further, the scanning unit 203 may be configured by using any changing means, and may be configured by using, for example, a MEMS mirror or the like that can deflect light in the biaxial direction with one sheet.

走査部203により走査された測定光は、レンズ204を経由して被検眼Eの眼底Er上に、照明スポットを形成する。走査部203により面内偏向をうけると各照明スポットは被検眼Eの眼底Er上を移動(走査)する。この照明スポット位置における反射光が光路を逆にたどり光ファイバ102bに入射して、光分岐部103まで戻る。 The measurement light scanned by the scanning unit 203 forms an illumination spot on the fundus Er of the eye E to be inspected via the lens 204. When the in-plane deflection is received by the scanning unit 203, each illumination spot moves (scans) on the fundus Er of the eye E to be inspected. The reflected light at the illumination spot position follows the optical path in the opposite direction, enters the optical fiber 102b, and returns to the optical branch portion 103.

以上のように、参照ミラー113で反射された参照光及び被検眼Eの眼底Erで反射された測定光は、戻り光として光分岐部103に戻され、干渉して干渉光を発生させる。干渉光は光ファイバ102dを通過し、コリメート光学系122に射出された干渉光は、略平行化され、回折格子123に入射する。回折格子123には周期構造があり、入力した干渉光を分光する。分光された干渉光は、合焦状態を変更可能な結像レンズ124によりラインセンサ125に結像される。ラインセンサ125は、画像処理装置300に接続されており、各センサ部に照射される光の強度に応じた信号を画像処理装置300に出力する。 As described above, the reference light reflected by the reference mirror 113 and the measurement light reflected by the fundus Er of the eye E to be inspected are returned to the optical branching portion 103 as return light and interfere with each other to generate interference light. The interference light passes through the optical fiber 102d, and the interference light emitted to the collimating optical system 122 is substantially parallelized and incident on the diffraction grating 123. The diffraction grating 123 has a periodic structure and disperses the input interference light. The dispersed interference light is imaged on the line sensor 125 by the imaging lens 124 whose focusing state can be changed. The line sensor 125 is connected to the image processing device 300, and outputs a signal corresponding to the intensity of the light applied to each sensor unit to the image processing device 300.

また、OCT装置には、被検眼Eの眼底正面画像を撮影するための不図示の眼底カメラや走査型検眼鏡(SLO:Scanning Laser Ophthalmoscope)の光学系等が設けられることができる。この場合、SLO光学系の一部は、走査光学系200の一部と共通の光路を有してもよい。 Further, the OCT apparatus may be provided with a fundus camera (not shown) for capturing a frontal image of the fundus of the eye to be inspected E, an optical system of a scanning laser Ophthalmoscopy (SLO), and the like. In this case, a part of the SLO optical system may have an optical path common to a part of the scanning optical system 200.

(画像処理装置)
図2は、画像処理装置300の概略的な機能構成例を示す。図2に示すように、画像処理装置300には、再構成部301、モーションコントラスト画像生成部302、層認識部303、画像生成部304、記憶部305、及び表示制御部306が設けられている。本実施例に係る画像処理装置300は、スペクトラルドメイン(SD)方式を用いた光干渉部100に接続されており、光干渉部100のラインセンサ125の出力データを取得することができる。なお、画像処理装置300は、不図示の外部装置に接続され、外部装置から被検眼の干渉信号や断層画像等を取得してもよい。
(Image processing device)
FIG. 2 shows a schematic functional configuration example of the image processing apparatus 300. As shown in FIG. 2, the image processing device 300 is provided with a reconstruction unit 301, a motion contrast image generation unit 302, a layer recognition unit 303, an image generation unit 304, a storage unit 305, and a display control unit 306. .. The image processing apparatus 300 according to the present embodiment is connected to the optical interference unit 100 using the spectral domain (SD) method, and can acquire the output data of the line sensor 125 of the optical interference unit 100. The image processing device 300 may be connected to an external device (not shown) to acquire an interference signal of the eye to be inspected, a tomographic image, or the like from the external device.

再構成部301は、取得したラインセンサ125の出力データ(干渉信号)を波数変換し、フーリエ変換することで被検眼Eの断層データを生成する。ここで、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号にフーリエ変換を施した信号、及び該信号に任意の処理を施した信号等を含むものをいう。また、再構成部301は、断層データとして、干渉信号に基づいて断層画像を生成することもできる。なお、再構成部301は画像処理装置300が外部装置から取得した被検眼の干渉信号に基づいて断層データを生成してもよい。なお、本実施例に係るOCT装置は、SD方式の光干渉部100を備えているが、タイムドメイン(TD)方式や波長掃引(SS)方式の光干渉部を備えてもよい。 The reconstruction unit 301 generates the tomographic data of the eye to be inspected E by wave number transforming the acquired output data (interference signal) of the line sensor 125 and Fourier transforming it. Here, the tomographic data is data including information on the tomographic of the subject, and includes a signal obtained by subjecting an interference signal by OCT to Fourier transform, a signal obtained by subjecting the signal to an arbitrary process, and the like. In addition, the reconstruction unit 301 can also generate a tomographic image as tomographic data based on the interference signal. The reconstructing unit 301 may generate tomographic data based on the interference signal of the eye to be inspected acquired by the image processing device 300 from the external device. Although the OCT apparatus according to the present embodiment includes the SD type optical interference unit 100, it may also include a time domain (TD) type or wavelength sweep (SS) type optical interference unit.

モーションコントラスト画像生成部302は、複数の断層データからモーションコントラストデータを生成する。モーションコントラストデータの生成方法については後述する。なお、モーションコントラスト画像生成部302は、複数の3次元の断層データから3次元のモーションコントラストデータを生成することができる。なお、以下において、3次元の断層データや3次元のモーションコントラストデータを総称して、3次元ボリュームデータという。 The motion contrast image generation unit 302 generates motion contrast data from a plurality of tomographic data. The method of generating motion contrast data will be described later. The motion contrast image generation unit 302 can generate three-dimensional motion contrast data from a plurality of three-dimensional tomographic data. In the following, three-dimensional tomographic data and three-dimensional motion contrast data are collectively referred to as three-dimensional volume data.

層認識部303は、生成された被検眼Eの断層データを解析し、網膜層における任意の層構造を特定するためのセグメンテーションを実施する。セグメンテーションされた結果は、後述するようにOCTA正面画像を生成する際の投影範囲の基準となる。例えば、層認識部303が検出する層境界線形状は、ILM、NFL/GCL、GCL/IPL、IPL/INL、INL/OPL、OPL/ONL、IS/OS、OS/RPE、RPE/Choroid、及びBMの10種類である。なお、層認識部303が検出する対象物はこれに限られず、被検眼Eに含まれる任意の構造であってよい。なお、セグメンテーションの方法は、公知の任意の方法を用いてよい。 The layer recognition unit 303 analyzes the generated tomographic data of the eye E to be inspected and performs segmentation for identifying an arbitrary layer structure in the retinal layer. The segmented result serves as a reference for the projection range when generating the OCTA front image as described later. For example, the layer boundary line shapes detected by the layer recognition unit 303 include ILM, NFL / GCL, GCL / IPL, IPL / INL, INL / OPL, OPL / ONL, IS / OS, OS / RPE, RPE / Choroid, and There are 10 types of BM. The object detected by the layer recognition unit 303 is not limited to this, and may be any structure included in the eye E to be inspected. As the segmentation method, any known method may be used.

画像生成部304は、生成された断層データやモーションコントラストデータから表示用の画像を生成する。画像生成部304は、例えば、3次元の断層データを2次元平面に投影又は積算した輝度のEn-Face画像や3次元のモーションコントラストデータを2次元平面に投影したOCTA正面画像(OCTA En-Face画像)を生成することができる。また、画像生成部304は、記憶部305から取得した深度範囲に従ってOCTA正面画像や輝度のEn-Face画像を生成することができる。なお、OCTA正面画像等の生成方法については後述する。さらに、画像生成部304は、不図示の眼底カメラやSLO光学系から取得した信号に基づいて眼底正面画像を生成することもできる。 The image generation unit 304 generates an image for display from the generated tomographic data and motion contrast data. The image generation unit 304, for example, is an OCTA front image (OCTA En-Face) in which a 3D tomographic data is projected onto a 2D plane or an integrated brightness En-Face image or a 3D motion contrast data is projected onto a 2D plane. Image) can be generated. Further, the image generation unit 304 can generate an OCTA front image or an En-Face image of brightness according to the depth range acquired from the storage unit 305. The method of generating the OCTA front image and the like will be described later. Further, the image generation unit 304 can also generate a fundus frontal image based on a signal acquired from a fundus camera (not shown) or an SLO optical system.

表示制御部306は、生成された表示用の画像を表示部310へ出力する。記憶部305は、再構成部301により生成された断層データやモーションコントラストデータ、画像生成部304で生成された表示用の画像、複数の深度範囲の定義、デフォルトで適用される定義等を記憶することができる。また、記憶部305は、各部を実現するためにソフトウェア等を含んでもよい。 The display control unit 306 outputs the generated display image to the display unit 310. The storage unit 305 stores tomographic data and motion contrast data generated by the reconstruction unit 301, an image for display generated by the image generation unit 304, definitions of a plurality of depth ranges, definitions applied by default, and the like. be able to. Further, the storage unit 305 may include software or the like in order to realize each unit.

また、画像処理装置300には、表示部310、ポインティングデバイス320及びキーボード321が接続されている。表示部310は、任意のモニタを用いて構成することができる。 Further, a display unit 310, a pointing device 320, and a keyboard 321 are connected to the image processing device 300. The display unit 310 can be configured by using any monitor.

ポインティングデバイス320は、回転式ホイールとボタンを備えたマウスであり、表示部310上の任意の位置を指定することができる。なお、本実施例ではポインティングデバイスとしてマウスを使用しているが、ジョイスティック、タッチパッド、トラックボール、タッチパネル、又はスタイラスペン等の任意のポインティングデバイスを用いてもよい。 The pointing device 320 is a mouse provided with a rotary wheel and buttons, and can specify an arbitrary position on the display unit 310. Although the mouse is used as the pointing device in this embodiment, any pointing device such as a joystick, a touch pad, a trackball, a touch panel, or a stylus pen may be used.

このように、本実施例に係るOCT装置は、光干渉部100、走査光学系200、及び画像処理装置300、表示部310、ポインティングデバイス320、及びキーボード321を用いて構成される。なお、本実施例では、光干渉部100、走査光学系200、画像処理装置300、表示部310、ポインティングデバイス320、及びキーボード321は、それぞれ別個の構成としているが、これらのうちの全て又は一部を一体的に構成してもよい。例えば、表示部310及びポインティングデバイス320を、タッチパネルディスプレイとして一体的に構成してもよい。同様に、不図示の眼底カメラやSLO光学系も別個の装置として構成されてもよい。 As described above, the OCT device according to the present embodiment is configured by using the optical interference unit 100, the scanning optical system 200, the image processing device 300, the display unit 310, the pointing device 320, and the keyboard 321. In this embodiment, the optical interference unit 100, the scanning optical system 200, the image processing device 300, the display unit 310, the pointing device 320, and the keyboard 321 have separate configurations, but all or one of them is configured. The parts may be integrally configured. For example, the display unit 310 and the pointing device 320 may be integrally configured as a touch panel display. Similarly, a fundus camera (not shown) and an SLO optical system may be configured as separate devices.

画像処理装置300は、例えば汎用のコンピュータを用いて構成されてよい。なお、画像処理装置300は、OCT装置の専用のコンピュータを用いて構成されてもよい。画像処理装置300は、不図示のプロセッサ、及び光学ディスクやROM(Read Only Memory)等のメモリを含む記憶媒体を備えている。プロセッサは、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等であってよい。なお、プロセッサは、CPUやMPUに限定されるものではなく、GPU(Graphics Processing Unit)やFPGA(Field-Programmable Gate Array)等であってもよい。画像処理装置300の記憶部305以外の各構成要素は、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。記憶部305は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 The image processing device 300 may be configured using, for example, a general-purpose computer. The image processing device 300 may be configured by using a dedicated computer of the OCT device. The image processing device 300 includes a processor (not shown) and a storage medium including a memory such as an optical disk and a ROM (Read Only Memory). The processor may be a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. The processor is not limited to the CPU and the MPU, and may be a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. Each component other than the storage unit 305 of the image processing device 300 may be configured by a software module executed by a processor such as a CPU, MPU, or GPU. Further, each component may be configured by a circuit that performs a specific function such as an ASIC, an independent device, or the like. The storage unit 305 may be configured by any storage medium such as an optical disk or a memory.

なお、画像処理装置300が備えるCPU等のプロセッサ及びROM等の記憶媒体は一つであってもよいし複数であってもよい。そのため、画像処理装置300の各構成要素は、少なくとも一以上のプロセッサと少なくとも一つの記憶媒体とが接続され、少なくとも一以上のプロセッサが少なくとも一以上の記憶媒体に記憶されたプログラムを実行した場合に機能するように構成されてもよい。また、画像処理装置300の各構成要素は、各々が別個の装置により実現されてもよい。 The image processing unit 300 includes a processor such as a CPU and a storage medium such as a ROM, which may be one or a plurality. Therefore, when each component of the image processing device 300 is connected to at least one processor and at least one storage medium, and at least one processor executes a program stored in at least one storage medium. It may be configured to work. Further, each component of the image processing device 300 may be realized by a separate device.

(断層像撮影の制御方法)
次に、本実施例に係るOCT装置を用いて、被検眼Eの断層画像を撮影するための制御方法について述べる。
(Control method for tomographic imaging)
Next, a control method for taking a tomographic image of the eye E to be inspected will be described using the OCT apparatus according to the present embodiment.

まず、検者は走査光学系200の前に被検者である患者を着座させ、アライメントや患者情報等を入力した後にOCT撮影を開始する。低コヒーレンス光源101から射出した光は、光ファイバ102aを通過し光分岐部103にて被検眼Eに向かう測定光と参照ミラー113に向かう参照光に分けられる。 First, the examiner seats the patient who is the subject in front of the scanning optical system 200, inputs alignment, patient information, and the like, and then starts OCT imaging. The light emitted from the low coherence light source 101 passes through the optical fiber 102a and is divided into measurement light toward the eye E to be inspected and reference light toward the reference mirror 113 at the optical branching portion 103.

被検眼Eに向かう測定光は、光ファイバ102bを通過しファイバ端から射出され、コリメート光学系202により略平行化され、走査部203へ入射する。走査部203はガルバノミラーを有し、該ミラーにより偏向された測定光はレンズ204を経由して被検眼Eを照射される。そして被検眼Eで反射した反射光は経路を逆にたどって光分岐部103へと戻される。 The measurement light directed to the eye E to be inspected passes through the optical fiber 102b, is emitted from the fiber end, is substantially paralleled by the collimating optical system 202, and is incident on the scanning unit 203. The scanning unit 203 has a galvano mirror, and the measurement light deflected by the mirror irradiates the eye E to be inspected via the lens 204. Then, the reflected light reflected by the eye E to be inspected follows the path in the reverse direction and is returned to the optical branching portion 103.

一方、参照ミラー113に向かう参照光は、光ファイバ102cを通過しファイバ端から射出され、コリメート光学系111及び分散補償光学系112を通して参照ミラー113に到達する。参照ミラー113で反射された参照光は、経路を逆にたどって光分岐部103へと戻される。 On the other hand, the reference light directed to the reference mirror 113 passes through the optical fiber 102c, is emitted from the fiber end, and reaches the reference mirror 113 through the collimating optical system 111 and the dispersion-compensated optical system 112. The reference light reflected by the reference mirror 113 is returned to the optical branching portion 103 by following the path in the reverse direction.

光分岐部103に戻ってきた測定光と参照光は相互に干渉し、干渉光となって光ファイバ102dへと入射し、コリメート光学系122により略平行化され回折格子123に入射する。回折格子123に入力された干渉光は、結像レンズ124によってラインセンサ125に結像する。これにより、ラインセンサ125を用いて、被検眼E上の一点における干渉信号を得ることができる。 The measurement light and the reference light that have returned to the optical branching portion 103 interfere with each other, become interference light and enter the optical fiber 102d, are substantially collimated by the collimated optical system 122, and enter the diffraction grating 123. The interference light input to the diffraction grating 123 is imaged on the line sensor 125 by the imaging lens 124. Thereby, the line sensor 125 can be used to obtain an interference signal at one point on the eye E to be inspected.

ラインセンサ125で取得された干渉信号は、画像処理装置300に出力される。ラインセンサ125から出力される干渉信号は、12ビットの整数形式のデータである。再構成部301は、この12ビットの整数形式のデータに対して波数変換、高速フーリエ変換(FFT)、絶対値変換(振幅の取得)を行い、被検眼E上の一点における深さ方向の断層データを生成する。なお、干渉信号のデータ形式等は、所望の構成に応じて任意に設定されてよい。 The interference signal acquired by the line sensor 125 is output to the image processing device 300. The interference signal output from the line sensor 125 is 12-bit integer format data. The reconstruction unit 301 performs wave number conversion, fast Fourier transform (FFT), and absolute value conversion (acquisition of amplitude) on the 12-bit integer format data, and performs a fault in the depth direction at one point on the eye E to be inspected. Generate data. The data format of the interference signal and the like may be arbitrarily set according to the desired configuration.

被検眼E上の一点における干渉信号を取得した後、走査部203はガルバノミラーを駆動し、被検眼E上の隣接する一点に測定光を走査する。ラインセンサ125は当該測定光に基づく干渉光を検出し、干渉信号を取得する。再構成部301は、当該隣接する一点の干渉信号に基づいて、被検眼E上の当該隣接する一点における深度方向の断層データを生成する。この一連の制御を繰り返すことにより、被検眼Eの一つの横断方向(主走査方向)における一枚の断層画像に関する断層データ(2次元断層データ)を生成することができる。 After acquiring the interference signal at one point on the eye E to be inspected, the scanning unit 203 drives the galvano mirror and scans the measurement light to one adjacent point on the eye E to be inspected. The line sensor 125 detects the interference light based on the measurement light and acquires the interference signal. The reconstruction unit 301 generates tomographic data in the depth direction at the adjacent point on the eye E to be inspected based on the interference signal of the adjacent point. By repeating this series of controls, it is possible to generate tomographic data (two-dimensional tomographic data) relating to one tomographic image in one transverse direction (main scanning direction) of the eye E to be inspected.

さらに、走査部203はガルバノミラーを駆動し、被検眼Eの同一箇所(同一の走査ライン)を複数回走査して被検眼Eの同一箇所における複数の断層データ(2次元断層データ)を取得する。また、走査部203は、ガルバノミラーを駆動して測定光を主走査方向に直交する副走査方向に微小に移動させ、被検眼Eの別の個所(隣接する走査ライン)における複数の断層データ(2次元断層データ)を取得する。この制御を繰り返すことにより、被検眼Eの所定範囲における複数の3次元の断層画像に関する断層データ(3次元断層データ)を取得することができる。 Further, the scanning unit 203 drives a galvano mirror and scans the same location (same scanning line) of the eye E to be examined a plurality of times to acquire a plurality of tomographic data (two-dimensional tomographic data) at the same location of the eye E to be inspected. .. Further, the scanning unit 203 drives the galvano mirror to move the measurement light minutely in the sub-scanning direction orthogonal to the main scanning direction, and a plurality of tomographic data (adjacent scanning lines) at another location (adjacent scanning line) of the eye E to be inspected (adjacent scanning line). Two-dimensional tomographic data) is acquired. By repeating this control, it is possible to acquire tomographic data (three-dimensional tomographic data) relating to a plurality of three-dimensional tomographic images in a predetermined range of the eye E to be inspected.

なお、上記ではラインセンサ125から得られた一組の干渉信号をFFT処理することで被検眼Eの一点における一つの断層データを取得している。しかしながら、干渉信号を複数の組に分割し、分割されたそれぞれの干渉信号に対してFFT処理を行って、一つの干渉信号から複数の断層データを取得するように構成することもできる。この方法によれば実際に被検眼Eの同一箇所を走査した回数よりも多くの断層データを取得することができる。 In the above, one tomographic data at one point of the eye E to be inspected is acquired by performing FFT processing on a set of interference signals obtained from the line sensor 125. However, it is also possible to divide the interference signal into a plurality of sets, perform FFT processing on each of the divided interference signals, and acquire a plurality of tomographic data from one interference signal. According to this method, it is possible to acquire more tomographic data than the number of times that the same portion of the eye E to be inspected is actually scanned.

(モーションコントラストデータ生成)
次に、画像処理装置300において、断層データからモーションコントラストデータを生成する方法について説明する。
(Motion contrast data generation)
Next, a method of generating motion contrast data from tomographic data in the image processing apparatus 300 will be described.

再構成部301で生成された複素数形式の断層データは、モーションコントラスト画像生成部302へ出力される。まず、モーションコントラスト画像生成部302は、被検眼Eの同一箇所における複数の断層データ(2次元断層データ)の位置ずれを補正する。なお、位置ずれの補正方法は公知の任意の手法を用いてよく、例えば、基準となる断層データをテンプレートとして選択し、テンプレートとのずれ量を各断層データに関する位置ずれ量として取得してもよい。 The complex number format tomographic data generated by the reconstruction unit 301 is output to the motion contrast image generation unit 302. First, the motion contrast image generation unit 302 corrects the positional deviation of a plurality of tomographic data (two-dimensional tomographic data) at the same location of the eye E to be inspected. As the method for correcting the misalignment, any known method may be used. For example, the reference tomographic data may be selected as a template and the amount of misalignment with the template may be acquired as the amount of misalignment related to each tomographic data. ..

モーションコントラスト画像生成部302は、位置ずれが補正された二つの2次元断層データ間で以下の式(1)により脱相関値を求める。

Figure 2022098699000002
ここで、Axzは断層データAの位置(x,z)における振幅、Bxzは断層データBの同一位置(x,z)における振幅を示している。結果として得られる脱相関値Mxzは0から1までの値を取り、二つの振幅値の差異が大きいほど1に近い値となる。 The motion contrast image generation unit 302 obtains the decorrelation value between the two two-dimensional tomographic data in which the positional deviation has been corrected by the following equation (1).
Figure 2022098699000002
Here, Axz indicates the amplitude of the tomographic data A at the position (x, z), and Bxz indicates the amplitude of the tomographic data B at the same position (x, z). The resulting decorrelation value Mxz takes a value from 0 to 1, and the larger the difference between the two amplitude values, the closer to 1.

モーションコントラスト画像生成部302は、取得した断層データの枚数分だけ上記の脱相関演算を繰り返すことによって複数の脱相関値を求め、該複数の脱相関値の平均値を求めることで最終的なモーションコントラストデータを取得する。ここではFFT後の複素数データの振幅に基づいてモーションコントラストデータを求めたが、モーションコントラストデータの求め方は上記方法に限られるものではない。複素数データの位相情報に基づいてモーションコントラストデータを求めてもよいし、振幅と位相の両方の情報に基づいてモーションコントラストデータを求めてもよい。また、複素数データの実部や虚部に基づいてモーションコントラストデータを求めることもできる。また、モーションコントラスト画像生成部302は、2次元の断層画像の各画素値について同様の処理を行い、モーションコントラストデータを求めてもよい。 The motion contrast image generation unit 302 obtains a plurality of decorrelation values by repeating the above decorrelation calculation for the number of acquired tomographic data, and obtains the average value of the plurality of decorrelation values to obtain the final motion. Acquire contrast data. Here, the motion contrast data is obtained based on the amplitude of the complex number data after the FFT, but the method of obtaining the motion contrast data is not limited to the above method. The motion contrast data may be obtained based on the phase information of the complex number data, or the motion contrast data may be obtained based on both the amplitude and phase information. It is also possible to obtain motion contrast data based on the real part and the imaginary part of the complex number data. Further, the motion contrast image generation unit 302 may perform the same processing on each pixel value of the two-dimensional tomographic image to obtain motion contrast data.

また、上記の方法では二つの値の脱相関値を演算することによってモーションコントラストデータを取得したが、二つの値の差分に基づいてモーションコントラストデータを求めてもよいし、二つの値の比に基づいてモーションコントラストデータを求めてもよい。また、断層データの分散値に基づいてモーションコントラストデータを求めてもよい。さらに、上記では取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラストデータを得ているが、複数の脱相関値や差分、比の最大値や中央値等を最終的なモーションコントラストデータとしてもよい。なお、モーションコントラストデータを取得する際に用いる二つの断層データは、所定の時間間隔で取得されたデータであってよい。 Further, in the above method, the motion contrast data is acquired by calculating the decorrelation value of the two values, but the motion contrast data may be obtained based on the difference between the two values, or the ratio of the two values may be obtained. Motion contrast data may be obtained based on the above. Further, the motion contrast data may be obtained based on the dispersion value of the tomographic data. Further, in the above, the final motion contrast data is obtained by obtaining the average value of the acquired multiple decorrelation values, but the final values such as the multiple decorrelation values and differences, the maximum value and the median of the ratio are finally obtained. It may be used as motion contrast data. The two tomographic data used when acquiring the motion contrast data may be the data acquired at a predetermined time interval.

(OCTA正面画像の生成)
次に、画像処理装置300において、OCTA正面画像を生成するための深度範囲を定義する手順について説明する。
(Generation of OCTA front image)
Next, in the image processing apparatus 300, a procedure for defining a depth range for generating an OCTA front image will be described.

OCTA正面画像は、3次元のモーションコントラスト画像(3次元モーションコントラストデータ)を任意の深度範囲で2次元平面に投影又は積算した正面画像である。深度範囲は任意に設定できるが、一般的には、網膜から脈絡膜側に向かって、網膜浅層(Superficial Capillary)、網膜深層(Deep Capillary)、網膜外層(Outer Retina)、放射状乳頭周囲毛細血管(RPC:Radial Peripapillary Capillaries)、脈絡膜毛細血管板(Choriocapillaris)、及び強膜篩状板(Lamina Cribrosa)などの深度範囲が定義される。 The OCTA front image is a front image obtained by projecting or integrating a three-dimensional motion contrast image (three-dimensional motion contrast data) onto a two-dimensional plane in an arbitrary depth range. The depth range can be set arbitrarily, but generally, from the retina to the choroid side, the superficial retinal layer (Superficial Capillary), the deep retinal layer (Deep Capillary), the outer layer of the retina (Outer Retina), and the radial peri-papillary capillaries ( RPCs: Radial Peri-Pillary Capillaries), Choroidal Capillaries, and Lamina Cribrosa are defined depth ranges.

それぞれの定義は、網膜の層境界に対して定義されており、例えば網膜浅層(Superficial Capillary)は、ILM+0μm~GCL/IPL+50μmとして定義される。ここで、GCL/IPLとはGCL層とIPL層の境界を意味する。また、以下において、+50μmや-100μm等のオフセット量は、正の値は脈絡膜側へシフトすることを意味し、負の値は瞳側へシフトすることを意味する。 Each definition is defined for the layer boundaries of the retina, for example the Superficial Capillary is defined as ILM + 0 μm to GCL / IPL + 50 μm. Here, GCL / IPL means the boundary between the GCL layer and the IPL layer. Further, in the following, an offset amount such as +50 μm or -100 μm means that a positive value shifts to the choroid side and a negative value shifts to the pupil side.

滲出性加齢黄斑変性症の新生血管を確認する際には、深度範囲として網膜外層や脈絡膜毛細血管板が使用されることが多い。網膜外層はOPL/ONL+0μm~RPE/Choroid+0μmとして定義されることが多いが、後述するように、CNVの大きさや発生箇所(深度位置)などによって、当該深度範囲は調整することができる。 When identifying new blood vessels with exudative age-related macular degeneration, the outer layer of the retina and the choroidal capillary plate are often used as the depth range. The outer layer of the retina is often defined as OPL / ONL + 0 μm to RPE / Choroid + 0 μm, but as will be described later, the depth range can be adjusted depending on the size of CNV, the location of occurrence (depth position), and the like.

なお、深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、深度範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。 As a method of projecting the data corresponding to the depth range on the two-dimensional plane, for example, a method of using the representative value of the data in the depth range as the pixel value on the two-dimensional plane can be used. Here, the representative value may include a value such as an average value, a median value, or a maximum value of pixel values within the depth range.

また、輝度のEn-Face画像とは、3次元の断層画像を任意の深度範囲で2次元平面に投影又は積算した正面画像である。輝度のEn-Face画像は、3次元のモーションコントラスト画像に代えて3次元の断層画像を用いることで、OCTA正面画像と同様の方法で生成されてよい。また、輝度のEn-Face画像は3次元断層データを用いて生成されてもよい。 The brightness En-Face image is a front image obtained by projecting or integrating a three-dimensional tomographic image onto a two-dimensional plane in an arbitrary depth range. The brightness En-Face image may be generated in the same manner as the OCTA front image by using a three-dimensional tomographic image instead of the three-dimensional motion contrast image. Further, the brightness En-Face image may be generated by using the three-dimensional tomographic data.

また、OCTA正面画像やEn-Face画像に関する深度範囲は、3次元ボリュームデータのうちの、2次元断層データ(又は2次元の断層画像)についてのセグメンテーション処理により検出された網膜層に基づいて決定されることができる。また、当該深度範囲は、これらセグメンテーション処理によって検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。 Further, the depth range for the OCTA front image and the En-Face image is determined based on the retinal layer detected by the segmentation process for the 2D tomographic data (or the 2D tomographic image) of the 3D volume data. Can be. Further, the depth range may be a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the retinal layer detected by these segmentation processes.

また、深度範囲は、所望の構成に応じて変更できるように構成されてもよい。例えば、深度範囲は、検出された網膜層に関する2つの層境界の間の範囲から、操作者からのポインティングデバイス320の指示に応じて変更された(オフセットされた)範囲とすることもできる。この際、操作者はポインティングデバイス320を操作し、例えば、断層画像上に重畳された、深度範囲の上限又は下限を示す指標を移動させる等により、深度範囲を変更することができる。 Further, the depth range may be configured so as to be changed according to a desired configuration. For example, the depth range can range from the range between the two layer boundaries with respect to the detected retinal layer to a range modified (offset) in response to instructions from the operator of the pointing device 320. At this time, the operator can change the depth range by operating the pointing device 320, for example, by moving an index indicating the upper limit or the lower limit of the depth range superimposed on the tomographic image.

(画像生成部)
図3は画像生成部304を説明するための図である。画像生成部304には、投影範囲制御部341と正面画像生成部342が含まれる。投影範囲制御部341は、モーションコントラスト画像生成部302によって生成されたモーションコントラスト画像と、層認識部303による層認識結果と、記憶部305に記憶されている深度範囲とに基づいて、正面画像の生成に用いる3次元モーションコントラストデータを特定する。正面画像生成部342は、投影範囲制御部341によって特定されたモーションコントラストデータを2次元平面に投影又は積算し、OCTA正面画像を生成する。
(Image generator)
FIG. 3 is a diagram for explaining the image generation unit 304. The image generation unit 304 includes a projection range control unit 341 and a front image generation unit 342. The projection range control unit 341 is a front image based on the motion contrast image generated by the motion contrast image generation unit 302, the layer recognition result by the layer recognition unit 303, and the depth range stored in the storage unit 305. Specify the 3D motion contrast data used for generation. The front image generation unit 342 projects or integrates the motion contrast data specified by the projection range control unit 341 on a two-dimensional plane to generate an OCTA front image.

なお、同様に、投影範囲制御部341は、3次元の断層画像(3次元断層データ)と、層認識結果と、深度範囲に基づいて、輝度のEn-Face画像の生成に用いる3次元断層データを特定することができる。この場合、正面画像生成部342は、投影範囲制御部341によって特定された断層データを2次元平面に投影又は積算し、輝度のEn-Face画像を生成することができる。 Similarly, the projection range control unit 341 uses a three-dimensional tomographic image (three-dimensional tomographic data), a layer recognition result, and a three-dimensional tomographic data used to generate an En-Face image of brightness based on the depth range. Can be identified. In this case, the front image generation unit 342 can project or integrate the tomographic data specified by the projection range control unit 341 on a two-dimensional plane to generate an En-Face image of luminance.

(レポート画面)
図4は、画像生成部304によって生成されたOCTA正面画像を含む画像を表示するためのGUI400の一例を示す。GUI400には、画面選択用のタブ401が示されており、図4に示す例ではレポート画面(Reportタブ)が選択されている。なお、GUI400には、レポートタブ以外に、患者を選択するための患者画面(Patientタブ)や、撮影を行うための撮影画面(OCT Captureタブ)等が含まれてよい。
(Report screen)
FIG. 4 shows an example of the GUI 400 for displaying an image including an OCTA front image generated by the image generation unit 304. In the GUI 400, a tab 401 for screen selection is shown, and in the example shown in FIG. 4, a report screen (Report tab) is selected. In addition to the report tab, the GUI 400 may include a patient screen (Patient tab) for selecting a patient, an imaging screen (OCT Capture tab) for performing imaging, and the like.

レポート画面の左手には検査セレクタ408が設けられ、右手には表示エリアが設けられている。検査セレクタ408には現在選択されている患者のこれまで行った検査一覧が表示されており、そのうち一つが選択されると、表示制御部306は、レポート画面の右手の表示エリアに検査結果を表示させる。 An inspection selector 408 is provided on the left side of the report screen, and a display area is provided on the right side. The test selector 408 displays a list of tests performed so far for the currently selected patient, and when one of them is selected, the display control unit 306 displays the test results in the display area on the right side of the report screen. Let me.

表示エリアには、不図示のSLO光学系を用いて生成されたSLO画像406が示され、SLO画像406上にはOCTA正面画像が重畳して表示されている。また、表示エリアには、第一のOCTA正面画像402、第一の断層画像403、輝度のEn-Face画像407、第二のOCTA正面画像404、及び第二の断層画像405が表示されている。En-Face画像407の上部にはプルダウンが設けられており、EnfaceImage1が選択されている。これはEn-Face画像の深度範囲がOCTAImage1(第一のOCTA正面画像402)の深度範囲と同じであることを意味する。操作者からのポインティングデバイス320の当該プルダウンの操作により、En-Face画像の深度範囲をOCTAImage2(第二のOCTA正面画像404)の深度範囲等と同じにすることができる。 In the display area, an SLO image 406 generated by using an SLO optical system (not shown) is shown, and an OCTA front image is superimposed and displayed on the SLO image 406. Further, in the display area, the first OCTA front image 402, the first tomographic image 403, the luminance En-Face image 407, the second OCTA front image 404, and the second tomographic image 405 are displayed. .. A pull-down is provided on the upper part of the En-Face image 407, and Enface Image 1 is selected. This means that the depth range of the En-Face image is the same as the depth range of OCTA Image 1 (first OCTA front image 402). By operating the pull-down of the pointing device 320 from the operator, the depth range of the En-Face image can be made the same as the depth range of the OCTIimage 2 (second OCTA front image 404) and the like.

第一の断層画像403には、第一のOCTA正面画像402を生成した際の深度範囲が断層画像上に破線で示されている。GUI400の例では、第一のOCTA正面画像402の深度範囲は網膜浅層(Superficial Capillary(SCP))である。また、第二のOCTA正面画像404は、第一のOCTA正面画像402とは異なる深度範囲のデータを用いて生成された画像となっている。第二の断層画像405には、第二のOCTA正面画像404を生成した際の深度範囲が破線で示されている。ここで、第二のOCTA正面画像404の深度範囲はCNVとなっており、この例ではOPL/ONL+50μm~BM+10μmの範囲とされている。 In the first tomographic image 403, the depth range when the first OCTA frontal image 402 is generated is shown by a broken line on the tomographic image. In the example of GUI400, the depth range of the first OCTA front image 402 is the Superficial Capillary (SCP). Further, the second OCTA front image 404 is an image generated using data in a depth range different from that of the first OCTA front image 402. In the second tomographic image 405, the depth range when the second OCTA front image 404 is generated is shown by a broken line. Here, the depth range of the second OCTA front image 404 is CNV, and in this example, it is in the range of OPL / ONL + 50 μm to BM + 10 μm.

なお、第一のOCTA正面画像402及び第二のOCTA正面画像404の深度範囲は、これら画像の上部に設けられたプルダウンの操作に応じて設定されることができる。また、これら深度範囲は、予め設定されていてもよいし、操作者からのポインティングデバイス320の指示に応じて設定されてもよい。ここで、画像生成部304は、当該設定に基づいて下記の抽出処理の対象となる抽出対象を指定する対象指定部として機能することができる。なお、OCTA正面画像の深度範囲を設定するためのプルダウンには、上述した網膜浅層等の層毎の深度範囲だけでなく、CNV等の下記の処理で抽出が望まれる異常部位等に対応する範囲が含まれてよい。 The depth range of the first OCTA front image 402 and the second OCTA front image 404 can be set according to the pull-down operation provided on the upper part of these images. Further, these depth ranges may be set in advance, or may be set according to an instruction from the operator of the pointing device 320. Here, the image generation unit 304 can function as a target designation unit for designating the extraction target to be the target of the following extraction process based on the setting. The pull-down for setting the depth range of the OCTA front image corresponds not only to the depth range for each layer such as the superficial retinal layer described above, but also to abnormal parts such as CNV that are desired to be extracted by the following processing. The range may be included.

本実施例では、操作者からのポインティングデバイス320の指示により、第二のOCTA正面画像404をダブルクリックすると、表示制御部306は、図4に示すGUI400から図5に示すGUI500へと表示部310に表示させる画面を切り替える。GUI500には、4つの異なる深度範囲の設定に対して、OCTA正面画像501,505,509,513と、それに対応する断層画像503,507,511,515、及び深度範囲502,506,510,514とが表示されている。 In this embodiment, when the second OCTA front image 404 is double-clicked according to the instruction of the pointing device 320 from the operator, the display control unit 306 changes from the GUI 400 shown in FIG. 4 to the GUI 500 shown in FIG. Switch the screen to be displayed on. The GUI500 includes OCTA frontal images 501,505,509,513 and corresponding tomographic images 503,507,511,515 and depth ranges 502,506,510,514 for four different depth range settings. Is displayed.

これに関連して、画像生成部304は、第二のOCTA正面画像404の深度範囲に対応するCNVを抽出対象として指定する。画像生成部304は、抽出対象として指定されたCNV用に記憶部305に予め記憶されている4つの深度範囲502,506,510,514に基づいて、対応するOCTA正面画像501,505,509,513を生成する。表示制御部306は、生成されたOCTA正面画像501,505,509,513、対応する断層画像503,507,511,515、及び深度範囲502,506,510,514を表示部310に表示させる。 In this regard, the image generation unit 304 designates the CNV corresponding to the depth range of the second OCTA front image 404 as the extraction target. The image generation unit 304, based on the four depth ranges 502,506,510,514 pre-stored in the storage unit 305 for the CNV designated as the extraction target, the corresponding OCTA front image 501,505,509, Generate 513. The display control unit 306 causes the display unit 310 to display the generated OCTA front image 501, 505, 509, 513, the corresponding tomographic image 503, 507, 511, 515, and the depth range 502, 506, 510, 514.

この例では、一番左の画像(OCTA正面画像501)に関する深度範囲502として、タイプ1のCNVを想定した深度範囲が設定されており、BM+0μm~BM+20μmとなっている。ここで、タイプ1のCNVとは、RPE/Choroidよりも下にあるCNVをいう。 In this example, as the depth range 502 for the leftmost image (OCTA front image 501), a depth range assuming a Type 1 CNV is set, and is BM + 0 μm to BM + 20 μm. Here, the type 1 CNV means a CNV below the RPE / Choroid.

左から2つ目の画像(OCTA正面画像505)に関する深度範囲506は、BMよりも少し上にある非常に小さなCNVを想定した深度範囲であり、BM-20μm~BM+0μmとなっている。左から3番目の画像(OCTA正面画像509)に関する深度範囲510は、BMより上に発生した大きなCNVを想定した深度範囲であり、BM-100μm~BM+0μmとなっている。左から4番目の画像(OCTA正面画像513)に関する深度範囲514は網膜外層全域をカバーする深度範囲であり、かなり大きなCNVを想定した深度範囲(OPL+50μm~BM+10μm)となっている。 The depth range 506 for the second image from the left (OCTA front image 505) is a depth range assuming a very small CNV slightly above the BM, and is BM-20 μm to BM + 0 μm. The depth range 510 for the third image from the left (OCTA front image 509) is a depth range assuming a large CNV generated above the BM, and is BM-100 μm to BM + 0 μm. The depth range 514 for the fourth image from the left (OCTA front image 513) is a depth range that covers the entire outer layer of the retina, and is a depth range (OPL + 50 μm to BM + 10 μm) assuming a considerably large CNV.

GUI500の下部には選択ボタン504,508,512,516が表示されている。操作者からのポインティングデバイス320の指示により、当該選択ボタンを選択することで、診断等に用いるのに好ましいOCTA正面画像(表示すべき正面画像)を表示されているOCTA正面画像から選択できる。 Selection buttons 504, 508, 512, 516 are displayed at the bottom of the GUI 500. By selecting the selection button according to the instruction of the pointing device 320 from the operator, an OCTA front image (front image to be displayed) preferable for use in diagnosis or the like can be selected from the displayed OCTA front images.

本実施例では、操作者からのポインティングデバイス320の指示により、選択ボタン512を押下したとすると、表示制御部306は、表示部310に表示する画面を、図6に示すレポート画面のGUI600に切り替える。GUI600は、GUI400と同様のものであるが、第二のOCTA正面画像404及び第二の断層画像405が、操作者からのポインティングデバイス320の指示により選択した条件に基づくOCTA正面画像509及びOCTA正面画像509に関する深度範囲を示す断層画像511に切り替わっている。 In this embodiment, when the selection button 512 is pressed by the instruction of the pointing device 320 from the operator, the display control unit 306 switches the screen displayed on the display unit 310 to the GUI 600 of the report screen shown in FIG. .. The GUI 600 is similar to the GUI 400, but the OCTA front image 509 and the OCTA front based on the conditions selected by the second OCTA front image 404 and the second tomographic image 405 according to the instruction of the pointing device 320 from the operator. It has been switched to the tomographic image 511 showing the depth range for image 509.

このように本実施例では、抽出対象に応じた複数の深度範囲に関するOCTA正面画像を操作者に提供し、操作者が好ましい画像を選択することにより、最適な深度範囲に対するOCTA正面画像を表示することができる。これにより、病変の見落としのリスクが低減できたり、医師や検査技師が、画質調整などの追加作業が減少できたりすることができる。 As described above, in this embodiment, the OCTA front image regarding a plurality of depth ranges according to the extraction target is provided to the operator, and the operator selects a preferable image to display the OCTA front image for the optimum depth range. be able to. As a result, the risk of oversight of lesions can be reduced, and additional work such as image quality adjustment can be reduced for doctors and laboratory technicians.

次に、図7及び図8を参照して、本実施例に係る一連の処理について説明する。図7は、本実施例に係る一連の処理のフローチャートであり、図8は本実施例に係る正面画像生成処理のフローチャートである。一連の処理が開始されると、まずステップS701において、画像処理装置300は光干渉部100のラインセンサ125から被検眼Eに関する3次元の干渉信号を取得し、再構成部301により3次元断層データを生成・取得する。この際、再構成部301は3次元断層データに基づいて、3次元の断層画像を生成することもできる。なお、画像処理装置300は、接続される不図示の外部装置から被検眼Eに関する3次元の干渉信号や3次元干渉データ、3次元の断層画像等を取得してもよい。 Next, a series of processes according to the present embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a flowchart of a series of processes according to the present embodiment, and FIG. 8 is a flowchart of the front image generation process according to the present embodiment. When a series of processing is started, first, in step S701, the image processing apparatus 300 acquires a three-dimensional interference signal relating to the eye to be inspected E from the line sensor 125 of the optical interference unit 100, and the reconstruction unit 301 obtains three-dimensional tomographic data. Is generated and acquired. At this time, the reconstruction unit 301 can also generate a three-dimensional tomographic image based on the three-dimensional tomographic data. The image processing device 300 may acquire a three-dimensional interference signal, three-dimensional interference data, a three-dimensional tomographic image, or the like related to the eye to be inspected E from a connected external device (not shown).

再構成部301により3次元断層データが生成されると、モーションコントラスト画像生成部302が3次元断層データに基づいて3次元モーションコントラストデータ(3次元モーションコントラスト画像)を生成する。 When the three-dimensional tomographic data is generated by the reconstruction unit 301, the motion contrast image generation unit 302 generates the three-dimensional motion contrast data (three-dimensional motion contrast image) based on the three-dimensional tomographic data.

次に、ステップS702において、画像生成部304が予めの設定又は操作者からのポインティングデバイス320の指示に応じて、抽出対象(対象領域)を指定する。この際には、層認識部303が3次元断層データに対しセグメンテーションを行って層認識結果を取得することができる。また、画像生成部304は、3次元ボリュームデータや層認識結果、所定の深度範囲の設定等に基づいて、第一のOCTA正面画像402等を生成し、表示制御部306がGUI400を表示部310に表示させてもよい。この場合には、操作者からのポインティングデバイス320の指示により、OCTA正面画像に関するプルダウン等を操作して、抽出対象に関する指示を入力することができる。抽出対象が指定されると、処理はステップS703に移行する。 Next, in step S702, the image generation unit 304 designates the extraction target (target area) according to the preset setting or the instruction of the pointing device 320 from the operator. At this time, the layer recognition unit 303 can perform segmentation on the three-dimensional tomographic data and acquire the layer recognition result. Further, the image generation unit 304 generates the first OCTA front image 402 and the like based on the three-dimensional volume data, the layer recognition result, the setting of a predetermined depth range, and the like, and the display control unit 306 displays the GUI 400 on the display unit 310. It may be displayed in. In this case, according to the instruction of the pointing device 320 from the operator, the pull-down or the like regarding the OCTA front image can be operated to input the instruction regarding the extraction target. When the extraction target is specified, the process proceeds to step S703.

ステップS703では、画像生成部304が本実施例に係る正面画像生成処理を開始する。本実施例に係る正面画像生成処理では、まずステップS801において、画像生成部304は、指定された抽出対象に対応する、記憶部305に記憶されている複数の深度範囲を特定する。また、画像生成部304の投影範囲制御部341は、特定した複数の深度範囲、3次元モーションコントラストデータ、及び層認識結果に基づいて、OCTA正面画像の生成に用いる3次元モーションコントラストデータを特定する。正面画像生成部342は、特定された3次元モーションコントラストデータに基づいて、複数の深度範囲に対応する複数のOCTA正面画像を生成する。 In step S703, the image generation unit 304 starts the front image generation process according to this embodiment. In the front image generation process according to the present embodiment, first, in step S801, the image generation unit 304 specifies a plurality of depth ranges stored in the storage unit 305 corresponding to the designated extraction target. Further, the projection range control unit 341 of the image generation unit 304 specifies the 3D motion contrast data used for generating the OCTA front image based on the specified plurality of depth ranges, 3D motion contrast data, and the layer recognition result. .. The front image generation unit 342 generates a plurality of OCTA front images corresponding to a plurality of depth ranges based on the specified three-dimensional motion contrast data.

ステップS802では、表示制御部306が、生成された複数のOCTA正面画像を表示部310に表示させる。この際、表示制御部306は、生成された複数のOCTA正面画像と共に、対応する深度範囲に関する情報を表示部310に表示させることができる。ここで、対応する深度範囲に関する情報は、深度範囲を示す数値情報であってもよいし、断層画像上に深度範囲を示される破線等であってもよいし、その両方であってもよい。 In step S802, the display control unit 306 causes the display unit 310 to display the generated plurality of OCTA front images. At this time, the display control unit 306 can display the information regarding the corresponding depth range on the display unit 310 together with the generated plurality of OCTA front images. Here, the information regarding the corresponding depth range may be numerical information indicating the depth range, a broken line indicating the depth range on the tomographic image, or both.

ステップS803では、ポインティングデバイス320が操作者からの指示を受け、表示部310に表示された複数のOCTA正面画像から、診断等に好ましいOCTA正面画像を指定する。画像処理装置300は、操作者からのポインティングデバイス320の指示に応じて、表示すべきOCTA正面画像を選択する。なお、操作者からのポインティングデバイス320の指示は、例えば、図5に示すGUI500における選択ボタンの選択によって行われてよい。 In step S803, the pointing device 320 receives an instruction from the operator and designates an OCTA front image preferable for diagnosis or the like from a plurality of OCTA front images displayed on the display unit 310. The image processing device 300 selects an OCTA front image to be displayed in response to an instruction from the operator of the pointing device 320. The instruction of the pointing device 320 from the operator may be given, for example, by selecting a selection button in the GUI 500 shown in FIG.

画像処理装置300が表示すべきOCTA正面画像を選択すると、ステップS704において、表示制御部306が選択されたOCTA正面画像を表示部310に表示させる。これにより、対象となる構造物を確認することが容易なOCTA正面画像を表示させることができる。なお、本実施例では、OCTA正面画像を生成し表示させる構成としたが、生成・表示される画像は輝度のEn-Face画像であってもよい。この場合には、モーションコントラストデータに代えて断層データを用いて、上記処理と同様の処理を行えばよい。 When the image processing device 300 selects the OCTA front image to be displayed, in step S704, the display control unit 306 causes the display unit 310 to display the selected OCTA front image. This makes it possible to display an OCTA front image that makes it easy to confirm the target structure. In this embodiment, the OCTA front image is generated and displayed, but the generated / displayed image may be an En-Face image having luminance. In this case, the same process as the above process may be performed by using the tomographic data instead of the motion contrast data.

上記のように、本実施例に係る画像処理装置300は、画像生成部304と、表示制御部306とを備える。画像生成部304は、被検眼Eの3次元ボリュームデータからの抽出対象(対象領域)を指定する対象指定部の一例としても機能する。画像生成部304の正面画像生成部342は、指定された抽出対象に基づいて、3次元ボリュームデータの異なる深度範囲に対応した複数の正面画像を生成する。表示制御部306は表示部310の表示を制御する。画像生成部304の投影範囲制御部341は、抽出対象の指定に基づいて、複数の正面画像を生成するための深度範囲を決定する。表示制御部306は、生成された複数の正面画像を表示部310に並べて表示させる。特に、本実施例に係る画像処理装置300では、抽出対象は新生血管(CNV)であり、3次元ボリュームデータは3次元のモーションコントラストデータである。また、複数の正面画像を生成するための各深度範囲は、例えば、網膜外層又はブルッフ膜から脈絡膜側に0~50μmの範囲内における深度範囲である。 As described above, the image processing apparatus 300 according to the present embodiment includes an image generation unit 304 and a display control unit 306. The image generation unit 304 also functions as an example of a target designation unit that designates an extraction target (target area) from the three-dimensional volume data of the eye E to be inspected. The front image generation unit 342 of the image generation unit 304 generates a plurality of front images corresponding to different depth ranges of the three-dimensional volume data based on the designated extraction target. The display control unit 306 controls the display of the display unit 310. The projection range control unit 341 of the image generation unit 304 determines the depth range for generating a plurality of front images based on the designation of the extraction target. The display control unit 306 displays the generated plurality of front images side by side on the display unit 310. In particular, in the image processing apparatus 300 according to the present embodiment, the extraction target is a neovascularization (CNV), and the three-dimensional volume data is three-dimensional motion contrast data. Further, each depth range for generating a plurality of front images is, for example, a depth range within a range of 0 to 50 μm from the outer layer of the retina or the Bruch membrane to the choroid side.

なお、本実施例では、画像生成部304の投影範囲制御部341は、抽出対象の指定に基づいて、複数の正面画像を生成するための深度範囲を決定するとした。ここで、投影範囲制御部341は、例えば、3次元ボリュームデータの種別、抽出対象となる層又は深度範囲、生成する正面画像の枚数、正面画像を生成する深度範囲、及び正面画像を生成する深度範囲の間隔のうち少なくとも一つを決定することができる。 In this embodiment, the projection range control unit 341 of the image generation unit 304 determines the depth range for generating a plurality of front images based on the designation of the extraction target. Here, the projection range control unit 341 is, for example, the type of three-dimensional volume data, the layer or depth range to be extracted, the number of front images to be generated, the depth range to generate the front image, and the depth to generate the front image. At least one of the range intervals can be determined.

また、本実施例では、図5に示すGUI500のように、複数の深度範囲に対応した画像を図4に示すGUI400とは別に表示しているが、これに限らない。例えば、GUI400上に複数の深度範囲の画像を並べて表示してもよい。また、複数の深度範囲の画像をGUI400の第二のOCTA正面画像404の表示エリアに時間的に切り替えながら表示してもよいし、操作者からのポインティングデバイス320の指示に応じて切り替えて表示してもよい。この場合、GUI400上の操作により、切り替えて表示された画像から、好ましい深度範囲の画像を選択できるようにしてもよい。 Further, in this embodiment, as in the GUI 500 shown in FIG. 5, an image corresponding to a plurality of depth ranges is displayed separately from the GUI 400 shown in FIG. 4, but the present invention is not limited to this. For example, images in a plurality of depth ranges may be displayed side by side on the GUI 400. Further, an image having a plurality of depth ranges may be displayed while being temporally switched to the display area of the second OCTA front image 404 of the GUI 400, or may be switched and displayed according to an instruction from the operator of the pointing device 320. You may. In this case, an image in a preferable depth range may be selected from the images displayed by switching by an operation on the GUI 400.

なお、本実施例では、図5に示すGUI500のように複数の深度範囲に対応したOCTA正面画像を表示しているが、これに限らない。例えば、深度範囲と共に、投影方法を変更した画像を並べて表示し、操作者に選択させてもよい。ここで、投影方法とは、例えば最大値投影や平均値投影等の公知の任意の方法であってよい。同じ深度範囲であっても、投影方法の違いにより正面画像の見え方は変化する。そのため、このような場合には、好ましい投影方法に対応する正面画像を操作者に選択させることができる。 In this embodiment, the OCTA front image corresponding to a plurality of depth ranges is displayed as in the GUI 500 shown in FIG. 5, but the present invention is not limited to this. For example, the images whose projection method has been changed may be displayed side by side together with the depth range, and the operator may select the images. Here, the projection method may be any known method such as maximum value projection or average value projection. Even within the same depth range, the appearance of the front image changes depending on the projection method. Therefore, in such a case, the operator can be made to select the front image corresponding to the preferable projection method.

このような構成によれば、抽出対象に応じた複数の深度範囲や投影方法に関する正面画像を操作者に提供することで、対象となる構造物を確認することが容易な正面画像を表示させることができる。これにより、病変の見落としのリスクが低減できたり、医師や検査技師が、画質調整などの追加作業が減少できたりすることができる。 According to such a configuration, by providing the operator with front images relating to a plurality of depth ranges and projection methods according to the extraction target, it is possible to display a front image in which it is easy to confirm the target structure. Can be done. As a result, the risk of oversight of lesions can be reduced, and additional work such as image quality adjustment can be reduced for doctors and laboratory technicians.

(実施例1の変形例)
実施例1では、操作者からのポインティングデバイス320の指示により、正面画像をダブルクリックすることで、複数の深度範囲の正面画像を表示させる例を示したが、複数の深度範囲の正面画像を表示させる際の処理はこれに限られない。例えば、GUI400のレポート画面を表示した段階で、対象となる疾患について設定された複数の深度範囲に対応する正面画像を表示し、操作者に選択させてもよい。
(Variation example of Example 1)
In the first embodiment, an example is shown in which the front image of a plurality of depth ranges is displayed by double-clicking the front image according to the instruction of the pointing device 320 from the operator, but the front image of a plurality of depth ranges is displayed. The processing at the time of making is not limited to this. For example, at the stage of displaying the report screen of the GUI 400, a front image corresponding to a plurality of depth ranges set for the target disease may be displayed and the operator may select the front image.

また別の例は、検査を実施した際に被検眼EにCNVなどの異常があるかどうかを判定し、異常があると判定された場合に、複数の深度範囲に対する正面画像を表示して、操作者に最適な画像を選択させてもよい。また、CNVを有する滲出性加齢黄斑変性症の患者等の疾患を有する患者に対してOCTA検査を実施した場合に、当該疾患について設定された複数の深度範囲に対応する正面画像を表示して、操作者に最適な画像を選択させてもよい。なお、異常があるか否かの判定は、公知の任意の方法によって行われてよい。 In another example, it is determined whether or not there is an abnormality such as CNV in the eye E to be inspected when the examination is performed, and if it is determined that there is an abnormality, a front image for a plurality of depth ranges is displayed. The operator may be allowed to select the most suitable image. In addition, when an OCTA test is performed on a patient with a disease such as a patient with exudative age-related macular degeneration having CNV, a frontal image corresponding to a plurality of depth ranges set for the disease is displayed. , The operator may be allowed to select the most suitable image. It should be noted that the determination as to whether or not there is an abnormality may be performed by any known method.

(実施例2)
実施例1では、複数の深度範囲に対応する複数のOCTA正面画像を表示し、そのうちの好ましい画像を操作者からのポインティングデバイス320の指示により選択することで、好ましい深度範囲で投影されたOCTA正面画像を提供した。実施例2に係る画像処理装置は、さらに画像生成部304に正面画像決定部343を設け、操作者が介在することなく、自動的に最適な深度範囲のOCTA正面画像を出力する。
(Example 2)
In the first embodiment, a plurality of OCTA front images corresponding to a plurality of depth ranges are displayed, and a preferable image among them is selected according to an instruction of the pointing device 320 from the operator, so that the OCTA front projected in a preferable depth range is projected. The image was provided. The image processing apparatus according to the second embodiment further provides a front image determination unit 343 in the image generation unit 304, and automatically outputs an OCTA front image having an optimum depth range without the intervention of an operator.

以下、図9乃至図12を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、画像生成部304に正面画像決定部343が加えられている点を除き、実施例1に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例1に係る画像処理装置300との違いを中心に説明する。 Hereinafter, the image processing apparatus according to the present embodiment will be described with reference to FIGS. 9 to 12. The configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the first embodiment except that the front image determination unit 343 is added to the image generation unit 304. The description will be omitted by using reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the image processing apparatus 300 according to the first embodiment.

図9は、本実施例に係る画像生成部304を説明するための図である。図に示すように、本実施例に係る画像生成部304には、投影範囲制御部341及び正面画像生成部342に加えて、正面画像決定部343が設けられている。ここで、正面画像決定部343は、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、正面画像決定部343は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 FIG. 9 is a diagram for explaining the image generation unit 304 according to this embodiment. As shown in the figure, the image generation unit 304 according to this embodiment is provided with a front image determination unit 343 in addition to the projection range control unit 341 and the front image generation unit 342. Here, the front image determination unit 343 may be configured by a software module executed by a processor such as a CPU, MPU, or GPU. Further, the front image determination unit 343 may be configured by a circuit that performs a specific function such as an ASIC, an independent device, or the like.

正面画像決定部343は、正面画像生成部342によって生成された複数の深度範囲に対応するOCTA正面画像を評価し、最も高い(他よりも高い)評価値に対応する病理部の存在確率を有するOCTA正面画像を決定する。本実施例では、正面画像決定部343は、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、正面画像決定部343は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。また、本実施例では、病理部を新生血管(CNV)として説明するが、病理部はCNVに限らず、例えば、実施例1と同様に毛細血管瘤などの他の病理部でもよい。 The frontal image determination unit 343 evaluates the OCTA frontal image corresponding to the plurality of depth ranges generated by the frontal image generation unit 342, and has the existence probability of the pathological unit corresponding to the highest (higher than others) evaluation value. The OCTA front image is determined. In this embodiment, the front image determination unit 343 may be configured by a software module executed by a processor such as a CPU, MPU, or GPU. Further, the front image determination unit 343 may be configured by a circuit that performs a specific function such as an ASIC, an independent device, or the like. Further, in this example, the pathological part is described as a new blood vessel (CNV), but the pathological part is not limited to CNV, and may be another pathological part such as a capillary aneurysm as in Example 1.

次に、図10を参照して、本実施例に係る正面画像生成処理について説明する。図10は、本実施例に係る正面画像生成処理のフローチャートである。なお、正面画像生成処理以外の一連の処理の流れは実施例1に係る一連の処理と同様であるため説明を省略する。また、ステップS1001は実施例1に係るステップS801と同様のステップであるため説明を省略する。ステップS1001において、複数の深度範囲のOCTA正面画像が生成されると、処理はステップS1002に移行する。 Next, with reference to FIG. 10, the front image generation process according to this embodiment will be described. FIG. 10 is a flowchart of the front image generation process according to the present embodiment. Since the flow of a series of processes other than the front image generation process is the same as the series of processes according to the first embodiment, the description thereof will be omitted. Further, since step S1001 is the same step as step S801 according to the first embodiment, the description thereof will be omitted. When the OCTA front image having a plurality of depth ranges is generated in step S1001, the process proceeds to step S1002.

ステップS1002では、正面画像決定部343が、正面画像生成部342によって生成された複数の深度範囲のOCTA正面画像について、学習済モデルを用いてそれぞれ比較を行い、CNVの観察に最適な深度範囲のOCTA正面画像を決定・選択する。なお、以降の処理は、実施例1に係る処理と同様であるため説明を省略する。 In step S1002, the front image determination unit 343 compares the OCTA front images of a plurality of depth ranges generated by the front image generation unit 342 using the trained model, and the optimum depth range for observing the CNV. Determine and select the OCTA front image. Since the subsequent processing is the same as the processing according to the first embodiment, the description thereof will be omitted.

ここで、図11を参照して、ステップS1002における正面画像決定処理についてより詳細に説明する。ステップS1002において正面画像決定処理が開始されると、処理はステップS1110に移行する。なお、正面画像生成部342により生成された複数の正面画像は、配列Img[]として保持されているものとする。 Here, with reference to FIG. 11, the front image determination process in step S1002 will be described in more detail. When the front image determination process is started in step S1002, the process proceeds to step S1110. It is assumed that the plurality of front images generated by the front image generation unit 342 are held as the sequence Img [].

ステップS1110では、正面画像決定部343は、変数AWを、配列に格納された最初の画像Img[0]に初期化する。ここで、変数AWは、CNVの存在確率が高い勝者を示す変数である。 In step S1110, the front image determination unit 343 initializes the variable AW to the first image Img [0] stored in the array. Here, the variable AW is a variable indicating a winner having a high probability of existence of CNV.

ステップS1120では、正面画像決定部343は、正面画像インデックスtを1に初期化する。また、正面画像決定部343は、インデックスiを0に初期化する。 In step S1120, the front image determination unit 343 initializes the front image index t to 1. Further, the front image determination unit 343 initializes the index i to 0.

ステップS1130では、正面画像決定部343は、学習済モデルを用いて、現在の勝者AWと画像配列における次の画像Img[t]を比較し、各画像におけるCNVの存在を評価した評価値を求める。ここで、図12を参照して正面画像決定部343が用いる学習済モデルについて説明する。なお、本実施例において、正面画像決定部343が用いる学習済モデルは、画像処理装置300に設けられており、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、学習済モデルは、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 In step S1130, the front image determination unit 343 compares the current winner AW with the next image Img [t] in the image sequence using the trained model, and obtains an evaluation value for evaluating the presence of CNV in each image. .. Here, the trained model used by the front image determination unit 343 will be described with reference to FIG. In this embodiment, the trained model used by the front image determination unit 343 is provided in the image processing device 300, and may be configured by a software module executed by a processor such as a CPU, MPU, or GPU. Further, the trained model may be configured by a circuit that performs a specific function such as an ASIC, an independent device, or the like.

図12は、正面画像決定部343が用いる画像の比較用の学習済モデルの構成の一例を示す。本実施例において、比較用の学習済モデル1210の入力データは、一対のOCTA正面画像1201,1202で構成される。また、学習済モデル1210の出力データは、重みベクトル(評価値と呼ぶ)w1,w2,w3で構成される。なお、学習済モデルは複数のチャネルを有するように構成されることができる。本実施例では、一対のOCTA正面画像1201,1202について、OCTA正面画像1201が学習済モデルの1つ目の入力チャネルに、OCTA正面画像1202が学習済モデルの2つ目の入力チャネルに入力される構成とした。 FIG. 12 shows an example of the configuration of a trained model for image comparison used by the front image determination unit 343. In this embodiment, the input data of the trained model 1210 for comparison is composed of a pair of OCTA front images 1201 and 1202. Further, the output data of the trained model 1210 is composed of weight vectors (referred to as evaluation values) w1, w2, and w3. The trained model can be configured to have a plurality of channels. In this embodiment, for a pair of OCTA front images 1201, 1202, the OCTA front image 1201 is input to the first input channel of the trained model, and the OCTA front image 1202 is input to the second input channel of the trained model. The configuration was set.

ここで、評価値は、入力画像の内容に関連付けられた値である。本実施例では、評価値w1及び評価値w2は、以下に説明する学習プロセスに従った、病理学的構造の存在を評価した画像品質(確率)に対応する。一方で、評価値w3は、両方の入力画像における病理学的構造の不存在を示す確率に対応し、両方の入力画像に病理学的構造がない場合、評価値w3が最も高くなる。また、本実施例では、評価値の合計はw1+w2+w3=1であり、評価値w1,w2,w3はそれぞれ、1つ目の入力画像に対するCNVの存在、2つ目の入力画像に対するCNVの存在、及びどちらの入力画像にもCNVが含まれない確率を示す。 Here, the evaluation value is a value associated with the content of the input image. In this embodiment, the evaluation value w1 and the evaluation value w2 correspond to the image quality (probability) for evaluating the existence of the pathological structure according to the learning process described below. On the other hand, the evaluation value w3 corresponds to the probability of showing the absence of the pathological structure in both input images, and when both input images have no pathological structure, the evaluation value w3 is the highest. Further, in this embodiment, the total of the evaluation values is w1 + w2 + w3 = 1, and the evaluation values w1, w2, and w3 are the presence of CNV for the first input image and the presence of CNV for the second input image, respectively. And the probability that CNV is not included in either input image is shown.

本実施例において、学習済モデル1210は、例えば、Kerasフレームワーク(「Kerasドキュメンテーション」、2019)で利用可能なXception畳み込みニューラルネットワーク(XCNN)モジュールで構成されることができる。以下、本実施例に係る学習済モデルの一例として、CNNについて説明する。本実施例に係るCNNは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該学習済モデルの構成に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。 In this embodiment, the trained model 1210 can be configured, for example, with an Xception convolutional neural network (XCNN) module available in the Keras framework (“Keras Documentation”, 2019). Hereinafter, CNN will be described as an example of the trained model according to this embodiment. The CNN according to this embodiment is composed of a plurality of layers responsible for processing and outputting an input value group. The types of layers included in the configuration of the trained model include a convolution layer, a Downsampling layer, an Upsampling layer, and a Merger layer.

畳み込み層は、設定されたフィルタのカーネルサイズや、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力が複数のチャネルを持つ場合がある。例えば、入力がカラー画像の場合、R/G/Bの3チャネルとなる。この場合、3チャネルのフィルタを使用して畳み込み処理を行う。このように、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。 The convolution layer is a layer that performs convolution processing on the input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The input may have multiple channels. For example, when the input is a color image, there are three channels of R / G / B. In this case, the convolution process is performed using a 3-channel filter. In this way, the number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image.

ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。 The downsampling layer is a layer that performs processing to reduce the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, as such a process, for example, there is a Max Polling process.

アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。 The upsampling layer is a layer that performs processing to increase the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding interpolated values from the input value group. Specifically, as such a process, for example, there is a linear interpolation process.

合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them.

なお、CNNの構成に含まれる畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の比較処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。 As parameters set in the convolutional layer group included in the CNN configuration, for example, the kernel size of the filter is 3 pixels in width, 3 pixels in height, and the number of filters is 64, so that the comparison process has a certain accuracy. Is possible. However, it should be noted that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the output data may differ. That is, in many cases, the appropriate parameters differ depending on the embodiment, and therefore, the values can be changed to preferable values as needed.

また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、比較処理の精度が高かったり、比較処理の時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。 In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics include, for example, high accuracy of comparison processing, short comparison processing time, short training time of machine learning model, and the like.

ここで、本実施例に係る学習データについて説明する。本実施例に係る学習データは、データベースにおける2つのOCTA正面画像を入力データとし、該2つのOCTA正面画像に対して医師等の専門家が選択した評価結果を正解データとした。ここで、データベースは、CNVを有する目の検査データ及び健康な眼における検査データで構成した。また、正解データについては、医師等の専門家によって、入力データに対応する2つのOCTA正面画像のうち、CNVを有する眼についての最適な深度範囲のOCTA正面画像(最良の画像)として選択された画像の評価値w1又は評価値w2を1とし、他の評価値を0とした。また、医師等の専門家によって、入力データに対応する2つのOCTA正面画像にCNVが現れていないと判断された場合には、評価値w1,w2を0とし、評価値w3を1とした。なお、正解データに関する評価値は1又は0とする構成に限られず、医師等の専門家によって小数点以下の評価値が設定されてもよい。ただし、この場合でも評価値の合計が1となるように各評価値が設定される。 Here, the learning data according to this embodiment will be described. For the learning data according to this embodiment, two OCTA front images in the database were used as input data, and evaluation results selected by an expert such as a doctor for the two OCTA front images were used as correct answer data. Here, the database consisted of examination data for eyes with CNV and examination data for healthy eyes. The correct answer data was selected by a specialist such as a doctor as the OCTA front image (best image) having the optimum depth range for the eye having CNV among the two OCTA front images corresponding to the input data. The evaluation value w1 or the evaluation value w2 of the image was set to 1, and the other evaluation values were set to 0. Further, when it was determined by an expert such as a doctor that CNV did not appear in the two OCTA front images corresponding to the input data, the evaluation values w1 and w2 were set to 0, and the evaluation value w3 was set to 1. The evaluation value for the correct answer data is not limited to 1 or 0, and an evaluation value after the decimal point may be set by a specialist such as a doctor. However, even in this case, each evaluation value is set so that the total of the evaluation values is 1.

以下に示す表1は、本実施例に係る学習データの組み合わせを示す。表1における「最良」は、該当する入力データが複数の深度範囲のOCTA正面画像のうち、CNVの観察について最良の画像であることを意味する。また、「その他」は、該当する入力データが複数の深度範囲のOCTA正面画像のうち、「最良」以外の深度範囲の画像であることを意味する。さらに、「健康」は2つの入力データが同じ画像ではない(正面画像インデックスtが異なる)ことを前提に、2つの入力データが健康な目のデータから得られた画像であることを意味する。本実施例に係る学習データはこの3パターンのみであり、どちらの画像がCNVの観察により優れた画像か、又はどちらでもないかを機械学習モデルに学習させるものである。

Figure 2022098699000003
Table 1 shown below shows a combination of learning data according to this embodiment. "Best" in Table 1 means that the corresponding input data is the best image for CNV observation among OCTA frontal images in multiple depth ranges. Further, "other" means that the corresponding input data is an image in a depth range other than "best" among OCTA front images in a plurality of depth ranges. Further, "health" means that the two input data are images obtained from healthy eye data, assuming that the two input data are not the same image (the front image index t is different). The learning data according to this embodiment is only these three patterns, and the machine learning model is made to learn which image is superior to the observation of CNV or neither.
Figure 2022098699000003

このような学習データを用いることで、CNVの観察に適切なOCTA正面画像の比較に関する学習を行うことができ、このような学習を行った学習済モデルを用いることで信頼性の高い比較を行うことができる。また、ニューラルネットワークの学習(トレーニング)では、画像を回転させたり、上下左右反転させたり、画像を切り取る範囲を変化させることなどの、いわゆるオーグメンテーション(Augmentation)を行ってもよい。この場合、オーグメンテーションにより学習データの入力データとなるOCTA正面画像を増やすことができる。 By using such training data, it is possible to perform training on comparison of OCTA front images suitable for observing CNV, and by using a trained model that has undergone such training, highly reliable comparison can be performed. be able to. Further, in the learning (training) of the neural network, so-called augmentation may be performed, such as rotating the image, inverting the image vertically and horizontally, and changing the range in which the image is cut. In this case, augmentation can increase the number of OCTA front images that are input data for training data.

なお、学習データの入力データ及び実際の運用時の入力データとして用いるOCTA正面画像としては、プロジェクションアーチファクトが除去された画像を用いることができる。ここで、プロジェクションアーチファクトとは、網膜の表層などの血管が、表層より下の層に映りこむ現象である。なお、プロジェクションアーチファクトを除去するアルゴリズムとしては公知の任意の方法を用いてよい。 As the OCTA front image used as the input data of the training data and the input data at the time of actual operation, an image from which projection artifacts have been removed can be used. Here, the projection artifact is a phenomenon in which blood vessels such as the surface layer of the retina are reflected in a layer below the surface layer. As an algorithm for removing projection artifacts, any known method may be used.

提示された発明に係る機械学習モデルはXCNNに限定されず、特にInceptionV3、InceptionResnetV2、NASNet、又はNASNetMobileなどの他の種類のCNNモデルを使用することもできる。また、機械学習モデルは、マルチレイヤーパーセプトロン、デシジョンツリー、又はサポートベクターマシンなどの非CNN型のニューラルネットワークソリューションを使用することができる。 The machine learning model according to the presented invention is not limited to XCNN, and other types of CNN models such as InsertionV3, InjectionResnetV2, NASNet, or NASNetMobile can also be used in particular. Machine learning models can also use non-CNN neural network solutions such as multilayer perceptrons, decision trees, or support vector machines.

このような機械学習モデルの学習済モデルにデータを入力すると、機械学習モデルの設計に従ったデータが出力される。例えば、学習データを用いて学習を行った傾向に従って入力データに対応する可能性の高い出力データが出力される。本実施例に係る学習済モデルでは、正面画像決定部343の学習済モデル1210は、OCTA正面画像のペアが入力されると、入力されたOCTA正面画像における1つ目の入力画像に対するCNVの存在、2つ目の入力画像に対するCNVの存在、及びどちらにもCNVが含まれない確率を出力する。例えば、学習済モデルは、入力された2つのOCTA正面画像に対して、評価値(w1,w2,w3)=(0.7,0.2,0.1)を出力することができる。 When data is input to the trained model of such a machine learning model, the data according to the design of the machine learning model is output. For example, output data that is likely to correspond to the input data is output according to the tendency of learning using the training data. In the trained model according to this embodiment, in the trained model 1210 of the front image determination unit 343, when a pair of OCTA front images is input, the presence of CNV with respect to the first input image in the input OCTA front image. Second, the existence of CNV for the second input image and the probability that CNV is not included in either of them are output. For example, the trained model can output evaluation values (w1, w2, w3) = (0.7, 0.2, 0.1) for two input OCTA front images.

ステップS1140では、正面画像決定部343は、画像Img[t]が現在の勝者AWよりもCNVの観察について優れているかどうかを判定する。具体的には、正面画像決定部343は、学習済モデル1210を用いて得た評価値のうち、最も高い評価値を真として判定する。なお、評価値w3が最も高かった場合には、評価値w1,w2のうち高かった方を真とする。正面画像決定部343は、真とされた評価値に基づいて、画像Img[t]が現在の勝者AWよりもCNVの観察について優れているかどうかを判定する。 In step S1140, the frontal image determination unit 343 determines whether the image Img [t] is superior to the current winner AW in observing CNV. Specifically, the front image determination unit 343 determines that the highest evaluation value among the evaluation values obtained by using the trained model 1210 is true. When the evaluation value w3 is the highest, the higher one of the evaluation values w1 and w2 is regarded as true. The frontal image determination unit 343 determines whether the image Img [t] is superior to the current winner AW in observing CNV based on the true rating.

例えば、画像Img[1]を1つ目の入力データとし、勝者AW(画像Img[0])を2つ目の入力データとした際の学習済モデルの出力において、評価値w1が最も高かった場合には、評価値w1を真とする。その後、正面画像決定部343は、評価値w1が真であるため、1つ目の入力データに対応する画像Img[1]が現在の勝者AWよりも優れているとして、ステップS1140での判定を真とする。一方で、正面画像決定部343は、評価値w2が最も高かった場合には、評価値w2を真とする。この場合には、正面画像決定部343は、評価値w2が真であるため、1つ目の入力データに対応する画像Img[1]は現在の勝者AWよりも優れていないとして、ステップS1140での判定を偽とする。 For example, the evaluation value w1 was the highest in the output of the trained model when the image Img [1] was used as the first input data and the winner AW (image Img [0]) was used as the second input data. In that case, the evaluation value w1 is true. After that, the front image determination unit 343 determines in step S1140 that the image Img [1] corresponding to the first input data is superior to the current winner AW because the evaluation value w1 is true. True. On the other hand, when the evaluation value w2 is the highest, the front image determination unit 343 sets the evaluation value w2 to true. In this case, the front image determination unit 343 considers that the image Img [1] corresponding to the first input data is not superior to the current winner AW because the evaluation value w2 is true, and in step S1140. The judgment of is false.

ただし、正面画像決定処理における一連のすべての比較において評価値w3が最も高いと判定されていた場合には、正面画像決定部343は、画像Img[i]にはCNVが存在していないと判定し、後述するステップS1180において勝者AWを無しに決定できる。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。 However, when it is determined that the evaluation value w3 is the highest in all the series of comparisons in the front image determination process, the front image determination unit 343 determines that CNV does not exist in the image Img [i]. However, the winner AW can be determined without the winner AW in step S1180 described later. In this case, in step S704, the display control unit 306 can display that the CNV does not exist in the display unit 310.

ステップS1140において真と判定された場合には、処理はステップS1150に移行する。ステップS1150では、正面画像決定部343が、勝者AWを画像Img[t]に設定(更新)する。また、正面画像決定部343は、インデックスiを正面画像インデックスtの値に設定する。 If it is determined to be true in step S1140, the process proceeds to step S1150. In step S1150, the front image determination unit 343 sets (updates) the winner AW to the image Img [t]. Further, the front image determination unit 343 sets the index i to the value of the front image index t.

ステップS1150において、勝者AW及びインデックスiを設定すると処理はステップS1160に移行する。また、ステップS1140において偽と判定された場合にも、処理はステップS1160に移行する。ステップS1160では、正面画像決定部343は、正面画像インデックスtが次の正面画像のインデックスを示すように、正面画像インデックスtに1を加算する。 When the winner AW and the index i are set in step S1150, the process proceeds to step S1160. Further, even if it is determined to be false in step S1140, the process proceeds to step S1160. In step S1160, the front image determination unit 343 adds 1 to the front image index t so that the front image index t indicates the index of the next front image.

ステップS1170では、正面画像決定部343は、全てのOCTA正面画像が比較されたかどうかを判断する。具体的には、正面画像決定部343は、正面画像インデックスtが正面画像の枚数Nよりも低いか否かを判断する。ステップS1170において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低い(真)と判断されると、処理はステップS1130に戻る。一方で、ステップS1170において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低くない(偽)と判断されると、処理はステップS1180に移行する。 In step S1170, the front image determination unit 343 determines whether or not all OCTA front images have been compared. Specifically, the front image determination unit 343 determines whether or not the front image index t is lower than the number N of front images. If the front image determination unit 343 determines in step S1170 that the front image index t is lower (true) than the number N of front images, the process returns to step S1130. On the other hand, if the front image determination unit 343 determines in step S1170 that the front image index t is not lower than the number N of front images (false), the process proceeds to step S1180.

ステップS1180では、正面画像決定部343は、勝者AWを画像Img[i]に決定する。このような正面画像決定処理では、全てのOCTA正面画像について比較が行われると、インデックスiは最適な深度範囲の正面画像インデックスを示す。そのため、正面画像決定部343は、ステップS1180において、勝者AWを画像Img[i]に決定することで、CNVの観察に最適な深度範囲のOCTA正面画像として画像Img[i]を決定・選択することができる。 In step S1180, the front image determination unit 343 determines the winner AW as the image Img [i]. In such a front image determination process, when all OCTA front images are compared, the index i indicates the front image index in the optimum depth range. Therefore, in step S1180, the front image determination unit 343 determines and selects the image Img [i] as the OCTA front image having the optimum depth range for observing the CNV by determining the winner AW as the image Img [i]. be able to.

上記のように、本実施例に係る画像処理装置300は、取得部と、評価部と、決定部とを備える。取得部は、被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得する。ここで、正面画像生成部342は、取得部の一例として機能する。また、評価部は、被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する。さらに、決定部は、評価値を用いて、複数の正面画像のうち少なくとも一つを出力画像として決定する。ここで、正面画像決定部343は、評価部及び決定部の一例として機能する。なお、本実施例に係る学習データは、被検眼の異なる深度範囲に対応する複数の正面画像と、各正面画像に対応する評価値とを含むことができる。 As described above, the image processing apparatus 300 according to the present embodiment includes an acquisition unit, an evaluation unit, and a determination unit. The acquisition unit acquires a plurality of front images corresponding to different depth ranges of the three-dimensional data of the eye to be inspected. Here, the front image generation unit 342 functions as an example of the acquisition unit. Further, the evaluation unit is used as input data to be input to different channels of the trained model obtained by learning using the training data including a plurality of front images corresponding to different depth ranges of the eyes to be examined. By using at least two front images out of the front images, an evaluation value for evaluating the existence of the target area is acquired. Further, the determination unit determines at least one of the plurality of front images as an output image by using the evaluation value. Here, the front image determination unit 343 functions as an example of the evaluation unit and the determination unit. The learning data according to this embodiment can include a plurality of front images corresponding to different depth ranges of the eye to be inspected and evaluation values corresponding to each front image.

このような構成によれば、操作者が介在することなく、対象となる構造物を確認することが容易な深度範囲の正面画像を取得し表示することができ、処理の効率を向上させることができる。なお、本実施例では、正面画像決定部343が評価部及び決定部の一例として機能するが、評価部と決定部は別々に設けられてもよい。この場合、評価部及び決定部は、正面画像決定部343の一部として、正面画像決定部343に含まれてもよい。 According to such a configuration, it is possible to acquire and display a front image in a depth range where it is easy to confirm the target structure without the intervention of an operator, and it is possible to improve the processing efficiency. can. In this embodiment, the front image determination unit 343 functions as an example of the evaluation unit and the determination unit, but the evaluation unit and the determination unit may be provided separately. In this case, the evaluation unit and the determination unit may be included in the front image determination unit 343 as a part of the front image determination unit 343.

また、本実施例では、正面画像としてOCTA正面画像を生成し表示する例について述べたが、実施例1と同様に、正面画像として輝度のEn-Face画像を生成・表示してもよい。この場合も上記と同様の正面画像決定処理により、正面画像決定部343は、病理部の観察に適切な深度範囲の輝度のEn-Face画像を決定することができる。また、本実施例の場合も、操作者が好ましくないと考えた場合には、生成される正面画像の深度範囲をマニュアルで調整できるように画像処理装置300を構成してもよい。 Further, in this embodiment, an example in which an OCTA front image is generated and displayed as a front image has been described, but as in the first embodiment, a brightness En-Face image may be generated and displayed as a front image. In this case as well, by the same front image determination process as described above, the front image determination unit 343 can determine an En-Face image having a brightness in a depth range suitable for observing the pathological unit. Further, also in the case of this embodiment, if the operator thinks that it is not preferable, the image processing device 300 may be configured so that the depth range of the generated front image can be manually adjusted.

なお、本実施例では、新生血管(CNV)の領域を抽出する対象領域とし、3次元のモーションコントラストデータからOCTA正面画像を生成し、評価を行った。ただし、対象領域はCNVの領域に限られない。例えば、篩状板の領域を対象領域とし、乳頭部の3次元の断層データから輝度のEn-Face画像を生成し、評価を行ってもよい。また、例えば、毛細血管瘤の領域を対象領域とし、黄斑部の3次元のモーションコントラストデータからOCTA正面画像を生成し、評価を行ってもよい。なお、上述した様々な変形は以下の実施例及び変形例にも同様に適用することができる。 In this example, the area of the new blood vessel (CNV) was set as the target area, and the OCTA front image was generated from the three-dimensional motion contrast data and evaluated. However, the target area is not limited to the CNV area. For example, the region of the sieve plate may be set as the target region, and an En-Face image of brightness may be generated from the three-dimensional tomographic data of the papilla and evaluated. Further, for example, the area of the capillary aneurysm may be set as the target area, and an OCTA frontal image may be generated from the three-dimensional motion contrast data of the macula and evaluated. The various modifications described above can be similarly applied to the following examples and modifications.

なお、本実施例に係る正面画像決定処理は、上記のフローに限定されない。正面画像決定処理は、所望の構成に応じて、上記フローの他のいかなる実施も、公知の任意のプログラミング方法に従って検討することができる。例えば、本実施例では、正面画像の比較は勝者AWとされた正面画像が次の正面画像と比較されるように行われたが、異なる正面画像同士で比較を行い、勝者同士の比較を順次行う勝ち抜き式のトーナメント方式で行われてもよい。 The front image determination process according to this embodiment is not limited to the above flow. The frontal image determination process can be considered for any other implementation of the above flow, depending on the desired configuration, according to any known programming method. For example, in this embodiment, the front image is compared so that the front image with the winner AW is compared with the next front image, but different front images are compared and the winners are compared sequentially. It may be held in a winning tournament system.

(実施例2の変形例)
以下、実施例2の変形例について説明する。なお、本変形例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。本変形例は、正面画像決定部343による処理が、実施例2に係る正面画像決定部343による処理と異なる。実施例2のステップS1140では、正面画像決定部343は、学習済モデル1210を用いて得た評価値w3の値が最も高かったとしても、評価値w1又は評価値w2に基づいて、比較される画像のどちらの画像が良いかを判定した。これに対し、本変形例では、正面画像決定部343は、学習済モデル1210を用いて得た評価値w3の値が最も高かった場合、評価値w1及び評価値w2に対応する画像の両者を不適当と判断し、それ以降の比較に用いない、いわゆる両者敗退とするような処理を行う。
(Modified example of Example 2)
Hereinafter, a modified example of the second embodiment will be described. Since the configuration of the image processing apparatus according to the present modification is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. In this modification, the processing by the front image determination unit 343 is different from the processing by the front image determination unit 343 according to the second embodiment. In step S1140 of the second embodiment, the front image determination unit 343 is compared based on the evaluation value w1 or the evaluation value w2 even if the value of the evaluation value w3 obtained by using the trained model 1210 is the highest. It was determined which of the images was better. On the other hand, in this modification, when the value of the evaluation value w3 obtained by using the trained model 1210 is the highest, the front image determination unit 343 displays both the evaluation value w1 and the image corresponding to the evaluation value w2. Judging that it is inappropriate, it is not used for subsequent comparisons, so-called defeat of both parties is performed.

以下、図13A及び図13Bを参照して、本変形例に係る正面画像決定処理について実施例2に係る正面画像決定処理と異なる部分について説明する。図13A及び図13Bは、本変形例に係る正面画像決定処理のフローチャートを示す。なお、実施例2に係る処理と同様の処理に関しては同じ参照符号を用いて説明を省略する。 Hereinafter, with reference to FIGS. 13A and 13B, a portion of the front image determination process according to the present modification, which is different from the front image determination process according to the second embodiment, will be described. 13A and 13B show a flowchart of the front image determination process according to the present modification. The same reference numerals will be used for the same processing as that of the second embodiment, and the description thereof will be omitted.

ステップS1130において、正面画像決定部343が、勝者AWと画像Img[t]を比較して評価値を得ると、処理はステップS1300に移行する。ステップS1300では、正面画像決定部343は、現在の勝者AW及び画像Img[t]にCNVが存在するか判定する。より具体的には、正面画像決定部343は、評価値w3が最も大きい場合には、現在の勝者AW及び画像Img[t]のいずれにもCNVが存在しないと判定する。ただし、正面画像決定部343は、例えば、評価値w3が所定の閾値を超えた場合に、現在の勝者AW及び画像Img[t]のいずれにもCNVが存在しないと判定するなど別の判定方法を採用してもよい。 In step S1130, when the front image determination unit 343 compares the winner AW with the image Img [t] and obtains an evaluation value, the process proceeds to step S1300. In step S1300, the front image determination unit 343 determines whether CNV is present in the current winner AW and the image Img [t]. More specifically, the front image determination unit 343 determines that CNV does not exist in either the current winner AW or the image Img [t] when the evaluation value w3 is the largest. However, the front image determination unit 343 determines, for example, that CNV does not exist in either the current winner AW or the image Img [t] when the evaluation value w3 exceeds a predetermined threshold value, or another determination method. May be adopted.

ステップS1300において、正面画像決定部343によって、現在の勝者AW又は画像Img[t]にCNVが存在する(真)と判定された場合には、処理はステップS1140に移行する。ステップS1140以降の処理は実施例2に係る処理と同様であるため説明を省略する。 If the front image determination unit 343 determines in step S1300 that CNV is present (true) in the current winner AW or image Img [t], the process proceeds to step S1140. Since the processing after step S1140 is the same as the processing according to the second embodiment, the description thereof will be omitted.

一方で、ステップS1300において、正面画像決定部343によって、現在の勝者AW及び画像Img[t]にCNVが存在しない(偽)と判定された場合には、処理はステップS1310に移行する。ステップS1310では、正面画像決定部343は、正面画像インデックスtが次の正面画像のインデックスを示すように、正面画像インデックスtに1を加算する。 On the other hand, if it is determined in step S1300 by the front image determination unit 343 that CNV does not exist (false) in the current winner AW and the image Img [t], the process proceeds to step S1310. In step S1310, the front image determination unit 343 adds 1 to the front image index t so that the front image index t indicates the index of the next front image.

ステップS1320では、正面画像決定部343は、全てのOCTA正面画像が比較されたかどうかを判断する。具体的には、正面画像決定部343は、正面画像インデックスtが正面画像の枚数Nよりも低いか否かを判断する。 In step S1320, the front image determination unit 343 determines whether or not all OCTA front images have been compared. Specifically, the front image determination unit 343 determines whether or not the front image index t is lower than the number N of front images.

ステップS1320において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低くない(偽)と判断されると、処理はステップS1330に移行する。ステップS1330では、正面画像決定部343は、勝者AWを無しに決定する。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。 If the front image determination unit 343 determines in step S1320 that the front image index t is not lower than the number N of front images (false), the process proceeds to step S1330. In step S1330, the front image determination unit 343 determines without the winner AW. In this case, in step S704, the display control unit 306 can display that the CNV does not exist in the display unit 310.

一方で、ステップS1320において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低い(真)と判断されると、処理はステップS1340に移行する。ステップS1340では、正面画像決定部343は、勝者AWを新たな画像Img[t]に更新し、インデックスiを正面画像インデックスtの値に設定する。また、正面画像決定部343は、仮の比較画像Tmpを画像Img[t-1]に設定する。 On the other hand, if the front image determination unit 343 determines in step S1320 that the front image index t is lower (true) than the number N of front images, the process proceeds to step S1340. In step S1340, the front image determination unit 343 updates the winner AW to a new image Img [t] and sets the index i to the value of the front image index t. Further, the front image determination unit 343 sets the temporary comparison image Tmp to the image Img [t-1].

次に、ステップS1350では、正面画像決定部343は、正面画像インデックスtが次の正面画像のインデックスを示すように、正面画像インデックスtに1を加算する。また、ステップS1360では、全ての正面画像が比較されたかどうか、言い換えると比較対象となる正面画像が残っているかを判断する。具体的には、正面画像決定部343は、正面画像インデックスtが正面画像の枚数Nよりも低いか否かを判断する。 Next, in step S1350, the front image determination unit 343 adds 1 to the front image index t so that the front image index t indicates the index of the next front image. Further, in step S1360, it is determined whether or not all the frontal images have been compared, in other words, whether or not the frontal image to be compared remains. Specifically, the front image determination unit 343 determines whether or not the front image index t is lower than the number N of front images.

ステップS1360において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低い(真)と判断されると、処理はステップS1130に戻る。一方で、ステップS1360において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低くない(偽)、言い換えると、比較対象となる正面画像が存在しないと判断されると、処理はステップS1370に移行する。 If the front image determination unit 343 determines in step S1360 that the front image index t is lower (true) than the number N of front images, the process returns to step S1130. On the other hand, in step S1360, when the front image determination unit 343 determines that the front image index t is not lower than the number N of front images (false), in other words, there is no front image to be compared. The process proceeds to step S1370.

ステップS1370では、正面画像決定部343は、学習済モデルを用いて、現在の勝者AWと仮の比較画像Tmpを比較する。当該処理は実施例1に係るステップS1130の処理と同様であってよい。 In step S1370, the front image determination unit 343 compares the current winner AW with the tentative comparison image Tmp using the trained model. The process may be the same as the process of step S1130 according to the first embodiment.

ステップS1380では、正面画像決定部343は、ステップS1140と同様に、仮の比較画像Tmpが現在の勝者AWよりも優れているかどうかを判定する。ただし、ステップS1380において、評価値w3が最も高いと判定された場合には、正面画像決定部343は、現在の勝者AW及び仮の比較画像TmpにはCNVが存在していないと判定し、後続のステップS1180において勝者AWを無しに決定できる。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。 In step S1380, the front image determination unit 343 determines whether the tentative comparative image Tmp is superior to the current winner AW, as in step S1140. However, if it is determined in step S1380 that the evaluation value w3 is the highest, the front image determination unit 343 determines that CNV does not exist in the current winner AW and the provisional comparison image Tmp, and succeeds. In step S1180 of, the winner AW can be determined without. In this case, in step S704, the display control unit 306 can display that the CNV does not exist in the display unit 310.

ステップS1380において真と判定された場合には、処理はステップS1390に移行する。ステップS1390では、正面画像決定部343が、勝者AWを無しに決定する。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。 If it is determined to be true in step S1380, the process proceeds to step S1390. In step S1390, the front image determination unit 343 determines without the winner AW. In this case, in step S704, the display control unit 306 can display that the CNV does not exist in the display unit 310.

一方、ステップS1380において偽と判定された場合には、処理はステップS1180に移行する。当該ステップS1180は実施例2に係るステップS1180と同様の処理であってよく、同じ参照符号を用いて説明を省略する。このような処理により、インデックスiは最適な深度範囲の正面画像インデックスを示し、ステップS1180の後に画像Img[i]が出力される。 On the other hand, if it is determined to be false in step S1380, the process proceeds to step S1180. The step S1180 may be the same process as the step S1180 according to the second embodiment, and the same reference numerals will be used and the description thereof will be omitted. By such processing, the index i indicates the front image index in the optimum depth range, and the image Img [i] is output after step S1180.

本実施例では、正面画像決定部343は、抽出対象が存在しないことを示す評価値を算出した際に学習済モデルに入力した少なくとも2つの正面画像を、他の正面画像に関する評価値の算出に用いない。本実施例によれば、正面画像決定部343は、学習済モデル1210を用いて2枚の正面画像についてCNVがどちらにも存在しないと判定した場合に、以降の処理においてそれら2枚の画像を比較対象に用いないため、計算負荷を削減することができる。なお、本実施例では、2枚の正面画像のCNVが存在しないと判定された後に、比較対象の正面画像の残りが1枚であった場合に、例外的にCNVが存在しないとされた正面画像のうちの一つを比較に用いることとしている。この場合であっても、上記例外的な場合を除き、CNVが存在しないとされた正面画像が以降の処理において比較対象として用いられないため、計算負荷を軽減することができる。なお、正面画像決定部343は、上記例外的な場合には、予め設定されたCNVが存在しないダミーの正面画像を用いて比較処理を行ってもよい。 In this embodiment, the front image determination unit 343 uses at least two front images input to the trained model when calculating the evaluation value indicating that the extraction target does not exist to calculate the evaluation value for the other front image. Not used. According to this embodiment, when the front image determination unit 343 determines that CNV does not exist in either of the two front images using the trained model 1210, the front image determination unit 343 determines those two images in the subsequent processing. Since it is not used as a comparison target, the calculation load can be reduced. In this embodiment, after it is determined that the CNVs of the two front images do not exist, when the remaining one of the front images to be compared is one, the front surface is exceptionally determined to have no CNV. One of the images will be used for comparison. Even in this case, except in the above exceptional case, the front image in which CNV does not exist is not used as a comparison target in the subsequent processing, so that the calculation load can be reduced. In the above exceptional case, the front image determination unit 343 may perform comparison processing using a dummy front image in which a preset CNV does not exist.

なお、本実施例に係る正面画像決定処理は、上記のフローに限定されない。正面画像決定処理は、所望の構成に応じて、上記フローの他のいかなる実施も、公知の任意のプログラミング方法に従って検討することができる。例えば、本実施例では、正面画像の比較は勝者AWとされた正面画像が次の正面画像と比較されるように行われたが、異なる正面画像同士で比較を行い、勝者同士の比較を順次行う勝ち抜き式のトーナメント方式で行われてもよい。 The front image determination process according to this embodiment is not limited to the above flow. The frontal image determination process can be considered for any other implementation of the above flow, depending on the desired configuration, according to any known programming method. For example, in this embodiment, the front image is compared so that the front image with the winner AW is compared with the next front image, but different front images are compared and the winners are compared sequentially. It may be held in a winning tournament system.

(実施例3)
実施例2では、最適な深度範囲を決定するために、正面画像決定部343は、学習済モデル1210に2枚の正面画像を入力し、評価値を得た。これに対し、実施例3では、2枚の正面画像の他に、追加の正面画像が入力されるように学習済モデルを構成する。
(Example 3)
In Example 2, in order to determine the optimum depth range, the front image determination unit 343 input two front images into the trained model 1210 and obtained evaluation values. On the other hand, in the third embodiment, the trained model is configured so that an additional front image is input in addition to the two front images.

以下、図14乃至図16を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例2に係る画像処理装置300との違いを中心に説明する。 Hereinafter, the image processing apparatus according to this embodiment will be described with reference to FIGS. 14 to 16. Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the image processing apparatus 300 according to the second embodiment.

図14は、本実施例に係る学習済モデルの構成を説明するための図である。本実施例では、図14に示すように、学習済モデル1410を、2枚のOCTA正面画像1401,1402の他に、追加のOCTA正面画像1405が入力されるように構成する。ここで、2枚のOCTA正面画像1401,1402は比較すべきOCTA正面画像であり、追加のOCTA正面画像1405は、2枚の正面画像1401,1402に関連する被検眼の他の深度範囲のOCTA正面画像である。 FIG. 14 is a diagram for explaining the configuration of the trained model according to the present embodiment. In this embodiment, as shown in FIG. 14, the trained model 1410 is configured to input an additional OCTA front image 1405 in addition to the two OCTA front images 1401 and 1402. Here, the two OCTA front images 1401, 1402 are OCTA front images to be compared, and the additional OCTA front image 1405 is an OCTA in another depth range of the eye to be inspected associated with the two front images 1401, 1402. It is a front image.

本実施例に係る一態様では、追加の正面画像1405は網膜表層のOCTA正面画像である。網膜表層のOCTA正面画像を入力することで、学習済モデル1410での処理に関して、OCTA正面画像に発生するプロジェクションアーチファクトを考慮させることができると考えられる。 In one aspect according to this embodiment, the additional frontal image 1405 is an OCTA frontal image of the surface layer of the retina. By inputting the OCTA front image of the surface layer of the retina, it is considered that the projection artifacts generated in the OCTA front image can be taken into consideration for the processing in the trained model 1410.

ここで、図15を参照して、プロジェクションアーチファクトについて説明する。図15は、OCTA正面画像1401,1405についてコントラスト補正を行ったOCTA正面画像1501,1505の一例を示す。OCTA正面画像1501の下部1501bの構造は、OCTA正面画像1505の下部1505bの表層構造とよく相関する。一方で、OCTA正面画像1501の上部1501aは主にCNVに関連する構造を含み、OCTA正面画像1505の上部1505aの表面構造とあまり相関しない。上述したように、プロジェクションアーチファクトとは、網膜の表層などの血管が、表層より下の層に映りこむ現象である。このため、OCTA正面画像1505の下部1505bの表層構造とよく相関するOCTA正面画像1501の下部1501bの構造はプロジェクションアーチファクトの影響によるものとして、CNVに関連する構造と区別して把握することができると考えられる。 Here, the projection artifact will be described with reference to FIG. FIG. 15 shows an example of the OCTA front image 1501, 1505 in which contrast correction is performed on the OCTA front images 1401, 1405. The structure of the lower part 1501b of the OCTA front image 1501 correlates well with the surface structure of the lower part 1505b of the OCTA front image 1505. On the other hand, the upper 1501a of the OCTA front image 1501 contains a structure mainly related to CNV and does not correlate well with the surface structure of the upper 1505a of the OCTA front image 1505. As described above, the projection artifact is a phenomenon in which blood vessels such as the surface layer of the retina are reflected in the layer below the surface layer. Therefore, it is considered that the structure of the lower part 1501b of the OCTA front image 1501 that correlates well with the surface layer structure of the lower part 1505b of the OCTA front image 1505 can be grasped separately from the structure related to CNV because of the influence of the projection artifact. Be done.

このため、比較すべきOCTA正面画像1401,1402に加えて、追加のOCTA正面画像1405を学習済モデル1410に入力することで、OCTA正面画像1405との相関に基づいて病理部やアーチファクトを考慮した処理が行われると考えられる。そのため、本実施例に係る学習済モデルを用いることで、病理部とプロジェクションアーチファクトとをより適切に区別した、より信頼性の高い比較を行うことができると考えられる。 Therefore, by inputting an additional OCTA front image 1405 into the trained model 1410 in addition to the OCTA front images 1401 and 1402 to be compared, pathological parts and artifacts are considered based on the correlation with the OCTA front image 1405. It is believed that processing will take place. Therefore, by using the trained model according to this example, it is considered that a more reliable comparison can be made by more appropriately distinguishing the pathological part and the projection artifact.

なお、本実施例に係る学習データは、実施例2に係る学習データに加えて、入力データとして、2つのOCTA正面画像に関連する被検眼の網膜表層のOCTA正面画像を用いる。一方、正解データ(出力データ)は、実施例2に係る正解データと同様のものであってよい。 As the learning data according to the present embodiment, in addition to the learning data according to the second embodiment, the OCTA front image of the retinal surface layer of the eye to be inspected, which is related to the two OCTA front images, is used as the input data. On the other hand, the correct answer data (output data) may be the same as the correct answer data according to the second embodiment.

また、本実施例では、学習済モデル1410へOCTA正面画像を入力する際に、OCTA正面画像1401,1402、及び追加の正面画像1405を別々の入力チャネルに入力することができる。例えば、図16に示すように、OCTA正面画像1401をRチャネル、OCTA正面画像1402をGチャネル、追加のOCTA正面画像1405をBチャネルとしたRGB画像1601を学習済モデルに入力してもよい。この場合には、RGB画像1601に基づいて、OCTA正面画像1401が学習済モデルのRチャネルに、OCTA正面画像1402を学習済モデルのGチャネルに、追加のOCTA正面画像1405が学習済モデルのBチャネルに入力されることとなる。なお、この場合には、学習データの入力データも、同様に生成されたRGB画像を用いることとすればよい。 Further, in this embodiment, when the OCTA front image is input to the trained model 1410, the OCTA front image 1401, 1402 and the additional front image 1405 can be input to different input channels. For example, as shown in FIG. 16, an RGB image 1601 having an OCTA front image 1401 as an R channel, an OCTA front image 1402 as a G channel, and an additional OCTA front image 1405 as a B channel may be input to the trained model. In this case, based on the RGB image 1601, the OCTA front image 1401 is on the R channel of the trained model, the OCTA front image 1402 is on the G channel of the trained model, and the additional OCTA front image 1405 is the B of the trained model. It will be input to the channel. In this case, the RGB image similarly generated may be used as the input data of the learning data.

上記のように本実施例に係る正面画像決定部343は、少なくとも2つの正面画像に加えて、当該少なくとも2つの正面画像とは異なる画像(追加の画像)として被検眼の網膜表層に対応するOCTA正面画像を学習済モデルに入力する。ここで、学習済モデルに入力される当該異なる画像は、被検眼の網膜表層のOCTA正面画像とすることができる。なお、正面画像決定部343は、当該少なくとも2つの正面画像及び当該異なる画像のそれぞれを学習済モデルの異なるチャネルに入力することができる。本実施例によれば、病理部とプロジェクションアーチファクトとをより適切に区別した、より信頼性の高い比較を行うことができると考えられる。 As described above, the frontal image determination unit 343 according to the present embodiment has the OCTA corresponding to the retinal surface layer of the eye to be inspected as an image (additional image) different from the at least two frontal images in addition to the at least two frontal images. Enter the front image into the trained model. Here, the different image input to the trained model can be an OCTA front image of the surface layer of the retina of the eye to be inspected. The front image determination unit 343 can input each of the at least two front images and the different images to different channels of the trained model. According to this example, it is considered that a more reliable comparison can be made by more appropriately distinguishing the pathological part and the projection artifact.

(実施例4)
実施例2では、最適な深度範囲を決定するために、正面画像決定部343は、学習済モデル1210に異なる深度範囲のうちの2枚の正面画像のペアを入力し、比較を行った。これに対し、実施例4に係る正面画像決定処理では、正面画像決定部は、学習済モデルに一度に異なる深度範囲に対応する複数の正面画像の全てを入力し、比較を行うという点で、実施例2における正面画像決定処理(ステップS1002)と異なる。本実施例の利点としては、正面画像決定部は、学習済モデルを用いて同時に全ての正面画像の比較を行うため、より信頼性の高い分析を行うことができると期待される。また、ステップS1002における正面画像決定処理のフローを単一のステップに単純化できるという利点がある。
(Example 4)
In Example 2, in order to determine the optimum depth range, the front image determination unit 343 inputs a pair of two front images out of different depth ranges into the trained model 1210 and makes a comparison. On the other hand, in the front image determination process according to the fourth embodiment, the front image determination unit inputs all of the plurality of front images corresponding to different depth ranges into the trained model at one time, and compares them. It is different from the front image determination process (step S1002) in the second embodiment. As an advantage of this embodiment, since the front image determination unit compares all the front images at the same time using the trained model, it is expected that more reliable analysis can be performed. Further, there is an advantage that the flow of the front image determination process in step S1002 can be simplified into a single step.

以下、図17を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例2に係る画像処理装置300との違いを中心に説明する。 Hereinafter, the image processing apparatus according to this embodiment will be described with reference to FIG. Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the image processing apparatus 300 according to the second embodiment.

図17は、本実施例に係る学習済モデルの構成を説明するための図である。本実施例では、図17に示すように、学習済モデル1710を、ステップS1001で生成された複数の深度範囲のOCTA正面画像の枚数Nに等しい複数のOCTA正面画像1700が入力されるように構成する。図17では、説明の簡便化のためN=4の例を示している。学習済モデルは、N+1に等しい数の要素の重みベクトル(評価値w1~w5)を出力する。ここで、Nに等しい数の重みベクトル(評価値w1~w4)を含む重みベクトルの第一の要素1720は、入力された各OCTA正面画像のCNVの存在確率に対応し、重みベクトルの第二の要素1725(評価値w5)は入力画像のいずれにもCNVが存在しない確率に対応する。 FIG. 17 is a diagram for explaining the configuration of the trained model according to the present embodiment. In this embodiment, as shown in FIG. 17, the trained model 1710 is configured to input a plurality of OCTA front images 1700 equal to the number N of OCTA front images in a plurality of depth ranges generated in step S1001. do. FIG. 17 shows an example of N = 4 for the sake of simplicity of explanation. The trained model outputs weight vectors (evaluation values w1 to w5) of a number of elements equal to N + 1. Here, the first element 1720 of the weight vector including the number of weight vectors equal to N (evaluation values w1 to w4) corresponds to the existence probability of CNV in each input OCTA front image, and the second weight vector. Element 1725 (evaluation value w5) corresponds to the probability that CNV does not exist in any of the input images.

本実施例に係る学習データでは、入力データとして、複数の深度範囲のOCTA正面画像をランダムな順序で用いる。また、出力データとして、入力データのうちの最良の画像に対応する重みベクトルを1とする重みベクトルを用いる。例として、N=4のOCTA正面画像がCNVを有する眼のデータから提供され、第3の入力データとして最良の画像が提供された場合には、学習処理で与える正解データとして重みベクトル(0,0,1,0,0)を用いる。一方、OCTA正面画像が正常な眼のデータから提供された場合、学習処理で与える正解データとしては常に重みベクトル(0,0,0,0,1)を用いる。このような学習を行った学習済モデル1710は、入力された複数の深度範囲の全てのOCTA正面画像から一度に評価値を出力できる。 In the learning data according to this embodiment, OCTA front images having a plurality of depth ranges are used as input data in a random order. Further, as the output data, a weight vector having a weight vector of 1 corresponding to the best image among the input data is used. As an example, when the OCTA front image with N = 4 is provided from the data of the eye having CNV and the best image is provided as the third input data, the weight vector (0,) is given as the correct answer data in the learning process. 0,1,0,0) is used. On the other hand, when the OCTA front image is provided from normal eye data, the weight vector (0,0,0,0,1) is always used as the correct answer data given in the learning process. The trained model 1710 that has performed such training can output evaluation values at once from all OCTA front images in a plurality of input depth ranges.

また、本実施例では、学習済モデルから出力される評価値(重みベクトル)のインデックスのうち最も高い評価値のインデックスは、最適な深度範囲の正面画像のインデックスに対応する。そのため、正面画像決定部343は、当該最も高い評価値のインデックスに基づいて、最適な深度範囲を判断することができる。 Further, in this embodiment, the index of the highest evaluation value among the indexes of the evaluation values (weight vectors) output from the trained model corresponds to the index of the front image in the optimum depth range. Therefore, the front image determination unit 343 can determine the optimum depth range based on the index of the highest evaluation value.

本実施例によれば、学習済モデル1710を用いて、同時に異なる深度範囲に対応する複数の正面画像の全てを比較することができ、より信頼性の高い比較を行うことができると期待できる。また、ステップS1002における正面画像決定処理のフローを単一のステップに単純化できる。 According to this embodiment, it is expected that the trained model 1710 can be used to compare all of the plurality of front images corresponding to different depth ranges at the same time, and more reliable comparison can be performed. Further, the flow of the front image determination process in step S1002 can be simplified into a single step.

なお、本実施例に係る学習済モデルを用いる際には、学習時の入力データの数と同数の入力データを入力する必要がある。そのため、例えば、学習時の入力データの数を比較的多く設定し、学習済モデルの運用時に比較したい正面画像の数が少ない場合には、比較した正面画像に加えて、予め設定されたCNVが存在しない正面画像等のダミーの画像を入力してもよい。また、実施例3と同様に、学習済モデル1710への追加の入力画像として、網膜表層のOCTA正面画像を入力するようにしてもよい。 When using the trained model according to this embodiment, it is necessary to input the same number of input data as the number of input data at the time of training. Therefore, for example, if the number of input data at the time of training is set relatively large and the number of front images to be compared during operation of the trained model is small, a preset CNV is added to the compared front images. A dummy image such as a front image that does not exist may be input. Further, as in the third embodiment, the OCTA front image of the surface layer of the retina may be input as an additional input image to the trained model 1710.

(実施例5)
実施例3では、正面画像決定部343は、学習済モデル1710に、追加の入力画像として、網膜表層のOCTA正面画像を入力した。これに対し、実施例5では、追加の入力画像として、網膜表層のOCTA正面画像の代わりに、入力される正面画像のそれぞれに対応する深度範囲の輝度のEn-Face画像が入力されるように学習済モデルを構成する。
(Example 5)
In Example 3, the frontal image determination unit 343 input an OCTA frontal image of the surface layer of the retina as an additional input image to the trained model 1710. On the other hand, in the fifth embodiment, as an additional input image, an En-Face image having a brightness in the depth range corresponding to each of the input front images is input instead of the OCTA front image of the retinal surface layer. Construct a trained model.

以下、図18を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、実施例3に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例2に係る画像処理装置300との違いを中心に説明する。 Hereinafter, the image processing apparatus according to this embodiment will be described with reference to FIG. Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the third embodiment, the description thereof will be omitted using the same reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the image processing apparatus 300 according to the second embodiment.

図18は本実施例に係る学習済モデルの構成を説明するための図である。本実施例では、図18に示すように、学習済モデル1810を、2枚のOCTA正面画像1801,1802の他に、OCTA正面画像1801,1802のそれぞれに対応する深度範囲の輝度のEn-Face画像1805,1806が入力されるように構成する。 FIG. 18 is a diagram for explaining the configuration of the trained model according to this embodiment. In this embodiment, as shown in FIG. 18, the trained model 1810 is subjected to En-Face of brightness in the depth range corresponding to each of the two OCTA front images 1801, 1802 and the OCTA front images 1801, 1802. Images 1805 and 1806 are configured to be input.

なお、本実施例に係る学習データは、実施例3に係る学習データと同様に、入力データとして、2つのOCTA正面画像と共にこれらに対応する深度範囲の輝度のEn-Face画像を用いる。一方、正解データ(出力データ)は、実施例2に係る正解データと同様のものであってよい。 As the learning data according to the present embodiment, similarly to the learning data according to the third embodiment, as input data, an En-Face image having a brightness in the depth range corresponding to the two OCTA front images is used. On the other hand, the correct answer data (output data) may be the same as the correct answer data according to the second embodiment.

このような学習を行った学習済モデルを用いることで、輝度のEn-Face画像の特徴も考慮した比較を行うことができる。そのため、本実施例によれば、より信頼性の高い比較を行うことができる。 By using the trained model that has been trained in this way, it is possible to make a comparison in consideration of the characteristics of the En-Face image of luminance. Therefore, according to this embodiment, it is possible to make a more reliable comparison.

なお、本実施例では、学習済モデルに入力される追加の画像として、入力されるOCTA正面画像の深度範囲に対応する輝度のEn-Face画像を用いた。しかしながら、学習済モデルに入力される追加の画像はこれに限られず、例えば、眼底カメラ画像、走査レーザー眼球光学画像(SLO画像)、眼道血管造影画像、眼道オート蛍光画像、又はインドシアニン緑血管造影画像などの異なる画像化モダリティから得られた画像を用いてもよい。なお、これらの場合には、学習データの入力データとして、学習済モデルに入力される追加の画像に対応する画像化モダリティを用いて、入力データとなる正面画像を取得した被検眼から得られた画像を用いればよい。 In this embodiment, as an additional image to be input to the trained model, an En-Face image having a brightness corresponding to the depth range of the input OCTA front image was used. However, the additional images input to the trained model are not limited to this, for example, fundus camera images, scanning laser eye optical images (SLO images), ocular angiography images, ocular autofluorescence images, or indocyanine green. Images obtained from different imaging modalities, such as angiography images, may be used. In these cases, as the input data of the training data, the imaging modality corresponding to the additional image input to the trained model was used, and the front image as the input data was obtained from the subject to be inspected. Images may be used.

また、比較される正面画像を輝度のEn-Face画像とする場合には、追加の画像として比較される輝度のEn-Face画像の深度範囲に対応するOCTA正面画像を用いることができる。この場合、学習データの入力データも同様に、比較される正面画像として輝度のEn-Face画像を用い、追加の画像として比較される輝度のEn-Face画像の深度範囲に対応するOCTA正面画像を用いればよい。 When the front image to be compared is an En-Face image of brightness, an OCTA front image corresponding to the depth range of the En-Face image of brightness to be compared can be used as an additional image. In this case, the input data of the training data also uses the brightness En-Face image as the front image to be compared, and the OCTA front image corresponding to the depth range of the brightness En-Face image to be compared as the additional image. You can use it.

上記のように、本実施例に係る正面画像生成部342は、少なくとも2つの正面画像に加えて、該少なくとも2つの正面画像とは異なる画像(追加の画像)を学習済モデルに入力する。ここで、学習済モデルに入力される異なる画像は、学習済モデルに入力される少なくとも2つの正面画像に対応する少なくとも2つの輝度のEn-Face画像又はOCTA正面画像とすることができる。また、学習済モデルに入力される異なる画像は、光干渉断層撮影装置以外のモダリティにより取得された被検眼の画像であってもよい。なお、正面画像決定部343は、当該少なくとも2つの正面画像及び異なる画像のそれぞれを学習済モデルの異なるチャネルに入力することができる。本実施例によれば、追加の画像の特徴も考慮した比較を行うことができ、より信頼性の高い比較を行うことができる。 As described above, the front image generation unit 342 according to the present embodiment inputs, in addition to at least two front images, an image (additional image) different from the at least two front images into the trained model. Here, the different images input to the trained model can be En-Face images or OCTA front images with at least two luminances corresponding to at least two front images input to the trained model. Further, the different images input to the trained model may be images of the eye to be inspected acquired by a modality other than the optical interference tomography apparatus. The front image determination unit 343 can input each of the at least two front images and different images to different channels of the trained model. According to this embodiment, it is possible to make a comparison in consideration of the features of additional images, and it is possible to make a more reliable comparison.

なお、追加の画像は、網膜表層のOCTA正面画像や、学習済モデルに入力される少なくとも2つの正面画像に対応する上記輝度のEn-Face画像又はOCTA正面画像、及び他のモダリティにより取得された被検眼の画像の組み合わせであってもよい。この場合、学習データとしては、学習済モデルに入力される正面画像及び追加の画像に対応する画像を用いればよい。例えば、追加の画像として、網膜表層のOCTA正面画像、及び学習済モデルに入力される少なくとも2つの正面画像に対応する輝度のEn-Face画像が用いられる場合を考える。この場合には、学習データの入力データにも、網膜表層のOCTA正面画像、及び評価を行う正面画像に対応する輝度のEn-Face画像を用いればよい。 The additional image was acquired by the OCTA front image of the surface layer of the retina, the En-Face image or OCTA front image of the above brightness corresponding to at least two front images input to the trained model, and other modality. It may be a combination of images of the eye to be inspected. In this case, as the training data, an image corresponding to the front image and the additional image input to the trained model may be used. For example, consider the case where an OCTA frontal image of the surface layer of the retina and an En-Face image of brightness corresponding to at least two frontal images input to the trained model are used as additional images. In this case, as the input data of the training data, an OCTA front image of the surface layer of the retina and an En-Face image having a brightness corresponding to the front image to be evaluated may be used.

(実施例6)
以下、図19を参照して、実施例6に係る画像処理装置について説明する。本実施例では、正面画像生成部342が生成するOCTA正面画像の複数の深度範囲は、事前に定義された投影構成リストに基づいて決定される。また、本実施例では、学習済モデルに入力されるOCTA正面画像として、OCTA正面画像の解像度を低くしたサムネイル画像を用いる。
(Example 6)
Hereinafter, the image processing apparatus according to the sixth embodiment will be described with reference to FIG. In this embodiment, the plurality of depth ranges of the OCTA front image generated by the front image generation unit 342 are determined based on a predefined projection configuration list. Further, in this embodiment, as the OCTA front image input to the trained model, a thumbnail image with a reduced resolution of the OCTA front image is used.

本実施例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。なお、本実施例に係る一連の処理は、正面画像生成処理のみが実施例2の処理と異なり、他の処理は実施例2に係る一連の処理と同様であるため、実施例2に係る一連の処理との違いを中心に説明する。図19は、本実施例に係る正面画像生成処理のフローチャートを示す。本実施例に係る正面画像生成処理が開始されると、処理はステップS1901に移行する。 Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. In the series of processes according to the present embodiment, only the front image generation process is different from the process of the second embodiment, and the other processes are the same as the series of processes according to the second embodiment. Therefore, the series of processes according to the second embodiment. The difference from the processing of is mainly explained. FIG. 19 shows a flowchart of the front image generation process according to the present embodiment. When the front image generation process according to this embodiment is started, the process proceeds to step S1901.

ステップS1901では、投影範囲制御部341は、生成されたモーションコントラスト画像と、層認識結果と、記憶部305に記憶されている投影構成リストとに基づいて、OCTA正面画像の生成に用いる3次元モーションコントラストデータを特定する。また、投影範囲制御部341は、投影構成リストに基づいて、各OCTA正面画像についての投影方法を特定する。正面画像生成部342は、投影範囲制御部341によって特定された3次元モーションコントラストデータ及び投影方法によって、3次元モーションコントラストデータを2次元平面に投影し、OCTA正面画像の低解像度のサムネイル画像を生成する。 In step S1901, the projection range control unit 341 uses the generated motion contrast image, the layer recognition result, and the projection configuration list stored in the storage unit 305 to generate the OCTA front image. Identify the contrast data. Further, the projection range control unit 341 specifies a projection method for each OCTA front image based on the projection configuration list. The front image generation unit 342 projects the 3D motion contrast data onto the 2D plane by the 3D motion contrast data and the projection method specified by the projection range control unit 341, and generates a low-resolution thumbnail image of the OCTA front image. do.

ここで、投影構成リストには、深度範囲の上端及び下端の定義、並びに投影方法が含まれる。なお、投影構成リストに定義される投影方法は、公知の任意の投影方法であってよく、例えば、平均画像投影(AIP)又は最大画像投影(MIP)であってよい。以下の表2に本実施例の一態様に従った投影構成リストの例を示す。

Figure 2022098699000004
Here, the projection configuration list includes definitions of the upper and lower ends of the depth range, as well as projection methods. The projection method defined in the projection configuration list may be any known projection method, and may be, for example, average image projection (AIP) or maximum image projection (MIP). Table 2 below shows an example of a projection configuration list according to one aspect of this embodiment.
Figure 2022098699000004

本実施例の一態様に係る投影構成リストは、異なる形態のCNVを有する患者の眼の98個のデータに基づいて、以下のように決定された。まず、各検査について専門家によって、深度範囲(上端及び下端)を決定し、投影方法を選択することによって、最適な品質で完全なCNVを表す画像を得るために投影構成を決定した。次に、専門家によって決定された投影構成の分布を分析し、専門家によって決定された98個の投影構成を上記の17個の投影構成にグループ化した。 The projection configuration list according to one aspect of this example was determined as follows, based on 98 data of the eyes of patients with different forms of CNV. First, for each inspection, experts determined the depth range (top and bottom) and selected the projection method to determine the projection configuration to obtain an image representing complete CNV with optimum quality. Next, the distribution of projection configurations determined by the expert was analyzed, and the 98 projection configurations determined by the expert were grouped into the above 17 projection configurations.

なお、投影構成の数と定義は上記の投影構成リストに記載のものに限定されず、最終的な投影構成リストは、分析されたケースの数とバリエーション、及びグループ化の基準と病理の種類によって異なってよい。また、必要に応じて、ユーザが優れた画像品質を提供するいくつかの追加の投影設定を見つけた場合、ユーザが事前定義された投影構成リストに新しい投影構成を追加してもよい。なお、学習済モデルの学習データとして十分に多くの異なる深度範囲や投影方法に関するOCTA正面画像を用いている場合には、投影構成リストに投影構成を追加しても、機械学習モデルの再設計や再トレーニングは必要ない。また、学習済モデルの学習データとして用いたOCTA正面画像に関する深度範囲や投影方法は、投影構成リストに定義されている深度範囲や投影方法と同一でなくてもよい。 Note that the number and definition of projection configurations is not limited to those listed above, and the final projection configuration list depends on the number and variation of cases analyzed, as well as grouping criteria and pathological types. It may be different. Also, if desired, the user may add a new projection configuration to the predefined projection configuration list if the user finds some additional projection settings that provide excellent image quality. If the training data of the trained model uses OCTA frontal images with sufficiently different depth ranges and projection methods, even if the projection configuration is added to the projection configuration list, the machine learning model can be redesigned. No retraining required. Further, the depth range and the projection method regarding the OCTA front image used as the training data of the trained model do not have to be the same as the depth range and the projection method defined in the projection configuration list.

また、OCTA正面画像のサムネイル画像とは、画像サイズが小さい(低解像度の)OCTA正面画像を意味する。例えば、OCTA検査のスキャンサイズが464×464スキャンで構成される場合、フルサイズの正面画像の解像度は464×464となる。これに対し、サムネイル画像の解像度は、例えば、232×232であってよい。サムネイル画像の生成方法としては、正面画像生成部342が、フルサイズのOCTA正面画像を生成し、目標の解像度までOCTA正面画像の解像度を低減する方法で行われてもよいし、他の方法によって行われてもよい。なお、サムネイル画像の解像度は、この値に限定されず、フルサイズの正面画像の解像度より低い値であればよく、例えば、232×232よりも小さな値でもよい。なお、輝度のEn-Face画像を用いる場合には、輝度のEn-Face画像のサムネイル画像が、OCTA正面画像のサムネイル画像と同様に生成され、比較に用いられればよい。 Further, the thumbnail image of the OCTA front image means an OCTA front image having a small image size (low resolution). For example, if the scan size of the OCTA test consists of 464 x 464 scans, the resolution of the full size front image will be 464 x 464. On the other hand, the resolution of the thumbnail image may be, for example, 232 × 232. As a method of generating a thumbnail image, the front image generation unit 342 may generate a full-size OCTA front image and reduce the resolution of the OCTA front image to a target resolution, or another method may be used. It may be done. The resolution of the thumbnail image is not limited to this value, and may be a value lower than the resolution of the full-size front image, and may be smaller than, for example, 232 × 232. When the brightness En-Face image is used, the thumbnail image of the brightness En-Face image may be generated in the same manner as the thumbnail image of the OCTA front image and used for comparison.

次に、ステップS1902では、正面画像決定部343が、学習済モデルを用いて、投影構成リストで定義された投影構成(#1~#17)のOCTA正面画像のサムネイル画像のペアを比較し、最適な深度範囲及び投影方法(投影構成)を選択する。ステップS1902での最適な深度範囲及び投影方法を求める一連の処理は、実施例2に係る正面画像決定処理(S1002)と同様に行われてよい。ただし、ステップS1902では、勝者AWであるサムネイル画像を決定し、決定したサムネイル画像に対応する深度範囲及び投影方法を選択する点が、実施例2に係る正面画像決定処理と異なる。 Next, in step S1902, the front image determination unit 343 compares the pair of thumbnail images of the OCTA front image of the projection configuration (# 1 to # 17) defined in the projection configuration list using the trained model. Select the optimum depth range and projection method (projection configuration). The series of processes for determining the optimum depth range and projection method in step S1902 may be performed in the same manner as the front image determination process (S1002) according to the second embodiment. However, in step S1902, the thumbnail image that is the winner AW is determined, and the depth range and the projection method corresponding to the determined thumbnail image are selected, which is different from the front image determination process according to the second embodiment.

さらに、本実施例では、サムネイル画像を学習済モデルへの入力として用いる点が、実施例2に係る正面画像決定処理(ステップS1002)と異なる。本実施例では、このような処理を行うため、学習データの入力データについてもOCTA正面画像のサムネイル画像を用いる。なお、サムネイル画像の生成方法は上述の方法であってよい。また、ステップS1901において、正面画像生成部342がOCTA正面画像のサムネイル画像を生成する際には、学習データの入力データに用いられたサムネイル画像と同一の解像度を有するサムネイル画像を生成することができる。さらに、正面画像生成部342によるサムネイル画像の生成方法は、入力データに用いられるサムネイル画像の生成方法と同一の方法とすることができる。 Further, in this embodiment, the thumbnail image is used as an input to the trained model, which is different from the front image determination process (step S1002) according to the second embodiment. In this embodiment, in order to perform such processing, the thumbnail image of the OCTA front image is also used as the input data of the training data. The thumbnail image generation method may be the above-mentioned method. Further, in step S1901, when the front image generation unit 342 generates a thumbnail image of the OCTA front image, it is possible to generate a thumbnail image having the same resolution as the thumbnail image used for the input data of the training data. .. Further, the method of generating the thumbnail image by the front image generation unit 342 can be the same as the method of generating the thumbnail image used for the input data.

このような学習データを用いて学習を行った学習済モデルを用いることで、正面画像決定部343は、投影構成リストに基づく各OCTA正面画像のサムネイル画像から、CNVの観察に適切な投影構成を選択することができる。なお、本実施例では、画像の比較にサムネイル画像を用いることから、比較処理に用いるリソース及び処理時間を抑えることができ、効率的に比較処理を行うことができる。 By using the trained model trained using such training data, the front image determination unit 343 can obtain a projection configuration suitable for observation of CNV from the thumbnail image of each OCTA front image based on the projection configuration list. You can choose. In this embodiment, since the thumbnail image is used for comparing the images, the resources and processing time used for the comparison processing can be suppressed, and the comparison processing can be performed efficiently.

次に、ステップS1903では、正面画像生成部342が、ステップS1902で求めた投影構成について、フルサイズのOCTA正面画像を生成する。なお、ステップS1901においてサムネイル画像を生成する際にフルサイズのOCTA正面画像を生成している場合には、正面画像生成部342は、ステップS1902で求めた投影構成に対応するフルサイズのOCTA正面画像を特定すればよい。ステップS1903においてフルサイズのOCTA正面画像が生成されると、処理はステップS704へと移行する。以降の処理は実施例2と同様であるため説明を省略する。 Next, in step S1903, the front image generation unit 342 generates a full-size OCTA front image for the projection configuration obtained in step S1902. When the full-size OCTA front image is generated when the thumbnail image is generated in step S1901, the front image generation unit 342 receives the full-size OCTA front image corresponding to the projection configuration obtained in step S1902. Should be specified. When the full-size OCTA front image is generated in step S1903, the process proceeds to step S704. Since the subsequent processing is the same as that of the second embodiment, the description thereof will be omitted.

本実施例では、正面画像生成部342は、予め定義された異なる深度範囲を含む投影構成リストを用いて、被検眼の3次元のデータから異なる深度範囲に対応する複数の正面画像を生成する。これにより、正面画像生成部342は、学習済モデルの入力データとして用いられる少なくとも2つの正面画像を含む複数の正面画像を取得する。また、正面画像決定部343は、評価値を用いて深度範囲を決定し、決定された深度範囲を用いて生成した画像を出力画像として決定する。本実施例によれば、予め定義された投影構成リストに基づいて、複数の深度範囲及び投影方法のOCTA正面画像を生成するため、撮影時の深度範囲や投影方法の設定に係る操作の煩雑さを低減することができる。 In this embodiment, the front image generation unit 342 generates a plurality of front images corresponding to different depth ranges from the three-dimensional data of the eye to be inspected by using a projection configuration list including different depth ranges defined in advance. As a result, the front image generation unit 342 acquires a plurality of front images including at least two front images used as input data of the trained model. Further, the front image determination unit 343 determines the depth range using the evaluation value, and determines the image generated using the determined depth range as the output image. According to this embodiment, since the OCTA front image of a plurality of depth ranges and projection methods is generated based on a predefined projection configuration list, the operation related to the setting of the depth range and the projection method at the time of shooting is complicated. Can be reduced.

なお、投影構成リストは、上端と下端によって定義された深度範囲及び正面画像の画素値を算出するための投影方法を含む。また、投影構成リストに含まれる深度範囲の上端と下端は、被検眼の構造に基づいて定義されることができる。被検眼の構造は、例えば、眼の層の境界を含む。また、深度範囲の上端と下端は、眼の層の境界からオフセットされた深度を含むことができる。さらに、投影構成リストは、画像処理装置300の記憶部305に検索テーブルとして記憶されることができ、画像処理装置300は、投影構成リストを参照することで、各正面画像に対応する深度範囲や投影方法を検索し、特定することができる。 The projection configuration list includes a projection method for calculating the depth range defined by the upper and lower ends and the pixel value of the front image. In addition, the upper and lower ends of the depth range included in the projection configuration list can be defined based on the structure of the eye to be inspected. The structure of the eye to be inspected includes, for example, the boundaries of the layers of the eye. Also, the top and bottom edges of the depth range can include depth offset from the boundaries of the eye layer. Further, the projection configuration list can be stored as a search table in the storage unit 305 of the image processing device 300, and the image processing device 300 can refer to the projection configuration list to obtain a depth range corresponding to each front image. You can search for and identify the projection method.

さらに、本実施例では学習データは、被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を含む。正面画像生成部342は、被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を生成する。また、正面画像生成部342は、正面画像決定部343によって決定された深度範囲に対応する正面画像として、サムネイル画像よりも解像度が高いフルサイズの正面画像を生成する。 Further, in this embodiment, the learning data includes thumbnail images of a plurality of front images as a plurality of front images corresponding to different depth ranges of the eye to be inspected. The front image generation unit 342 generates thumbnail images of a plurality of front images as a plurality of front images corresponding to different depth ranges of the eye to be inspected. Further, the front image generation unit 342 generates a full-size front image having a higher resolution than the thumbnail image as the front image corresponding to the depth range determined by the front image determination unit 343.

このような構成により、学習済モデルの入力に、フルサイズの画像の代わりに、解像度が低減されたサムネイル画像が使用されるため、比較処理に用いるリソース及び処理時間を抑えることができ、効率的に処理を行うことができる。さらに、適切な学習を行った学習済モデルを用いて画像を評価し、最適な深度範囲を決定するため、サムネイル画像を入力として用いても、信頼性の高い評価を実現することができる。また、投影構成リストに新たな投影構成を登録することができるため、様々な病変の投影にも容易に対応することができる。 With such a configuration, thumbnail images with reduced resolution are used instead of full-size images for input of the trained model, so that resources and processing time used for comparison processing can be reduced, which is efficient. Can be processed. Further, since the image is evaluated using the trained model that has been appropriately trained and the optimum depth range is determined, highly reliable evaluation can be realized even if the thumbnail image is used as an input. In addition, since a new projection configuration can be registered in the projection configuration list, it is possible to easily support the projection of various lesions.

なお、本実施例では、投影構成に深度範囲と投影方法が含まれる構成とした。しかしながら、投影構成に含まれる項目はこれに限られない。例えば、投影方法は任意の方法に固定とし、深度範囲のみが投影構成に含まれてもよい。 In this embodiment, the projection configuration includes the depth range and the projection method. However, the items included in the projection configuration are not limited to this. For example, the projection method may be fixed to any method, and only the depth range may be included in the projection configuration.

また、上記実施例及び変形例で説明したGUI等の表示態様は、上述のものに限られず、所望の構成に応じて任意に変更されてよい。例えば、GUI500等について、OCTA正面画像、断層画像、及び深度範囲を表示すると記載したが、断層画像上に、モーションコントラストデータを表示してもよい。この場合、どの深度にモーションコントラスト値が分布しているのかを合わせて確認することができる。また、画像の表示等に色を用いるなどしてもよい。 Further, the display mode of the GUI and the like described in the above-mentioned Examples and Modifications is not limited to the above-mentioned ones, and may be arbitrarily changed according to a desired configuration. For example, although it is described that the OCTA front image, the tomographic image, and the depth range are displayed for the GUI 500 and the like, the motion contrast data may be displayed on the tomographic image. In this case, it is possible to confirm at which depth the motion contrast value is distributed. Further, colors may be used for displaying an image or the like.

さらに、上記実施例及び変形例に係る抽出対象の評価用の学習済モデルでは、正面画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。また、学習モデルに2枚の正面画像を入力すると、それぞれの正面画像における抽出対象の存在を示す評価値が出力されるため、学習済モデルでは、それぞれの正面画像における抽出対象に対応する輝度値等を比較するような処理が行われていると考えられる。 Further, in the trained model for evaluation of the extraction target according to the above embodiment and the modified example, the magnitude of the brightness value of the front image, the order and inclination of the bright part and the dark part, the position, the distribution, the continuity, etc. are one of the feature quantities. It can be considered that it is extracted as a part and used for the estimation process. Further, when two front images are input to the training model, an evaluation value indicating the existence of the extraction target in each front image is output. Therefore, in the trained model, the brightness value corresponding to the extraction target in each front image is output. It is considered that processing such as comparison is performed.

なお、上記実施例及び変形例では、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD-OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS-OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine-OCT装置(あるいはSS-Line-OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field-OCT装置(あるいはSS-Full Field-OCT装置)にも本発明を適用することもできる。さらに、波面補償光学系を用いた波面補償OCT(AO-OCT)装置、又は偏光位相差や偏光解消に関する情報を可視化するための偏光OCT(PS-OCT)装置にも本発明を適用することができる。 In the above embodiments and modifications, the spectral domain OCT (SD-OCT) device using the SLD as the light source has been described as the OCT device, but the configuration of the OCT device according to the present invention is not limited to this. For example, the present invention can be applied to any other type of OCT device such as a wavelength sweep type OCT (SS-OCT) device using a wavelength sweep light source capable of sweeping the wavelength of emitted light. Further, the present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. The present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light. Further, the present invention may be applied to a wave surface adaptive optics (AO-OCT) device using an adaptive optics system or a polarized OCT (PS-OCT) device for visualizing information on polarization phase difference and polarization elimination. can.

上記実施例及び変形例では、分割手段としてカプラーを使用した光ファイバ光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、光干渉部100及び走査光学系200の構成は、上記の構成に限られず、光干渉部100及び走査光学系200に含まれる構成の一部をこれらとは別体の構成としてもよい。 In the above-described embodiment and modification, an optical fiber optical system using a coupler is used as the dividing means, but a spatial optical system using a collimator and a beam splitter may be used. Further, the configuration of the optical interference unit 100 and the scanning optical system 200 is not limited to the above configuration, and a part of the configuration included in the optical interference unit 100 and the scanning optical system 200 may be a separate configuration from these.

また、上記実施例及び変形例では、画像処理装置300は、光干渉部100で取得された干渉信号や再構成部301で生成された断層データ等を取得した。しかしながら、画像処理装置300がこれらの信号や画像を取得する構成はこれに限られない。例えば、画像処理装置300は、画像処理装置300とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号やデータを取得してもよい。 Further, in the above embodiment and the modified example, the image processing apparatus 300 has acquired the interference signal acquired by the optical interference unit 100, the tomographic data generated by the reconstruction unit 301, and the like. However, the configuration in which the image processing device 300 acquires these signals and images is not limited to this. For example, the image processing device 300 may acquire these signals and data from a server or a photographing device connected to the image processing device 300 via a LAN, WAN, the Internet, or the like.

なお、上記実施例及び変形例に係る学習済モデルは画像処理装置300に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、画像処理装置300と接続される別のサーバの装置等に設けられてもよい。この場合には、画像処理装置300は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。また、学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 The trained model according to the above embodiment and the modified example can be provided in the image processing apparatus 300. The trained model may be configured by, for example, a CPU, a software module executed by a processor such as an MPU, GPU, FPGA, or the like, or may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, these trained models may be provided in a device of another server connected to the image processing device 300 or the like. In this case, the image processing device 300 can use the trained model by connecting to a server or the like having the trained model via an arbitrary network such as the Internet. Here, the server provided with the trained model may be, for example, a cloud server, a fog server, an edge server, or the like. Further, the training data of the trained model is not limited to the data obtained by using the ophthalmology device itself that actually performs the imaging, but also the data obtained by using the same type of ophthalmology device or the same type of ophthalmology according to the desired configuration. It may be data or the like obtained by using the device.

なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、学習部(不図示)の一例である正面画像決定部343による処理には、CPUに加えてGPUを用いてもよい。この場合には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPU又はGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 The GPU can perform efficient operations by processing more data in parallel. Therefore, when learning is performed a plurality of times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, a GPU may be used in addition to the CPU for the processing by the front image determination unit 343, which is an example of the learning unit (not shown). In this case, when the learning program including the learning model is executed, the CPU and the GPU cooperate to perform the learning to perform the learning. In addition, the processing of the learning unit may be performed only by the CPU or the GPU. Further, the processing unit (estimation unit) that executes the processing using the various trained models described above may also use the GPU in the same manner as the learning unit. Further, the learning unit may include an error detection unit and an update unit (not shown). The error detection unit obtains an error between the output data output from the output layer of the neural network and the correct answer data according to the input data input to the input layer. The error detection unit may use the loss function to calculate the error between the output data from the neural network and the correct answer data. Further, the update unit updates the coupling weighting coefficient between the nodes of the neural network based on the error obtained by the error detection unit so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error back propagation method is a method of adjusting the coupling weighting coefficient and the like between the nodes of each neural network so that the above error becomes small.

(その他の実施例)
本発明は、上述の実施例及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、一つ又は複数のプロセッサ若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサ若しくは回路のネットワークを含みうる。
(Other examples)
The present invention is also a process of supplying a program that realizes one or more functions of the above-described examples and modifications to a system or device via a network or a storage medium, and the computer of the system or device reads and executes the program. It is feasible. A computer may have one or more processors or circuits and may include multiple separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

プロセッサ又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサ又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

以上、実施例及び変形例を参照して本発明について説明したが、本発明は上記実施例及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to Examples and Modifications, the present invention is not limited to the above Examples and Modifications. The present invention also includes inventions modified to the extent not contrary to the gist of the present invention, and inventions equivalent to the present invention. In addition, the above-mentioned Examples and Modifications can be appropriately combined as long as they do not contradict the gist of the present invention.

300:画像処理装置、342:正面画像生成部(取得部)、343:正面画像決定部(評価部、決定部) 300: Image processing device, 342: Front image generation unit (acquisition unit), 343: Front image determination unit (evaluation unit, determination unit)

Claims (18)

被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得する取得部と、
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する評価部と、
前記評価値を用いて、前記複数の正面画像のうち少なくとも一つを出力画像として決定する決定部と、
を備える、画像処理装置。
An acquisition unit that acquires multiple front images corresponding to different depth ranges of the three-dimensional data of the eye to be inspected, and an acquisition unit.
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. An evaluation unit that acquires an evaluation value that evaluates the existence of a target area by using at least two front images, and an evaluation unit.
A determination unit that determines at least one of the plurality of front images as an output image using the evaluation value, and a determination unit.
An image processing device.
被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得する取得部と、
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する評価部と、
前記評価値を用いて深度範囲を決定し、前記決定された深度範囲を用いて生成した画像を出力画像として決定する決定部と、
を備える、画像処理装置。
An acquisition unit that acquires multiple front images corresponding to different depth ranges of the three-dimensional data of the eye to be inspected, and an acquisition unit.
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. An evaluation unit that acquires an evaluation value that evaluates the existence of a target area by using at least two front images, and an evaluation unit.
A determination unit that determines the depth range using the evaluation value and determines an image generated using the determined depth range as an output image.
An image processing device.
前記学習データは、被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を含み、
前記取得部は、
被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を生成し、
前記決定された深度範囲に対応する正面画像としてサムネイル画像よりも解像度が高い正面画像を生成する、請求項2に記載の画像処理装置。
The training data includes thumbnail images of a plurality of front images as a plurality of front images corresponding to different depth ranges of the eye to be inspected.
The acquisition unit
Generate thumbnail images of multiple front images as multiple front images corresponding to different depth ranges of the eye to be inspected.
The image processing apparatus according to claim 2, wherein a front image having a higher resolution than a thumbnail image is generated as a front image corresponding to the determined depth range.
前記取得部は、予め定義された異なる深度範囲を含むリストを用いて、被検眼の3次元のデータから異なる深度範囲に対応する複数の正面画像を生成することにより、前記入力データとして用いられる少なくとも2つの正面画像を含む複数の正面画像を取得する、請求項1乃至3のいずれか一項に記載の画像処理装置。 The acquisition unit is at least used as the input data by generating a plurality of front images corresponding to different depth ranges from the three-dimensional data of the eye to be inspected using a list including different predefined depth ranges. The image processing apparatus according to any one of claims 1 to 3, wherein a plurality of front images including two front images are acquired. 前記リストは、上端と下端によって定義された深度範囲及び正面画像の画素値を算出するための投影方法を含み、
前記深度範囲の上端と下端は、被検眼の構造に基づいて定義される、請求項4に記載の画像処理装置。
The list includes projection methods for calculating the depth range and frontal image pixel values defined by the top and bottom edges.
The image processing apparatus according to claim 4, wherein the upper end and the lower end of the depth range are defined based on the structure of the eye to be inspected.
前記被検眼の構造は眼の層の境界を含み、
前記深度範囲の上端と下端は、前記境界からオフセットされた深度を含む、請求項5に記載の画像処理装置。
The structure of the eye to be inspected includes the boundaries of the layers of the eye, including the boundaries of the layers of the eye.
The image processing apparatus according to claim 5, wherein the upper end and the lower end of the depth range include a depth offset from the boundary.
前記リストは、前記画像処理装置に検索テーブルとして記憶される、請求項4乃至6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 4 to 6, wherein the list is stored in the image processing apparatus as a search table. 前記評価部は、前記少なくとも2つの正面画像に加えて、該少なくとも2つの正面画像とは異なる画像を前記学習済モデルに入力し、
前記異なる画像は、被検眼の網膜表層に対応する正面画像、前記少なくとも2つの正面画像に対応する少なくとも2つの輝度のEn-Face画像又はOCTA正面画像、及び光干渉断層撮影装置以外のモダリティにより取得された被検眼の画像のうちの少なくとも1つである、請求項1乃至7のいずれか一項に記載の画像処理装置。
In addition to the at least two front images, the evaluation unit inputs an image different from the at least two front images into the trained model.
The different images are acquired by a front image corresponding to the surface layer of the retina of the eye to be inspected, an En-Face image or OCTA front image having at least two brightnesses corresponding to the at least two front images, and a modality other than the optical interference tomography device. The image processing apparatus according to any one of claims 1 to 7, which is at least one of the images of the subject to be inspected.
前記評価部は、前記少なくとも2つの正面画像及び前記異なる画像のそれぞれを前記学習済モデルの異なるチャネルに入力する、請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the evaluation unit inputs each of the at least two front images and the different images to different channels of the trained model. 前記学習データは、被検眼の異なる深度範囲に対応する複数の正面画像と、各正面画像に対応する評価値とを含む、請求項1乃至9のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the learning data includes a plurality of front images corresponding to different depth ranges of the eye to be inspected and evaluation values corresponding to each front image. 前記評価部は、前記対象領域が存在しないことを示す評価値を算出した際に前記学習済モデルに入力した少なくとも2つの正面画像を、他の正面画像に関する評価値の算出に用いない、請求項1乃至10のいずれか一項に記載の画像処理装置。 The evaluation unit does not use at least two front images input to the trained model when calculating the evaluation value indicating that the target area does not exist in the calculation of the evaluation value for the other front image. The image processing apparatus according to any one of 1 to 10. 前記評価部は、前記生成された複数の正面画像の全てを前記学習済モデルに入力する、請求項1乃至10のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the evaluation unit inputs all of the generated plurality of front images into the trained model. 前記対象領域は新生血管の領域であり、
前記3次元のデータは3次元のモーションコントラストデータである、請求項1乃至12のいずれか一項に記載の画像処理装置。
The target area is the area of new blood vessels.
The image processing apparatus according to any one of claims 1 to 12, wherein the three-dimensional data is three-dimensional motion contrast data.
前記対象領域は篩状板の領域であり、
前記3次元のデータは乳頭部の3次元の断層データである、請求項1乃至12のいずれか一項に記載の画像処理装置。
The target area is the area of the sieve plate, and is the area of the sieve plate.
The image processing apparatus according to any one of claims 1 to 12, wherein the three-dimensional data is three-dimensional tomographic data of the papilla.
前記対象領域は毛細血管瘤の領域であり、
前記3次元のデータは黄斑部の3次元のモーションコントラストデータである、請求項1乃至12のいずれか一項に記載の画像処理装置。
The target area is the area of the capillary aneurysm and
The image processing apparatus according to any one of claims 1 to 12, wherein the three-dimensional data is three-dimensional motion contrast data of the yellow spot portion.
被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得すること、
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得すること、
前記評価値を用いて、前記複数の正面画像のうち少なくとも一つを出力画像として決定すること、
を含む、画像処理方法。
Acquiring multiple frontal images corresponding to different depth ranges of 3D data of the eye to be inspected,
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. Obtaining an evaluation value that evaluates the existence of the target area by using at least two front images,
Using the evaluation value, at least one of the plurality of front images is determined as an output image.
Image processing methods, including.
被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得することと、
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得することと、
前記評価値を用いて深度範囲を決定し、前記決定された深度範囲を用いて生成した画像を出力画像として決定することと、
を含む、画像処理方法。
Acquiring multiple frontal images corresponding to different depth ranges of the 3D data of the eye to be inspected,
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. By using at least two front images, it is possible to obtain an evaluation value that evaluates the existence of the target area.
The depth range is determined using the evaluation value, and the image generated using the determined depth range is determined as the output image.
Image processing methods, including.
コンピュータによって実行されると、該コンピュータに請求項16又は17に記載の画像処理方法の各工程を実行させる、プログラム。 A program that, when executed by a computer, causes the computer to perform each step of the image processing method according to claim 16 or 17.
JP2020212249A 2020-12-22 2020-12-22 Image processing device, image processing method, and program Pending JP2022098699A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020212249A JP2022098699A (en) 2020-12-22 2020-12-22 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212249A JP2022098699A (en) 2020-12-22 2020-12-22 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022098699A true JP2022098699A (en) 2022-07-04

Family

ID=82261897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212249A Pending JP2022098699A (en) 2020-12-22 2020-12-22 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022098699A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023099280A (en) * 2021-12-16 2023-07-12 株式会社大都技研 Game machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023099280A (en) * 2021-12-16 2023-07-12 株式会社大都技研 Game machine

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
US20210158525A1 (en) Medical image processing apparatus, medical image processing method, computer-readable medium, and learned model
US20210304363A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US20210183019A1 (en) Image processing apparatus, image processing method and computer-readable medium
US20210224957A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
US9918625B2 (en) Image processing apparatus and control method of image processing apparatus
JP2023009530A (en) Image processing method, image processing device, and program
WO2020137678A1 (en) Image processing device, image processing method, and program
CN114760906A (en) Medical image processing apparatus, optical coherence tomography apparatus, medical image processing method, and program
WO2020050308A1 (en) Image processing device, image processing method and program
JP2019177032A (en) Ophthalmologic image processing device and ophthalmologic image processing program
CN113543695A (en) Image processing apparatus, image processing method, and program
WO2021100694A1 (en) Image processing device, image processing method, and program
JP2022098699A (en) Image processing device, image processing method, and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP7111874B2 (en) ophthalmic imaging equipment
JP2020058615A (en) Image processing device, learned model, image processing method, and program
JP2020032072A (en) Image processing device, image processing method and program
JP7237786B2 (en) Image processing device, image processing method
JP7488934B2 (en) IMAGE PROCESSING APPARATUS, OPERATION METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
WO2023199847A1 (en) Image processing method, image processing device, and program
JP7086708B2 (en) Image processing equipment, image processing methods and programs
JP2021058285A (en) Image processing device, image processing method and program
JP2024001913A (en) Image processing method, image processing apparatus, program and recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630