JP2022098699A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2022098699A JP2022098699A JP2020212249A JP2020212249A JP2022098699A JP 2022098699 A JP2022098699 A JP 2022098699A JP 2020212249 A JP2020212249 A JP 2020212249A JP 2020212249 A JP2020212249 A JP 2020212249A JP 2022098699 A JP2022098699 A JP 2022098699A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- images
- eye
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
光干渉断層血管撮影法(OCTA:Optical Coherence Tomography Angiography)により、網膜の血管の形態を観察できることが知られている。特許文献1には、一般的なOCT(Optical Coherence Tomography)及びOCTAの撮影装置とその光学系、モーションコントラストデータの生成方法、並びにモーションコントラストデータを所定の深度範囲で2次元平面に投影する技術に関して記載されている。 It is known that the morphology of blood vessels in the retina can be observed by optical coherence tomography (OCTA: Optical Coherence Tomography). Patent Document 1 relates to a general OCT (Optical Coherence Tomography) and an OCTA imaging device and its optical system, a method for generating motion contrast data, and a technique for projecting motion contrast data on a two-dimensional plane in a predetermined depth range. Have been described.
網膜や硝子体、脈絡膜を含む眼の構造的な特徴(血管を含む)を抽出するために、3次元のOCT画像又は3次元のOCTA正面画像(モーションコントラスト画像)を所定の深度範囲内で投影し、2次元の正面画像を生成することがある。この際には、対象とする構造物を抽出しやすい深度範囲について網膜層の特定の層を基準として定義し、その深度範囲で画像を投影することが一般的である。また、投影方法は複数適用でき、体積血管造影データでは、データが平均化される平均画像投影(AIP)と、特定の深度範囲のデータからの最大値が抽出される最大画像投影(MIP)の2つの投影方法が通常用いられる。これに対し、ボリュームデータの種類に応じて他の投影方法を用いることもできる。例えば、深度範囲のデータの合計値、最小値、又は中央値などを求めることによって投影を行ってもよい。 A 3D OCT image or a 3D OCTA frontal image (motion contrast image) is projected within a predetermined depth range to extract structural features (including blood vessels) of the eye including the retina, vitreous body, and choroid. However, it may generate a two-dimensional front image. In this case, it is common to define a depth range in which the target structure can be easily extracted with a specific layer of the retinal layer as a reference, and project an image in that depth range. In addition, multiple projection methods can be applied, and for volume angiography data, there are two types of projection: average image projection (AIP), in which the data is averaged, and maximum image projection (MIP), in which the maximum value is extracted from the data in a specific depth range. Two projection methods are commonly used. On the other hand, other projection methods can be used depending on the type of volume data. For example, projection may be performed by obtaining the total value, the minimum value, the median value, or the like of the data in the depth range.
しかしながら、個人差や構造物の形態、その状態(病変の進行度合い)等によって、確認されるべき構造物の特徴が、正面画像上で確認できなかったり、鮮明に見えなかったりすることがあった。そこで、本発明の一実施態様では、対象となる構造物を確認することが容易な正面画像を取得することができる画像処理装置、画像処理方法、及びプログラムを提供する。 However, depending on individual differences, the morphology of the structure, its condition (degree of lesion progression), etc., the characteristics of the structure to be confirmed may not be confirmed on the front image or may not be clearly seen. .. Therefore, in one embodiment of the present invention, there is provided an image processing device, an image processing method, and a program capable of acquiring a front image in which it is easy to confirm the target structure.
本発明の一実施態様に係る画像処理装置は、被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得する取得部と、被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する評価部と、前記評価値を用いて、前記複数の正面画像のうち少なくとも一つを出力画像として決定する決定部とを備える、画像処理装置。 The image processing apparatus according to one embodiment of the present invention includes an acquisition unit that acquires a plurality of front images corresponding to different depth ranges of three-dimensional data of the eye to be inspected, and a plurality of front faces corresponding to different depth ranges of the eye to be inspected. By using at least two front images out of the plurality of acquired front images as input data input to different channels of the trained model obtained by training using the training data including images, the target area An image processing apparatus comprising an evaluation unit for acquiring an evaluation value for evaluating the existence of an image, and a determination unit for determining at least one of the plurality of front images as an output image using the evaluation value.
本発明の一実施態様によれば、対象となる構造物を確認することが容易な正面画像を取得することができる。 According to one embodiment of the present invention, it is possible to obtain a front image in which it is easy to confirm the target structure.
以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, exemplary examples for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.
なお、以下において、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。また、決定木を用いたアルゴリズムとして、LightGBMやXGBoostのように勾配ブースティングを用いた手法も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施例及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データ(正解データ)のペアで構成される。 In the following, the machine learning model refers to a learning model based on a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, the decision tree, and the support vector machine. In addition, deep learning (deep learning) in which features for learning and coupling weighting coefficients are generated by themselves using a neural network can also be mentioned. Further, as an algorithm using a decision tree, a method using gradient boosting such as LightGBM and XGBoost can be mentioned. As appropriate, any of the above algorithms that can be used can be applied to the following examples and modifications. The teacher data refers to learning data, and is composed of a pair of input data and output data (correct answer data).
なお、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。 The trained model is a model in which training (learning) is performed in advance using appropriate teacher data (learning data) for a machine learning model that follows an arbitrary machine learning algorithm such as deep learning. .. However, although the trained model is obtained by using appropriate training data in advance, it is not that no further training is performed, and additional training can be performed. Additional learning can be done even after the device has been installed at the site of use.
なお、実施例1乃至6では、滲出性加齢黄斑変性症(AMD:Age-related Macular Degeneration)由来の新生血管(CNV:Choroidal Neovascularization)を確認するための正面画像を生成する場合の例に関して説明する。一方で、例えば、視神経乳頭部の篩状板や、脈絡膜の層(Sattler層、Haller層)又は網膜血管の毛細血管瘤を確認するための正面画像を生成する場合にも本発明を適用可能である。 In Examples 1 to 6, an example of generating a frontal image for confirming a neovascularization (CNV) derived from exudative age-related macular degeneration (AMD) will be described. do. On the other hand, the present invention can also be applied to generate a frontal image for confirming, for example, a lamina cribrosa of the optic nerve head, a layer of choroid (Sattler layer, Haller layer), or a capillary aneurysm of a retinal blood vessel. be.
(実施例1)
本発明の実施例1では、抽出対象(対象領域)に応じた複数の深度範囲や投影方法に関する正面画像を操作者に提供することで、対象となる構造物を確認することが容易な正面画像を表示する。以下、図1乃至8を参照して、本発明の実施例1に係る眼科装置、特に眼科医院等で使用される光干渉断層撮影装置(OCT装置)の画像処理装置及び画像処理方法について説明する。以下、本実施例に係るOCTAを用いた新生血管(CNV)の表示方法に関して説明する。
(Example 1)
In Example 1 of the present invention, by providing the operator with frontal images relating to a plurality of depth ranges and projection methods according to the extraction target (target area), it is easy to confirm the target structure. Is displayed. Hereinafter, with reference to FIGS. 1 to 8, the image processing device and the image processing method of the ophthalmic device according to the first embodiment of the present invention, particularly the optical coherence tomography device (OCT device) used in an ophthalmic clinic or the like will be described. .. Hereinafter, a method for displaying a new blood vessel (CNV) using OCTA according to this embodiment will be described.
(OCT光学系)
図1は本実施例に係るOCT装置の概略的な構成例を示す。本実施例に係るOCT装置には、光干渉部100、走査光学系200、画像処理装置300、表示部310、ポインティングデバイス320、及びキーボード321が設けられている。光干渉部100には、近赤外光を発光する低コヒーレンス光源101、光分岐部103、コリメート光学系111、分散補償光学系112、及び参照ミラー113が設けられている。さらに、光干渉部100には、コリメート光学系122、回折格子123、結像レンズ124、及びラインセンサ125が設けられている。低コヒーレンス光源101から発光した光は、光ファイバ102aを伝搬し、光分岐部103で測定光と参照光に分割される。光分岐部103により分割された測定光は、光ファイバ102bに入射され、走査光学系200に導かれる。一方、光分岐部103により分岐された参照光は、光ファイバ102cに入射され、参照ミラー113へ導かれる。なお、光分岐部103は、例えば、光ファイバカプラ等を用いて構成されてよい。
(OCT optical system)
FIG. 1 shows a schematic configuration example of the OCT apparatus according to this embodiment. The OCT device according to this embodiment is provided with an
光ファイバ102cに入射した参照光はファイバ端から射出され、コリメート光学系111を介して、分散補償光学系112に入射し、参照ミラー113へと導かれる。参照ミラー113で反射した参照光は、光路を逆にたどり再び光ファイバ102cに入射する。分散補償光学系112は、走査光学系200及び被測定物体である被検眼Eにおける光学系の分散を補正するものである。参照ミラー113は、不図示のモータ等を含む駆動部によって光軸方向に駆動可能なように構成されており、参照光の光路長を、測定光の光路長に対して相対的に変化させることができる。一方、光ファイバ102bに入射した測定光はファイバ端より射出され、走査光学系200に入射される。これらの低コヒーレンス光源101、及び不図示の駆動部は画像処理装置300の制御下で制御される。
The reference light incident on the
次に走査光学系200について説明する。走査光学系200は被検眼Eに対して相対的に移動可能なように構成された光学系である。走査光学系200、コリメート光学系202、走査部203、及びレンズ204が設けられている。走査光学系200は、画像処理装置300によって制御される不図示の駆動部により、被検眼Eの眼軸に対して前後上下左右方向に駆動可能なように構成される。画像処理装置300は、不図示の駆動部を制御することで、被検眼Eに対して走査光学系200をアライメントすることができる。
Next, the scanning
光ファイバ102bのファイバ端より射出した測定光は、コリメート光学系202により略平行化され、走査部203へ入射する。走査部203は、ミラー面を回転可能なガルバノミラーを2つ有し、一方は水平方向に光を偏向し、他方は垂直方向に光を偏向し、画像処理装置300の制御下で入射した光を偏向する。これにより、走査部203は、紙面内の主走査方向と紙面垂直方向の副走査方向の2方向に、被検眼Eの眼底Er上で測定光を走査することができる。なお、主走査方向及び副走査方向はこれに限られず、被検眼Eの深度方向と直交し、互いに交差する方向であればよい。また、走査部203は、任意の変更手段を用いて構成されてよく、例えば、1枚で2軸方向に光を偏向することができるMEMSミラー等を用いて構成されてもよい。
The measurement light emitted from the fiber end of the
走査部203により走査された測定光は、レンズ204を経由して被検眼Eの眼底Er上に、照明スポットを形成する。走査部203により面内偏向をうけると各照明スポットは被検眼Eの眼底Er上を移動(走査)する。この照明スポット位置における反射光が光路を逆にたどり光ファイバ102bに入射して、光分岐部103まで戻る。
The measurement light scanned by the
以上のように、参照ミラー113で反射された参照光及び被検眼Eの眼底Erで反射された測定光は、戻り光として光分岐部103に戻され、干渉して干渉光を発生させる。干渉光は光ファイバ102dを通過し、コリメート光学系122に射出された干渉光は、略平行化され、回折格子123に入射する。回折格子123には周期構造があり、入力した干渉光を分光する。分光された干渉光は、合焦状態を変更可能な結像レンズ124によりラインセンサ125に結像される。ラインセンサ125は、画像処理装置300に接続されており、各センサ部に照射される光の強度に応じた信号を画像処理装置300に出力する。
As described above, the reference light reflected by the
また、OCT装置には、被検眼Eの眼底正面画像を撮影するための不図示の眼底カメラや走査型検眼鏡(SLO:Scanning Laser Ophthalmoscope)の光学系等が設けられることができる。この場合、SLO光学系の一部は、走査光学系200の一部と共通の光路を有してもよい。
Further, the OCT apparatus may be provided with a fundus camera (not shown) for capturing a frontal image of the fundus of the eye to be inspected E, an optical system of a scanning laser Ophthalmoscopy (SLO), and the like. In this case, a part of the SLO optical system may have an optical path common to a part of the scanning
(画像処理装置)
図2は、画像処理装置300の概略的な機能構成例を示す。図2に示すように、画像処理装置300には、再構成部301、モーションコントラスト画像生成部302、層認識部303、画像生成部304、記憶部305、及び表示制御部306が設けられている。本実施例に係る画像処理装置300は、スペクトラルドメイン(SD)方式を用いた光干渉部100に接続されており、光干渉部100のラインセンサ125の出力データを取得することができる。なお、画像処理装置300は、不図示の外部装置に接続され、外部装置から被検眼の干渉信号や断層画像等を取得してもよい。
(Image processing device)
FIG. 2 shows a schematic functional configuration example of the
再構成部301は、取得したラインセンサ125の出力データ(干渉信号)を波数変換し、フーリエ変換することで被検眼Eの断層データを生成する。ここで、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号にフーリエ変換を施した信号、及び該信号に任意の処理を施した信号等を含むものをいう。また、再構成部301は、断層データとして、干渉信号に基づいて断層画像を生成することもできる。なお、再構成部301は画像処理装置300が外部装置から取得した被検眼の干渉信号に基づいて断層データを生成してもよい。なお、本実施例に係るOCT装置は、SD方式の光干渉部100を備えているが、タイムドメイン(TD)方式や波長掃引(SS)方式の光干渉部を備えてもよい。
The
モーションコントラスト画像生成部302は、複数の断層データからモーションコントラストデータを生成する。モーションコントラストデータの生成方法については後述する。なお、モーションコントラスト画像生成部302は、複数の3次元の断層データから3次元のモーションコントラストデータを生成することができる。なお、以下において、3次元の断層データや3次元のモーションコントラストデータを総称して、3次元ボリュームデータという。
The motion contrast
層認識部303は、生成された被検眼Eの断層データを解析し、網膜層における任意の層構造を特定するためのセグメンテーションを実施する。セグメンテーションされた結果は、後述するようにOCTA正面画像を生成する際の投影範囲の基準となる。例えば、層認識部303が検出する層境界線形状は、ILM、NFL/GCL、GCL/IPL、IPL/INL、INL/OPL、OPL/ONL、IS/OS、OS/RPE、RPE/Choroid、及びBMの10種類である。なお、層認識部303が検出する対象物はこれに限られず、被検眼Eに含まれる任意の構造であってよい。なお、セグメンテーションの方法は、公知の任意の方法を用いてよい。
The
画像生成部304は、生成された断層データやモーションコントラストデータから表示用の画像を生成する。画像生成部304は、例えば、3次元の断層データを2次元平面に投影又は積算した輝度のEn-Face画像や3次元のモーションコントラストデータを2次元平面に投影したOCTA正面画像(OCTA En-Face画像)を生成することができる。また、画像生成部304は、記憶部305から取得した深度範囲に従ってOCTA正面画像や輝度のEn-Face画像を生成することができる。なお、OCTA正面画像等の生成方法については後述する。さらに、画像生成部304は、不図示の眼底カメラやSLO光学系から取得した信号に基づいて眼底正面画像を生成することもできる。
The
表示制御部306は、生成された表示用の画像を表示部310へ出力する。記憶部305は、再構成部301により生成された断層データやモーションコントラストデータ、画像生成部304で生成された表示用の画像、複数の深度範囲の定義、デフォルトで適用される定義等を記憶することができる。また、記憶部305は、各部を実現するためにソフトウェア等を含んでもよい。
The
また、画像処理装置300には、表示部310、ポインティングデバイス320及びキーボード321が接続されている。表示部310は、任意のモニタを用いて構成することができる。
Further, a
ポインティングデバイス320は、回転式ホイールとボタンを備えたマウスであり、表示部310上の任意の位置を指定することができる。なお、本実施例ではポインティングデバイスとしてマウスを使用しているが、ジョイスティック、タッチパッド、トラックボール、タッチパネル、又はスタイラスペン等の任意のポインティングデバイスを用いてもよい。
The
このように、本実施例に係るOCT装置は、光干渉部100、走査光学系200、及び画像処理装置300、表示部310、ポインティングデバイス320、及びキーボード321を用いて構成される。なお、本実施例では、光干渉部100、走査光学系200、画像処理装置300、表示部310、ポインティングデバイス320、及びキーボード321は、それぞれ別個の構成としているが、これらのうちの全て又は一部を一体的に構成してもよい。例えば、表示部310及びポインティングデバイス320を、タッチパネルディスプレイとして一体的に構成してもよい。同様に、不図示の眼底カメラやSLO光学系も別個の装置として構成されてもよい。
As described above, the OCT device according to the present embodiment is configured by using the
画像処理装置300は、例えば汎用のコンピュータを用いて構成されてよい。なお、画像処理装置300は、OCT装置の専用のコンピュータを用いて構成されてもよい。画像処理装置300は、不図示のプロセッサ、及び光学ディスクやROM(Read Only Memory)等のメモリを含む記憶媒体を備えている。プロセッサは、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等であってよい。なお、プロセッサは、CPUやMPUに限定されるものではなく、GPU(Graphics Processing Unit)やFPGA(Field-Programmable Gate Array)等であってもよい。画像処理装置300の記憶部305以外の各構成要素は、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。記憶部305は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。
The
なお、画像処理装置300が備えるCPU等のプロセッサ及びROM等の記憶媒体は一つであってもよいし複数であってもよい。そのため、画像処理装置300の各構成要素は、少なくとも一以上のプロセッサと少なくとも一つの記憶媒体とが接続され、少なくとも一以上のプロセッサが少なくとも一以上の記憶媒体に記憶されたプログラムを実行した場合に機能するように構成されてもよい。また、画像処理装置300の各構成要素は、各々が別個の装置により実現されてもよい。
The
(断層像撮影の制御方法)
次に、本実施例に係るOCT装置を用いて、被検眼Eの断層画像を撮影するための制御方法について述べる。
(Control method for tomographic imaging)
Next, a control method for taking a tomographic image of the eye E to be inspected will be described using the OCT apparatus according to the present embodiment.
まず、検者は走査光学系200の前に被検者である患者を着座させ、アライメントや患者情報等を入力した後にOCT撮影を開始する。低コヒーレンス光源101から射出した光は、光ファイバ102aを通過し光分岐部103にて被検眼Eに向かう測定光と参照ミラー113に向かう参照光に分けられる。
First, the examiner seats the patient who is the subject in front of the scanning
被検眼Eに向かう測定光は、光ファイバ102bを通過しファイバ端から射出され、コリメート光学系202により略平行化され、走査部203へ入射する。走査部203はガルバノミラーを有し、該ミラーにより偏向された測定光はレンズ204を経由して被検眼Eを照射される。そして被検眼Eで反射した反射光は経路を逆にたどって光分岐部103へと戻される。
The measurement light directed to the eye E to be inspected passes through the
一方、参照ミラー113に向かう参照光は、光ファイバ102cを通過しファイバ端から射出され、コリメート光学系111及び分散補償光学系112を通して参照ミラー113に到達する。参照ミラー113で反射された参照光は、経路を逆にたどって光分岐部103へと戻される。
On the other hand, the reference light directed to the
光分岐部103に戻ってきた測定光と参照光は相互に干渉し、干渉光となって光ファイバ102dへと入射し、コリメート光学系122により略平行化され回折格子123に入射する。回折格子123に入力された干渉光は、結像レンズ124によってラインセンサ125に結像する。これにより、ラインセンサ125を用いて、被検眼E上の一点における干渉信号を得ることができる。
The measurement light and the reference light that have returned to the optical branching
ラインセンサ125で取得された干渉信号は、画像処理装置300に出力される。ラインセンサ125から出力される干渉信号は、12ビットの整数形式のデータである。再構成部301は、この12ビットの整数形式のデータに対して波数変換、高速フーリエ変換(FFT)、絶対値変換(振幅の取得)を行い、被検眼E上の一点における深さ方向の断層データを生成する。なお、干渉信号のデータ形式等は、所望の構成に応じて任意に設定されてよい。
The interference signal acquired by the
被検眼E上の一点における干渉信号を取得した後、走査部203はガルバノミラーを駆動し、被検眼E上の隣接する一点に測定光を走査する。ラインセンサ125は当該測定光に基づく干渉光を検出し、干渉信号を取得する。再構成部301は、当該隣接する一点の干渉信号に基づいて、被検眼E上の当該隣接する一点における深度方向の断層データを生成する。この一連の制御を繰り返すことにより、被検眼Eの一つの横断方向(主走査方向)における一枚の断層画像に関する断層データ(2次元断層データ)を生成することができる。
After acquiring the interference signal at one point on the eye E to be inspected, the
さらに、走査部203はガルバノミラーを駆動し、被検眼Eの同一箇所(同一の走査ライン)を複数回走査して被検眼Eの同一箇所における複数の断層データ(2次元断層データ)を取得する。また、走査部203は、ガルバノミラーを駆動して測定光を主走査方向に直交する副走査方向に微小に移動させ、被検眼Eの別の個所(隣接する走査ライン)における複数の断層データ(2次元断層データ)を取得する。この制御を繰り返すことにより、被検眼Eの所定範囲における複数の3次元の断層画像に関する断層データ(3次元断層データ)を取得することができる。
Further, the
なお、上記ではラインセンサ125から得られた一組の干渉信号をFFT処理することで被検眼Eの一点における一つの断層データを取得している。しかしながら、干渉信号を複数の組に分割し、分割されたそれぞれの干渉信号に対してFFT処理を行って、一つの干渉信号から複数の断層データを取得するように構成することもできる。この方法によれば実際に被検眼Eの同一箇所を走査した回数よりも多くの断層データを取得することができる。
In the above, one tomographic data at one point of the eye E to be inspected is acquired by performing FFT processing on a set of interference signals obtained from the
(モーションコントラストデータ生成)
次に、画像処理装置300において、断層データからモーションコントラストデータを生成する方法について説明する。
(Motion contrast data generation)
Next, a method of generating motion contrast data from tomographic data in the
再構成部301で生成された複素数形式の断層データは、モーションコントラスト画像生成部302へ出力される。まず、モーションコントラスト画像生成部302は、被検眼Eの同一箇所における複数の断層データ(2次元断層データ)の位置ずれを補正する。なお、位置ずれの補正方法は公知の任意の手法を用いてよく、例えば、基準となる断層データをテンプレートとして選択し、テンプレートとのずれ量を各断層データに関する位置ずれ量として取得してもよい。
The complex number format tomographic data generated by the
モーションコントラスト画像生成部302は、位置ずれが補正された二つの2次元断層データ間で以下の式(1)により脱相関値を求める。
モーションコントラスト画像生成部302は、取得した断層データの枚数分だけ上記の脱相関演算を繰り返すことによって複数の脱相関値を求め、該複数の脱相関値の平均値を求めることで最終的なモーションコントラストデータを取得する。ここではFFT後の複素数データの振幅に基づいてモーションコントラストデータを求めたが、モーションコントラストデータの求め方は上記方法に限られるものではない。複素数データの位相情報に基づいてモーションコントラストデータを求めてもよいし、振幅と位相の両方の情報に基づいてモーションコントラストデータを求めてもよい。また、複素数データの実部や虚部に基づいてモーションコントラストデータを求めることもできる。また、モーションコントラスト画像生成部302は、2次元の断層画像の各画素値について同様の処理を行い、モーションコントラストデータを求めてもよい。
The motion contrast
また、上記の方法では二つの値の脱相関値を演算することによってモーションコントラストデータを取得したが、二つの値の差分に基づいてモーションコントラストデータを求めてもよいし、二つの値の比に基づいてモーションコントラストデータを求めてもよい。また、断層データの分散値に基づいてモーションコントラストデータを求めてもよい。さらに、上記では取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラストデータを得ているが、複数の脱相関値や差分、比の最大値や中央値等を最終的なモーションコントラストデータとしてもよい。なお、モーションコントラストデータを取得する際に用いる二つの断層データは、所定の時間間隔で取得されたデータであってよい。 Further, in the above method, the motion contrast data is acquired by calculating the decorrelation value of the two values, but the motion contrast data may be obtained based on the difference between the two values, or the ratio of the two values may be obtained. Motion contrast data may be obtained based on the above. Further, the motion contrast data may be obtained based on the dispersion value of the tomographic data. Further, in the above, the final motion contrast data is obtained by obtaining the average value of the acquired multiple decorrelation values, but the final values such as the multiple decorrelation values and differences, the maximum value and the median of the ratio are finally obtained. It may be used as motion contrast data. The two tomographic data used when acquiring the motion contrast data may be the data acquired at a predetermined time interval.
(OCTA正面画像の生成)
次に、画像処理装置300において、OCTA正面画像を生成するための深度範囲を定義する手順について説明する。
(Generation of OCTA front image)
Next, in the
OCTA正面画像は、3次元のモーションコントラスト画像(3次元モーションコントラストデータ)を任意の深度範囲で2次元平面に投影又は積算した正面画像である。深度範囲は任意に設定できるが、一般的には、網膜から脈絡膜側に向かって、網膜浅層(Superficial Capillary)、網膜深層(Deep Capillary)、網膜外層(Outer Retina)、放射状乳頭周囲毛細血管(RPC:Radial Peripapillary Capillaries)、脈絡膜毛細血管板(Choriocapillaris)、及び強膜篩状板(Lamina Cribrosa)などの深度範囲が定義される。 The OCTA front image is a front image obtained by projecting or integrating a three-dimensional motion contrast image (three-dimensional motion contrast data) onto a two-dimensional plane in an arbitrary depth range. The depth range can be set arbitrarily, but generally, from the retina to the choroid side, the superficial retinal layer (Superficial Capillary), the deep retinal layer (Deep Capillary), the outer layer of the retina (Outer Retina), and the radial peri-papillary capillaries ( RPCs: Radial Peri-Pillary Capillaries), Choroidal Capillaries, and Lamina Cribrosa are defined depth ranges.
それぞれの定義は、網膜の層境界に対して定義されており、例えば網膜浅層(Superficial Capillary)は、ILM+0μm~GCL/IPL+50μmとして定義される。ここで、GCL/IPLとはGCL層とIPL層の境界を意味する。また、以下において、+50μmや-100μm等のオフセット量は、正の値は脈絡膜側へシフトすることを意味し、負の値は瞳側へシフトすることを意味する。 Each definition is defined for the layer boundaries of the retina, for example the Superficial Capillary is defined as ILM + 0 μm to GCL / IPL + 50 μm. Here, GCL / IPL means the boundary between the GCL layer and the IPL layer. Further, in the following, an offset amount such as +50 μm or -100 μm means that a positive value shifts to the choroid side and a negative value shifts to the pupil side.
滲出性加齢黄斑変性症の新生血管を確認する際には、深度範囲として網膜外層や脈絡膜毛細血管板が使用されることが多い。網膜外層はOPL/ONL+0μm~RPE/Choroid+0μmとして定義されることが多いが、後述するように、CNVの大きさや発生箇所(深度位置)などによって、当該深度範囲は調整することができる。 When identifying new blood vessels with exudative age-related macular degeneration, the outer layer of the retina and the choroidal capillary plate are often used as the depth range. The outer layer of the retina is often defined as OPL / ONL + 0 μm to RPE / Choroid + 0 μm, but as will be described later, the depth range can be adjusted depending on the size of CNV, the location of occurrence (depth position), and the like.
なお、深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、深度範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。 As a method of projecting the data corresponding to the depth range on the two-dimensional plane, for example, a method of using the representative value of the data in the depth range as the pixel value on the two-dimensional plane can be used. Here, the representative value may include a value such as an average value, a median value, or a maximum value of pixel values within the depth range.
また、輝度のEn-Face画像とは、3次元の断層画像を任意の深度範囲で2次元平面に投影又は積算した正面画像である。輝度のEn-Face画像は、3次元のモーションコントラスト画像に代えて3次元の断層画像を用いることで、OCTA正面画像と同様の方法で生成されてよい。また、輝度のEn-Face画像は3次元断層データを用いて生成されてもよい。 The brightness En-Face image is a front image obtained by projecting or integrating a three-dimensional tomographic image onto a two-dimensional plane in an arbitrary depth range. The brightness En-Face image may be generated in the same manner as the OCTA front image by using a three-dimensional tomographic image instead of the three-dimensional motion contrast image. Further, the brightness En-Face image may be generated by using the three-dimensional tomographic data.
また、OCTA正面画像やEn-Face画像に関する深度範囲は、3次元ボリュームデータのうちの、2次元断層データ(又は2次元の断層画像)についてのセグメンテーション処理により検出された網膜層に基づいて決定されることができる。また、当該深度範囲は、これらセグメンテーション処理によって検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。 Further, the depth range for the OCTA front image and the En-Face image is determined based on the retinal layer detected by the segmentation process for the 2D tomographic data (or the 2D tomographic image) of the 3D volume data. Can be. Further, the depth range may be a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the retinal layer detected by these segmentation processes.
また、深度範囲は、所望の構成に応じて変更できるように構成されてもよい。例えば、深度範囲は、検出された網膜層に関する2つの層境界の間の範囲から、操作者からのポインティングデバイス320の指示に応じて変更された(オフセットされた)範囲とすることもできる。この際、操作者はポインティングデバイス320を操作し、例えば、断層画像上に重畳された、深度範囲の上限又は下限を示す指標を移動させる等により、深度範囲を変更することができる。
Further, the depth range may be configured so as to be changed according to a desired configuration. For example, the depth range can range from the range between the two layer boundaries with respect to the detected retinal layer to a range modified (offset) in response to instructions from the operator of the
(画像生成部)
図3は画像生成部304を説明するための図である。画像生成部304には、投影範囲制御部341と正面画像生成部342が含まれる。投影範囲制御部341は、モーションコントラスト画像生成部302によって生成されたモーションコントラスト画像と、層認識部303による層認識結果と、記憶部305に記憶されている深度範囲とに基づいて、正面画像の生成に用いる3次元モーションコントラストデータを特定する。正面画像生成部342は、投影範囲制御部341によって特定されたモーションコントラストデータを2次元平面に投影又は積算し、OCTA正面画像を生成する。
(Image generator)
FIG. 3 is a diagram for explaining the
なお、同様に、投影範囲制御部341は、3次元の断層画像(3次元断層データ)と、層認識結果と、深度範囲に基づいて、輝度のEn-Face画像の生成に用いる3次元断層データを特定することができる。この場合、正面画像生成部342は、投影範囲制御部341によって特定された断層データを2次元平面に投影又は積算し、輝度のEn-Face画像を生成することができる。
Similarly, the projection
(レポート画面)
図4は、画像生成部304によって生成されたOCTA正面画像を含む画像を表示するためのGUI400の一例を示す。GUI400には、画面選択用のタブ401が示されており、図4に示す例ではレポート画面(Reportタブ)が選択されている。なお、GUI400には、レポートタブ以外に、患者を選択するための患者画面(Patientタブ)や、撮影を行うための撮影画面(OCT Captureタブ)等が含まれてよい。
(Report screen)
FIG. 4 shows an example of the
レポート画面の左手には検査セレクタ408が設けられ、右手には表示エリアが設けられている。検査セレクタ408には現在選択されている患者のこれまで行った検査一覧が表示されており、そのうち一つが選択されると、表示制御部306は、レポート画面の右手の表示エリアに検査結果を表示させる。
An
表示エリアには、不図示のSLO光学系を用いて生成されたSLO画像406が示され、SLO画像406上にはOCTA正面画像が重畳して表示されている。また、表示エリアには、第一のOCTA正面画像402、第一の断層画像403、輝度のEn-Face画像407、第二のOCTA正面画像404、及び第二の断層画像405が表示されている。En-Face画像407の上部にはプルダウンが設けられており、EnfaceImage1が選択されている。これはEn-Face画像の深度範囲がOCTAImage1(第一のOCTA正面画像402)の深度範囲と同じであることを意味する。操作者からのポインティングデバイス320の当該プルダウンの操作により、En-Face画像の深度範囲をOCTAImage2(第二のOCTA正面画像404)の深度範囲等と同じにすることができる。
In the display area, an
第一の断層画像403には、第一のOCTA正面画像402を生成した際の深度範囲が断層画像上に破線で示されている。GUI400の例では、第一のOCTA正面画像402の深度範囲は網膜浅層(Superficial Capillary(SCP))である。また、第二のOCTA正面画像404は、第一のOCTA正面画像402とは異なる深度範囲のデータを用いて生成された画像となっている。第二の断層画像405には、第二のOCTA正面画像404を生成した際の深度範囲が破線で示されている。ここで、第二のOCTA正面画像404の深度範囲はCNVとなっており、この例ではOPL/ONL+50μm~BM+10μmの範囲とされている。
In the first
なお、第一のOCTA正面画像402及び第二のOCTA正面画像404の深度範囲は、これら画像の上部に設けられたプルダウンの操作に応じて設定されることができる。また、これら深度範囲は、予め設定されていてもよいし、操作者からのポインティングデバイス320の指示に応じて設定されてもよい。ここで、画像生成部304は、当該設定に基づいて下記の抽出処理の対象となる抽出対象を指定する対象指定部として機能することができる。なお、OCTA正面画像の深度範囲を設定するためのプルダウンには、上述した網膜浅層等の層毎の深度範囲だけでなく、CNV等の下記の処理で抽出が望まれる異常部位等に対応する範囲が含まれてよい。
The depth range of the first OCTA
本実施例では、操作者からのポインティングデバイス320の指示により、第二のOCTA正面画像404をダブルクリックすると、表示制御部306は、図4に示すGUI400から図5に示すGUI500へと表示部310に表示させる画面を切り替える。GUI500には、4つの異なる深度範囲の設定に対して、OCTA正面画像501,505,509,513と、それに対応する断層画像503,507,511,515、及び深度範囲502,506,510,514とが表示されている。
In this embodiment, when the second OCTA
これに関連して、画像生成部304は、第二のOCTA正面画像404の深度範囲に対応するCNVを抽出対象として指定する。画像生成部304は、抽出対象として指定されたCNV用に記憶部305に予め記憶されている4つの深度範囲502,506,510,514に基づいて、対応するOCTA正面画像501,505,509,513を生成する。表示制御部306は、生成されたOCTA正面画像501,505,509,513、対応する断層画像503,507,511,515、及び深度範囲502,506,510,514を表示部310に表示させる。
In this regard, the
この例では、一番左の画像(OCTA正面画像501)に関する深度範囲502として、タイプ1のCNVを想定した深度範囲が設定されており、BM+0μm~BM+20μmとなっている。ここで、タイプ1のCNVとは、RPE/Choroidよりも下にあるCNVをいう。
In this example, as the
左から2つ目の画像(OCTA正面画像505)に関する深度範囲506は、BMよりも少し上にある非常に小さなCNVを想定した深度範囲であり、BM-20μm~BM+0μmとなっている。左から3番目の画像(OCTA正面画像509)に関する深度範囲510は、BMより上に発生した大きなCNVを想定した深度範囲であり、BM-100μm~BM+0μmとなっている。左から4番目の画像(OCTA正面画像513)に関する深度範囲514は網膜外層全域をカバーする深度範囲であり、かなり大きなCNVを想定した深度範囲(OPL+50μm~BM+10μm)となっている。
The
GUI500の下部には選択ボタン504,508,512,516が表示されている。操作者からのポインティングデバイス320の指示により、当該選択ボタンを選択することで、診断等に用いるのに好ましいOCTA正面画像(表示すべき正面画像)を表示されているOCTA正面画像から選択できる。
本実施例では、操作者からのポインティングデバイス320の指示により、選択ボタン512を押下したとすると、表示制御部306は、表示部310に表示する画面を、図6に示すレポート画面のGUI600に切り替える。GUI600は、GUI400と同様のものであるが、第二のOCTA正面画像404及び第二の断層画像405が、操作者からのポインティングデバイス320の指示により選択した条件に基づくOCTA正面画像509及びOCTA正面画像509に関する深度範囲を示す断層画像511に切り替わっている。
In this embodiment, when the
このように本実施例では、抽出対象に応じた複数の深度範囲に関するOCTA正面画像を操作者に提供し、操作者が好ましい画像を選択することにより、最適な深度範囲に対するOCTA正面画像を表示することができる。これにより、病変の見落としのリスクが低減できたり、医師や検査技師が、画質調整などの追加作業が減少できたりすることができる。 As described above, in this embodiment, the OCTA front image regarding a plurality of depth ranges according to the extraction target is provided to the operator, and the operator selects a preferable image to display the OCTA front image for the optimum depth range. be able to. As a result, the risk of oversight of lesions can be reduced, and additional work such as image quality adjustment can be reduced for doctors and laboratory technicians.
次に、図7及び図8を参照して、本実施例に係る一連の処理について説明する。図7は、本実施例に係る一連の処理のフローチャートであり、図8は本実施例に係る正面画像生成処理のフローチャートである。一連の処理が開始されると、まずステップS701において、画像処理装置300は光干渉部100のラインセンサ125から被検眼Eに関する3次元の干渉信号を取得し、再構成部301により3次元断層データを生成・取得する。この際、再構成部301は3次元断層データに基づいて、3次元の断層画像を生成することもできる。なお、画像処理装置300は、接続される不図示の外部装置から被検眼Eに関する3次元の干渉信号や3次元干渉データ、3次元の断層画像等を取得してもよい。
Next, a series of processes according to the present embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a flowchart of a series of processes according to the present embodiment, and FIG. 8 is a flowchart of the front image generation process according to the present embodiment. When a series of processing is started, first, in step S701, the
再構成部301により3次元断層データが生成されると、モーションコントラスト画像生成部302が3次元断層データに基づいて3次元モーションコントラストデータ(3次元モーションコントラスト画像)を生成する。
When the three-dimensional tomographic data is generated by the
次に、ステップS702において、画像生成部304が予めの設定又は操作者からのポインティングデバイス320の指示に応じて、抽出対象(対象領域)を指定する。この際には、層認識部303が3次元断層データに対しセグメンテーションを行って層認識結果を取得することができる。また、画像生成部304は、3次元ボリュームデータや層認識結果、所定の深度範囲の設定等に基づいて、第一のOCTA正面画像402等を生成し、表示制御部306がGUI400を表示部310に表示させてもよい。この場合には、操作者からのポインティングデバイス320の指示により、OCTA正面画像に関するプルダウン等を操作して、抽出対象に関する指示を入力することができる。抽出対象が指定されると、処理はステップS703に移行する。
Next, in step S702, the
ステップS703では、画像生成部304が本実施例に係る正面画像生成処理を開始する。本実施例に係る正面画像生成処理では、まずステップS801において、画像生成部304は、指定された抽出対象に対応する、記憶部305に記憶されている複数の深度範囲を特定する。また、画像生成部304の投影範囲制御部341は、特定した複数の深度範囲、3次元モーションコントラストデータ、及び層認識結果に基づいて、OCTA正面画像の生成に用いる3次元モーションコントラストデータを特定する。正面画像生成部342は、特定された3次元モーションコントラストデータに基づいて、複数の深度範囲に対応する複数のOCTA正面画像を生成する。
In step S703, the
ステップS802では、表示制御部306が、生成された複数のOCTA正面画像を表示部310に表示させる。この際、表示制御部306は、生成された複数のOCTA正面画像と共に、対応する深度範囲に関する情報を表示部310に表示させることができる。ここで、対応する深度範囲に関する情報は、深度範囲を示す数値情報であってもよいし、断層画像上に深度範囲を示される破線等であってもよいし、その両方であってもよい。
In step S802, the
ステップS803では、ポインティングデバイス320が操作者からの指示を受け、表示部310に表示された複数のOCTA正面画像から、診断等に好ましいOCTA正面画像を指定する。画像処理装置300は、操作者からのポインティングデバイス320の指示に応じて、表示すべきOCTA正面画像を選択する。なお、操作者からのポインティングデバイス320の指示は、例えば、図5に示すGUI500における選択ボタンの選択によって行われてよい。
In step S803, the
画像処理装置300が表示すべきOCTA正面画像を選択すると、ステップS704において、表示制御部306が選択されたOCTA正面画像を表示部310に表示させる。これにより、対象となる構造物を確認することが容易なOCTA正面画像を表示させることができる。なお、本実施例では、OCTA正面画像を生成し表示させる構成としたが、生成・表示される画像は輝度のEn-Face画像であってもよい。この場合には、モーションコントラストデータに代えて断層データを用いて、上記処理と同様の処理を行えばよい。
When the
上記のように、本実施例に係る画像処理装置300は、画像生成部304と、表示制御部306とを備える。画像生成部304は、被検眼Eの3次元ボリュームデータからの抽出対象(対象領域)を指定する対象指定部の一例としても機能する。画像生成部304の正面画像生成部342は、指定された抽出対象に基づいて、3次元ボリュームデータの異なる深度範囲に対応した複数の正面画像を生成する。表示制御部306は表示部310の表示を制御する。画像生成部304の投影範囲制御部341は、抽出対象の指定に基づいて、複数の正面画像を生成するための深度範囲を決定する。表示制御部306は、生成された複数の正面画像を表示部310に並べて表示させる。特に、本実施例に係る画像処理装置300では、抽出対象は新生血管(CNV)であり、3次元ボリュームデータは3次元のモーションコントラストデータである。また、複数の正面画像を生成するための各深度範囲は、例えば、網膜外層又はブルッフ膜から脈絡膜側に0~50μmの範囲内における深度範囲である。
As described above, the
なお、本実施例では、画像生成部304の投影範囲制御部341は、抽出対象の指定に基づいて、複数の正面画像を生成するための深度範囲を決定するとした。ここで、投影範囲制御部341は、例えば、3次元ボリュームデータの種別、抽出対象となる層又は深度範囲、生成する正面画像の枚数、正面画像を生成する深度範囲、及び正面画像を生成する深度範囲の間隔のうち少なくとも一つを決定することができる。
In this embodiment, the projection
また、本実施例では、図5に示すGUI500のように、複数の深度範囲に対応した画像を図4に示すGUI400とは別に表示しているが、これに限らない。例えば、GUI400上に複数の深度範囲の画像を並べて表示してもよい。また、複数の深度範囲の画像をGUI400の第二のOCTA正面画像404の表示エリアに時間的に切り替えながら表示してもよいし、操作者からのポインティングデバイス320の指示に応じて切り替えて表示してもよい。この場合、GUI400上の操作により、切り替えて表示された画像から、好ましい深度範囲の画像を選択できるようにしてもよい。
Further, in this embodiment, as in the
なお、本実施例では、図5に示すGUI500のように複数の深度範囲に対応したOCTA正面画像を表示しているが、これに限らない。例えば、深度範囲と共に、投影方法を変更した画像を並べて表示し、操作者に選択させてもよい。ここで、投影方法とは、例えば最大値投影や平均値投影等の公知の任意の方法であってよい。同じ深度範囲であっても、投影方法の違いにより正面画像の見え方は変化する。そのため、このような場合には、好ましい投影方法に対応する正面画像を操作者に選択させることができる。
In this embodiment, the OCTA front image corresponding to a plurality of depth ranges is displayed as in the
このような構成によれば、抽出対象に応じた複数の深度範囲や投影方法に関する正面画像を操作者に提供することで、対象となる構造物を確認することが容易な正面画像を表示させることができる。これにより、病変の見落としのリスクが低減できたり、医師や検査技師が、画質調整などの追加作業が減少できたりすることができる。 According to such a configuration, by providing the operator with front images relating to a plurality of depth ranges and projection methods according to the extraction target, it is possible to display a front image in which it is easy to confirm the target structure. Can be done. As a result, the risk of oversight of lesions can be reduced, and additional work such as image quality adjustment can be reduced for doctors and laboratory technicians.
(実施例1の変形例)
実施例1では、操作者からのポインティングデバイス320の指示により、正面画像をダブルクリックすることで、複数の深度範囲の正面画像を表示させる例を示したが、複数の深度範囲の正面画像を表示させる際の処理はこれに限られない。例えば、GUI400のレポート画面を表示した段階で、対象となる疾患について設定された複数の深度範囲に対応する正面画像を表示し、操作者に選択させてもよい。
(Variation example of Example 1)
In the first embodiment, an example is shown in which the front image of a plurality of depth ranges is displayed by double-clicking the front image according to the instruction of the
また別の例は、検査を実施した際に被検眼EにCNVなどの異常があるかどうかを判定し、異常があると判定された場合に、複数の深度範囲に対する正面画像を表示して、操作者に最適な画像を選択させてもよい。また、CNVを有する滲出性加齢黄斑変性症の患者等の疾患を有する患者に対してOCTA検査を実施した場合に、当該疾患について設定された複数の深度範囲に対応する正面画像を表示して、操作者に最適な画像を選択させてもよい。なお、異常があるか否かの判定は、公知の任意の方法によって行われてよい。 In another example, it is determined whether or not there is an abnormality such as CNV in the eye E to be inspected when the examination is performed, and if it is determined that there is an abnormality, a front image for a plurality of depth ranges is displayed. The operator may be allowed to select the most suitable image. In addition, when an OCTA test is performed on a patient with a disease such as a patient with exudative age-related macular degeneration having CNV, a frontal image corresponding to a plurality of depth ranges set for the disease is displayed. , The operator may be allowed to select the most suitable image. It should be noted that the determination as to whether or not there is an abnormality may be performed by any known method.
(実施例2)
実施例1では、複数の深度範囲に対応する複数のOCTA正面画像を表示し、そのうちの好ましい画像を操作者からのポインティングデバイス320の指示により選択することで、好ましい深度範囲で投影されたOCTA正面画像を提供した。実施例2に係る画像処理装置は、さらに画像生成部304に正面画像決定部343を設け、操作者が介在することなく、自動的に最適な深度範囲のOCTA正面画像を出力する。
(Example 2)
In the first embodiment, a plurality of OCTA front images corresponding to a plurality of depth ranges are displayed, and a preferable image among them is selected according to an instruction of the
以下、図9乃至図12を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、画像生成部304に正面画像決定部343が加えられている点を除き、実施例1に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例1に係る画像処理装置300との違いを中心に説明する。
Hereinafter, the image processing apparatus according to the present embodiment will be described with reference to FIGS. 9 to 12. The configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the first embodiment except that the front
図9は、本実施例に係る画像生成部304を説明するための図である。図に示すように、本実施例に係る画像生成部304には、投影範囲制御部341及び正面画像生成部342に加えて、正面画像決定部343が設けられている。ここで、正面画像決定部343は、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、正面画像決定部343は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。
FIG. 9 is a diagram for explaining the
正面画像決定部343は、正面画像生成部342によって生成された複数の深度範囲に対応するOCTA正面画像を評価し、最も高い(他よりも高い)評価値に対応する病理部の存在確率を有するOCTA正面画像を決定する。本実施例では、正面画像決定部343は、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、正面画像決定部343は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。また、本実施例では、病理部を新生血管(CNV)として説明するが、病理部はCNVに限らず、例えば、実施例1と同様に毛細血管瘤などの他の病理部でもよい。
The frontal
次に、図10を参照して、本実施例に係る正面画像生成処理について説明する。図10は、本実施例に係る正面画像生成処理のフローチャートである。なお、正面画像生成処理以外の一連の処理の流れは実施例1に係る一連の処理と同様であるため説明を省略する。また、ステップS1001は実施例1に係るステップS801と同様のステップであるため説明を省略する。ステップS1001において、複数の深度範囲のOCTA正面画像が生成されると、処理はステップS1002に移行する。 Next, with reference to FIG. 10, the front image generation process according to this embodiment will be described. FIG. 10 is a flowchart of the front image generation process according to the present embodiment. Since the flow of a series of processes other than the front image generation process is the same as the series of processes according to the first embodiment, the description thereof will be omitted. Further, since step S1001 is the same step as step S801 according to the first embodiment, the description thereof will be omitted. When the OCTA front image having a plurality of depth ranges is generated in step S1001, the process proceeds to step S1002.
ステップS1002では、正面画像決定部343が、正面画像生成部342によって生成された複数の深度範囲のOCTA正面画像について、学習済モデルを用いてそれぞれ比較を行い、CNVの観察に最適な深度範囲のOCTA正面画像を決定・選択する。なお、以降の処理は、実施例1に係る処理と同様であるため説明を省略する。
In step S1002, the front
ここで、図11を参照して、ステップS1002における正面画像決定処理についてより詳細に説明する。ステップS1002において正面画像決定処理が開始されると、処理はステップS1110に移行する。なお、正面画像生成部342により生成された複数の正面画像は、配列Img[]として保持されているものとする。
Here, with reference to FIG. 11, the front image determination process in step S1002 will be described in more detail. When the front image determination process is started in step S1002, the process proceeds to step S1110. It is assumed that the plurality of front images generated by the front
ステップS1110では、正面画像決定部343は、変数AWを、配列に格納された最初の画像Img[0]に初期化する。ここで、変数AWは、CNVの存在確率が高い勝者を示す変数である。
In step S1110, the front
ステップS1120では、正面画像決定部343は、正面画像インデックスtを1に初期化する。また、正面画像決定部343は、インデックスiを0に初期化する。
In step S1120, the front
ステップS1130では、正面画像決定部343は、学習済モデルを用いて、現在の勝者AWと画像配列における次の画像Img[t]を比較し、各画像におけるCNVの存在を評価した評価値を求める。ここで、図12を参照して正面画像決定部343が用いる学習済モデルについて説明する。なお、本実施例において、正面画像決定部343が用いる学習済モデルは、画像処理装置300に設けられており、CPUやMPU、GPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、学習済モデルは、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。
In step S1130, the front
図12は、正面画像決定部343が用いる画像の比較用の学習済モデルの構成の一例を示す。本実施例において、比較用の学習済モデル1210の入力データは、一対のOCTA正面画像1201,1202で構成される。また、学習済モデル1210の出力データは、重みベクトル(評価値と呼ぶ)w1,w2,w3で構成される。なお、学習済モデルは複数のチャネルを有するように構成されることができる。本実施例では、一対のOCTA正面画像1201,1202について、OCTA正面画像1201が学習済モデルの1つ目の入力チャネルに、OCTA正面画像1202が学習済モデルの2つ目の入力チャネルに入力される構成とした。
FIG. 12 shows an example of the configuration of a trained model for image comparison used by the front
ここで、評価値は、入力画像の内容に関連付けられた値である。本実施例では、評価値w1及び評価値w2は、以下に説明する学習プロセスに従った、病理学的構造の存在を評価した画像品質(確率)に対応する。一方で、評価値w3は、両方の入力画像における病理学的構造の不存在を示す確率に対応し、両方の入力画像に病理学的構造がない場合、評価値w3が最も高くなる。また、本実施例では、評価値の合計はw1+w2+w3=1であり、評価値w1,w2,w3はそれぞれ、1つ目の入力画像に対するCNVの存在、2つ目の入力画像に対するCNVの存在、及びどちらの入力画像にもCNVが含まれない確率を示す。 Here, the evaluation value is a value associated with the content of the input image. In this embodiment, the evaluation value w1 and the evaluation value w2 correspond to the image quality (probability) for evaluating the existence of the pathological structure according to the learning process described below. On the other hand, the evaluation value w3 corresponds to the probability of showing the absence of the pathological structure in both input images, and when both input images have no pathological structure, the evaluation value w3 is the highest. Further, in this embodiment, the total of the evaluation values is w1 + w2 + w3 = 1, and the evaluation values w1, w2, and w3 are the presence of CNV for the first input image and the presence of CNV for the second input image, respectively. And the probability that CNV is not included in either input image is shown.
本実施例において、学習済モデル1210は、例えば、Kerasフレームワーク(「Kerasドキュメンテーション」、2019)で利用可能なXception畳み込みニューラルネットワーク(XCNN)モジュールで構成されることができる。以下、本実施例に係る学習済モデルの一例として、CNNについて説明する。本実施例に係るCNNは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該学習済モデルの構成に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。
In this embodiment, the trained
畳み込み層は、設定されたフィルタのカーネルサイズや、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力が複数のチャネルを持つ場合がある。例えば、入力がカラー画像の場合、R/G/Bの3チャネルとなる。この場合、3チャネルのフィルタを使用して畳み込み処理を行う。このように、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。 The convolution layer is a layer that performs convolution processing on the input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The input may have multiple channels. For example, when the input is a color image, there are three channels of R / G / B. In this case, the convolution process is performed using a 3-channel filter. In this way, the number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image.
ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。 The downsampling layer is a layer that performs processing to reduce the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, as such a process, for example, there is a Max Polling process.
アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。 The upsampling layer is a layer that performs processing to increase the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding interpolated values from the input value group. Specifically, as such a process, for example, there is a linear interpolation process.
合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them.
なお、CNNの構成に含まれる畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の比較処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。 As parameters set in the convolutional layer group included in the CNN configuration, for example, the kernel size of the filter is 3 pixels in width, 3 pixels in height, and the number of filters is 64, so that the comparison process has a certain accuracy. Is possible. However, it should be noted that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the output data may differ. That is, in many cases, the appropriate parameters differ depending on the embodiment, and therefore, the values can be changed to preferable values as needed.
また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、比較処理の精度が高かったり、比較処理の時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。 In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics include, for example, high accuracy of comparison processing, short comparison processing time, short training time of machine learning model, and the like.
ここで、本実施例に係る学習データについて説明する。本実施例に係る学習データは、データベースにおける2つのOCTA正面画像を入力データとし、該2つのOCTA正面画像に対して医師等の専門家が選択した評価結果を正解データとした。ここで、データベースは、CNVを有する目の検査データ及び健康な眼における検査データで構成した。また、正解データについては、医師等の専門家によって、入力データに対応する2つのOCTA正面画像のうち、CNVを有する眼についての最適な深度範囲のOCTA正面画像(最良の画像)として選択された画像の評価値w1又は評価値w2を1とし、他の評価値を0とした。また、医師等の専門家によって、入力データに対応する2つのOCTA正面画像にCNVが現れていないと判断された場合には、評価値w1,w2を0とし、評価値w3を1とした。なお、正解データに関する評価値は1又は0とする構成に限られず、医師等の専門家によって小数点以下の評価値が設定されてもよい。ただし、この場合でも評価値の合計が1となるように各評価値が設定される。 Here, the learning data according to this embodiment will be described. For the learning data according to this embodiment, two OCTA front images in the database were used as input data, and evaluation results selected by an expert such as a doctor for the two OCTA front images were used as correct answer data. Here, the database consisted of examination data for eyes with CNV and examination data for healthy eyes. The correct answer data was selected by a specialist such as a doctor as the OCTA front image (best image) having the optimum depth range for the eye having CNV among the two OCTA front images corresponding to the input data. The evaluation value w1 or the evaluation value w2 of the image was set to 1, and the other evaluation values were set to 0. Further, when it was determined by an expert such as a doctor that CNV did not appear in the two OCTA front images corresponding to the input data, the evaluation values w1 and w2 were set to 0, and the evaluation value w3 was set to 1. The evaluation value for the correct answer data is not limited to 1 or 0, and an evaluation value after the decimal point may be set by a specialist such as a doctor. However, even in this case, each evaluation value is set so that the total of the evaluation values is 1.
以下に示す表1は、本実施例に係る学習データの組み合わせを示す。表1における「最良」は、該当する入力データが複数の深度範囲のOCTA正面画像のうち、CNVの観察について最良の画像であることを意味する。また、「その他」は、該当する入力データが複数の深度範囲のOCTA正面画像のうち、「最良」以外の深度範囲の画像であることを意味する。さらに、「健康」は2つの入力データが同じ画像ではない(正面画像インデックスtが異なる)ことを前提に、2つの入力データが健康な目のデータから得られた画像であることを意味する。本実施例に係る学習データはこの3パターンのみであり、どちらの画像がCNVの観察により優れた画像か、又はどちらでもないかを機械学習モデルに学習させるものである。
このような学習データを用いることで、CNVの観察に適切なOCTA正面画像の比較に関する学習を行うことができ、このような学習を行った学習済モデルを用いることで信頼性の高い比較を行うことができる。また、ニューラルネットワークの学習(トレーニング)では、画像を回転させたり、上下左右反転させたり、画像を切り取る範囲を変化させることなどの、いわゆるオーグメンテーション(Augmentation)を行ってもよい。この場合、オーグメンテーションにより学習データの入力データとなるOCTA正面画像を増やすことができる。 By using such training data, it is possible to perform training on comparison of OCTA front images suitable for observing CNV, and by using a trained model that has undergone such training, highly reliable comparison can be performed. be able to. Further, in the learning (training) of the neural network, so-called augmentation may be performed, such as rotating the image, inverting the image vertically and horizontally, and changing the range in which the image is cut. In this case, augmentation can increase the number of OCTA front images that are input data for training data.
なお、学習データの入力データ及び実際の運用時の入力データとして用いるOCTA正面画像としては、プロジェクションアーチファクトが除去された画像を用いることができる。ここで、プロジェクションアーチファクトとは、網膜の表層などの血管が、表層より下の層に映りこむ現象である。なお、プロジェクションアーチファクトを除去するアルゴリズムとしては公知の任意の方法を用いてよい。 As the OCTA front image used as the input data of the training data and the input data at the time of actual operation, an image from which projection artifacts have been removed can be used. Here, the projection artifact is a phenomenon in which blood vessels such as the surface layer of the retina are reflected in a layer below the surface layer. As an algorithm for removing projection artifacts, any known method may be used.
提示された発明に係る機械学習モデルはXCNNに限定されず、特にInceptionV3、InceptionResnetV2、NASNet、又はNASNetMobileなどの他の種類のCNNモデルを使用することもできる。また、機械学習モデルは、マルチレイヤーパーセプトロン、デシジョンツリー、又はサポートベクターマシンなどの非CNN型のニューラルネットワークソリューションを使用することができる。 The machine learning model according to the presented invention is not limited to XCNN, and other types of CNN models such as InsertionV3, InjectionResnetV2, NASNet, or NASNetMobile can also be used in particular. Machine learning models can also use non-CNN neural network solutions such as multilayer perceptrons, decision trees, or support vector machines.
このような機械学習モデルの学習済モデルにデータを入力すると、機械学習モデルの設計に従ったデータが出力される。例えば、学習データを用いて学習を行った傾向に従って入力データに対応する可能性の高い出力データが出力される。本実施例に係る学習済モデルでは、正面画像決定部343の学習済モデル1210は、OCTA正面画像のペアが入力されると、入力されたOCTA正面画像における1つ目の入力画像に対するCNVの存在、2つ目の入力画像に対するCNVの存在、及びどちらにもCNVが含まれない確率を出力する。例えば、学習済モデルは、入力された2つのOCTA正面画像に対して、評価値(w1,w2,w3)=(0.7,0.2,0.1)を出力することができる。
When data is input to the trained model of such a machine learning model, the data according to the design of the machine learning model is output. For example, output data that is likely to correspond to the input data is output according to the tendency of learning using the training data. In the trained model according to this embodiment, in the trained
ステップS1140では、正面画像決定部343は、画像Img[t]が現在の勝者AWよりもCNVの観察について優れているかどうかを判定する。具体的には、正面画像決定部343は、学習済モデル1210を用いて得た評価値のうち、最も高い評価値を真として判定する。なお、評価値w3が最も高かった場合には、評価値w1,w2のうち高かった方を真とする。正面画像決定部343は、真とされた評価値に基づいて、画像Img[t]が現在の勝者AWよりもCNVの観察について優れているかどうかを判定する。
In step S1140, the frontal
例えば、画像Img[1]を1つ目の入力データとし、勝者AW(画像Img[0])を2つ目の入力データとした際の学習済モデルの出力において、評価値w1が最も高かった場合には、評価値w1を真とする。その後、正面画像決定部343は、評価値w1が真であるため、1つ目の入力データに対応する画像Img[1]が現在の勝者AWよりも優れているとして、ステップS1140での判定を真とする。一方で、正面画像決定部343は、評価値w2が最も高かった場合には、評価値w2を真とする。この場合には、正面画像決定部343は、評価値w2が真であるため、1つ目の入力データに対応する画像Img[1]は現在の勝者AWよりも優れていないとして、ステップS1140での判定を偽とする。
For example, the evaluation value w1 was the highest in the output of the trained model when the image Img [1] was used as the first input data and the winner AW (image Img [0]) was used as the second input data. In that case, the evaluation value w1 is true. After that, the front
ただし、正面画像決定処理における一連のすべての比較において評価値w3が最も高いと判定されていた場合には、正面画像決定部343は、画像Img[i]にはCNVが存在していないと判定し、後述するステップS1180において勝者AWを無しに決定できる。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。
However, when it is determined that the evaluation value w3 is the highest in all the series of comparisons in the front image determination process, the front
ステップS1140において真と判定された場合には、処理はステップS1150に移行する。ステップS1150では、正面画像決定部343が、勝者AWを画像Img[t]に設定(更新)する。また、正面画像決定部343は、インデックスiを正面画像インデックスtの値に設定する。
If it is determined to be true in step S1140, the process proceeds to step S1150. In step S1150, the front
ステップS1150において、勝者AW及びインデックスiを設定すると処理はステップS1160に移行する。また、ステップS1140において偽と判定された場合にも、処理はステップS1160に移行する。ステップS1160では、正面画像決定部343は、正面画像インデックスtが次の正面画像のインデックスを示すように、正面画像インデックスtに1を加算する。
When the winner AW and the index i are set in step S1150, the process proceeds to step S1160. Further, even if it is determined to be false in step S1140, the process proceeds to step S1160. In step S1160, the front
ステップS1170では、正面画像決定部343は、全てのOCTA正面画像が比較されたかどうかを判断する。具体的には、正面画像決定部343は、正面画像インデックスtが正面画像の枚数Nよりも低いか否かを判断する。ステップS1170において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低い(真)と判断されると、処理はステップS1130に戻る。一方で、ステップS1170において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低くない(偽)と判断されると、処理はステップS1180に移行する。
In step S1170, the front
ステップS1180では、正面画像決定部343は、勝者AWを画像Img[i]に決定する。このような正面画像決定処理では、全てのOCTA正面画像について比較が行われると、インデックスiは最適な深度範囲の正面画像インデックスを示す。そのため、正面画像決定部343は、ステップS1180において、勝者AWを画像Img[i]に決定することで、CNVの観察に最適な深度範囲のOCTA正面画像として画像Img[i]を決定・選択することができる。
In step S1180, the front
上記のように、本実施例に係る画像処理装置300は、取得部と、評価部と、決定部とを備える。取得部は、被検眼の3次元のデータの異なる深度範囲に対応する複数の正面画像を取得する。ここで、正面画像生成部342は、取得部の一例として機能する。また、評価部は、被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する。さらに、決定部は、評価値を用いて、複数の正面画像のうち少なくとも一つを出力画像として決定する。ここで、正面画像決定部343は、評価部及び決定部の一例として機能する。なお、本実施例に係る学習データは、被検眼の異なる深度範囲に対応する複数の正面画像と、各正面画像に対応する評価値とを含むことができる。
As described above, the
このような構成によれば、操作者が介在することなく、対象となる構造物を確認することが容易な深度範囲の正面画像を取得し表示することができ、処理の効率を向上させることができる。なお、本実施例では、正面画像決定部343が評価部及び決定部の一例として機能するが、評価部と決定部は別々に設けられてもよい。この場合、評価部及び決定部は、正面画像決定部343の一部として、正面画像決定部343に含まれてもよい。
According to such a configuration, it is possible to acquire and display a front image in a depth range where it is easy to confirm the target structure without the intervention of an operator, and it is possible to improve the processing efficiency. can. In this embodiment, the front
また、本実施例では、正面画像としてOCTA正面画像を生成し表示する例について述べたが、実施例1と同様に、正面画像として輝度のEn-Face画像を生成・表示してもよい。この場合も上記と同様の正面画像決定処理により、正面画像決定部343は、病理部の観察に適切な深度範囲の輝度のEn-Face画像を決定することができる。また、本実施例の場合も、操作者が好ましくないと考えた場合には、生成される正面画像の深度範囲をマニュアルで調整できるように画像処理装置300を構成してもよい。
Further, in this embodiment, an example in which an OCTA front image is generated and displayed as a front image has been described, but as in the first embodiment, a brightness En-Face image may be generated and displayed as a front image. In this case as well, by the same front image determination process as described above, the front
なお、本実施例では、新生血管(CNV)の領域を抽出する対象領域とし、3次元のモーションコントラストデータからOCTA正面画像を生成し、評価を行った。ただし、対象領域はCNVの領域に限られない。例えば、篩状板の領域を対象領域とし、乳頭部の3次元の断層データから輝度のEn-Face画像を生成し、評価を行ってもよい。また、例えば、毛細血管瘤の領域を対象領域とし、黄斑部の3次元のモーションコントラストデータからOCTA正面画像を生成し、評価を行ってもよい。なお、上述した様々な変形は以下の実施例及び変形例にも同様に適用することができる。 In this example, the area of the new blood vessel (CNV) was set as the target area, and the OCTA front image was generated from the three-dimensional motion contrast data and evaluated. However, the target area is not limited to the CNV area. For example, the region of the sieve plate may be set as the target region, and an En-Face image of brightness may be generated from the three-dimensional tomographic data of the papilla and evaluated. Further, for example, the area of the capillary aneurysm may be set as the target area, and an OCTA frontal image may be generated from the three-dimensional motion contrast data of the macula and evaluated. The various modifications described above can be similarly applied to the following examples and modifications.
なお、本実施例に係る正面画像決定処理は、上記のフローに限定されない。正面画像決定処理は、所望の構成に応じて、上記フローの他のいかなる実施も、公知の任意のプログラミング方法に従って検討することができる。例えば、本実施例では、正面画像の比較は勝者AWとされた正面画像が次の正面画像と比較されるように行われたが、異なる正面画像同士で比較を行い、勝者同士の比較を順次行う勝ち抜き式のトーナメント方式で行われてもよい。 The front image determination process according to this embodiment is not limited to the above flow. The frontal image determination process can be considered for any other implementation of the above flow, depending on the desired configuration, according to any known programming method. For example, in this embodiment, the front image is compared so that the front image with the winner AW is compared with the next front image, but different front images are compared and the winners are compared sequentially. It may be held in a winning tournament system.
(実施例2の変形例)
以下、実施例2の変形例について説明する。なお、本変形例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。本変形例は、正面画像決定部343による処理が、実施例2に係る正面画像決定部343による処理と異なる。実施例2のステップS1140では、正面画像決定部343は、学習済モデル1210を用いて得た評価値w3の値が最も高かったとしても、評価値w1又は評価値w2に基づいて、比較される画像のどちらの画像が良いかを判定した。これに対し、本変形例では、正面画像決定部343は、学習済モデル1210を用いて得た評価値w3の値が最も高かった場合、評価値w1及び評価値w2に対応する画像の両者を不適当と判断し、それ以降の比較に用いない、いわゆる両者敗退とするような処理を行う。
(Modified example of Example 2)
Hereinafter, a modified example of the second embodiment will be described. Since the configuration of the image processing apparatus according to the present modification is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. In this modification, the processing by the front
以下、図13A及び図13Bを参照して、本変形例に係る正面画像決定処理について実施例2に係る正面画像決定処理と異なる部分について説明する。図13A及び図13Bは、本変形例に係る正面画像決定処理のフローチャートを示す。なお、実施例2に係る処理と同様の処理に関しては同じ参照符号を用いて説明を省略する。 Hereinafter, with reference to FIGS. 13A and 13B, a portion of the front image determination process according to the present modification, which is different from the front image determination process according to the second embodiment, will be described. 13A and 13B show a flowchart of the front image determination process according to the present modification. The same reference numerals will be used for the same processing as that of the second embodiment, and the description thereof will be omitted.
ステップS1130において、正面画像決定部343が、勝者AWと画像Img[t]を比較して評価値を得ると、処理はステップS1300に移行する。ステップS1300では、正面画像決定部343は、現在の勝者AW及び画像Img[t]にCNVが存在するか判定する。より具体的には、正面画像決定部343は、評価値w3が最も大きい場合には、現在の勝者AW及び画像Img[t]のいずれにもCNVが存在しないと判定する。ただし、正面画像決定部343は、例えば、評価値w3が所定の閾値を超えた場合に、現在の勝者AW及び画像Img[t]のいずれにもCNVが存在しないと判定するなど別の判定方法を採用してもよい。
In step S1130, when the front
ステップS1300において、正面画像決定部343によって、現在の勝者AW又は画像Img[t]にCNVが存在する(真)と判定された場合には、処理はステップS1140に移行する。ステップS1140以降の処理は実施例2に係る処理と同様であるため説明を省略する。
If the front
一方で、ステップS1300において、正面画像決定部343によって、現在の勝者AW及び画像Img[t]にCNVが存在しない(偽)と判定された場合には、処理はステップS1310に移行する。ステップS1310では、正面画像決定部343は、正面画像インデックスtが次の正面画像のインデックスを示すように、正面画像インデックスtに1を加算する。
On the other hand, if it is determined in step S1300 by the front
ステップS1320では、正面画像決定部343は、全てのOCTA正面画像が比較されたかどうかを判断する。具体的には、正面画像決定部343は、正面画像インデックスtが正面画像の枚数Nよりも低いか否かを判断する。
In step S1320, the front
ステップS1320において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低くない(偽)と判断されると、処理はステップS1330に移行する。ステップS1330では、正面画像決定部343は、勝者AWを無しに決定する。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。
If the front
一方で、ステップS1320において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低い(真)と判断されると、処理はステップS1340に移行する。ステップS1340では、正面画像決定部343は、勝者AWを新たな画像Img[t]に更新し、インデックスiを正面画像インデックスtの値に設定する。また、正面画像決定部343は、仮の比較画像Tmpを画像Img[t-1]に設定する。
On the other hand, if the front
次に、ステップS1350では、正面画像決定部343は、正面画像インデックスtが次の正面画像のインデックスを示すように、正面画像インデックスtに1を加算する。また、ステップS1360では、全ての正面画像が比較されたかどうか、言い換えると比較対象となる正面画像が残っているかを判断する。具体的には、正面画像決定部343は、正面画像インデックスtが正面画像の枚数Nよりも低いか否かを判断する。
Next, in step S1350, the front
ステップS1360において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低い(真)と判断されると、処理はステップS1130に戻る。一方で、ステップS1360において、正面画像決定部343によって、正面画像インデックスtが正面画像の枚数Nよりも低くない(偽)、言い換えると、比較対象となる正面画像が存在しないと判断されると、処理はステップS1370に移行する。
If the front
ステップS1370では、正面画像決定部343は、学習済モデルを用いて、現在の勝者AWと仮の比較画像Tmpを比較する。当該処理は実施例1に係るステップS1130の処理と同様であってよい。
In step S1370, the front
ステップS1380では、正面画像決定部343は、ステップS1140と同様に、仮の比較画像Tmpが現在の勝者AWよりも優れているかどうかを判定する。ただし、ステップS1380において、評価値w3が最も高いと判定された場合には、正面画像決定部343は、現在の勝者AW及び仮の比較画像TmpにはCNVが存在していないと判定し、後続のステップS1180において勝者AWを無しに決定できる。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。
In step S1380, the front
ステップS1380において真と判定された場合には、処理はステップS1390に移行する。ステップS1390では、正面画像決定部343が、勝者AWを無しに決定する。この場合には、ステップS704において、表示制御部306は表示部310にCNVが存在していない旨を表示することができる。
If it is determined to be true in step S1380, the process proceeds to step S1390. In step S1390, the front
一方、ステップS1380において偽と判定された場合には、処理はステップS1180に移行する。当該ステップS1180は実施例2に係るステップS1180と同様の処理であってよく、同じ参照符号を用いて説明を省略する。このような処理により、インデックスiは最適な深度範囲の正面画像インデックスを示し、ステップS1180の後に画像Img[i]が出力される。 On the other hand, if it is determined to be false in step S1380, the process proceeds to step S1180. The step S1180 may be the same process as the step S1180 according to the second embodiment, and the same reference numerals will be used and the description thereof will be omitted. By such processing, the index i indicates the front image index in the optimum depth range, and the image Img [i] is output after step S1180.
本実施例では、正面画像決定部343は、抽出対象が存在しないことを示す評価値を算出した際に学習済モデルに入力した少なくとも2つの正面画像を、他の正面画像に関する評価値の算出に用いない。本実施例によれば、正面画像決定部343は、学習済モデル1210を用いて2枚の正面画像についてCNVがどちらにも存在しないと判定した場合に、以降の処理においてそれら2枚の画像を比較対象に用いないため、計算負荷を削減することができる。なお、本実施例では、2枚の正面画像のCNVが存在しないと判定された後に、比較対象の正面画像の残りが1枚であった場合に、例外的にCNVが存在しないとされた正面画像のうちの一つを比較に用いることとしている。この場合であっても、上記例外的な場合を除き、CNVが存在しないとされた正面画像が以降の処理において比較対象として用いられないため、計算負荷を軽減することができる。なお、正面画像決定部343は、上記例外的な場合には、予め設定されたCNVが存在しないダミーの正面画像を用いて比較処理を行ってもよい。
In this embodiment, the front
なお、本実施例に係る正面画像決定処理は、上記のフローに限定されない。正面画像決定処理は、所望の構成に応じて、上記フローの他のいかなる実施も、公知の任意のプログラミング方法に従って検討することができる。例えば、本実施例では、正面画像の比較は勝者AWとされた正面画像が次の正面画像と比較されるように行われたが、異なる正面画像同士で比較を行い、勝者同士の比較を順次行う勝ち抜き式のトーナメント方式で行われてもよい。 The front image determination process according to this embodiment is not limited to the above flow. The frontal image determination process can be considered for any other implementation of the above flow, depending on the desired configuration, according to any known programming method. For example, in this embodiment, the front image is compared so that the front image with the winner AW is compared with the next front image, but different front images are compared and the winners are compared sequentially. It may be held in a winning tournament system.
(実施例3)
実施例2では、最適な深度範囲を決定するために、正面画像決定部343は、学習済モデル1210に2枚の正面画像を入力し、評価値を得た。これに対し、実施例3では、2枚の正面画像の他に、追加の正面画像が入力されるように学習済モデルを構成する。
(Example 3)
In Example 2, in order to determine the optimum depth range, the front
以下、図14乃至図16を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例2に係る画像処理装置300との違いを中心に説明する。
Hereinafter, the image processing apparatus according to this embodiment will be described with reference to FIGS. 14 to 16. Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the
図14は、本実施例に係る学習済モデルの構成を説明するための図である。本実施例では、図14に示すように、学習済モデル1410を、2枚のOCTA正面画像1401,1402の他に、追加のOCTA正面画像1405が入力されるように構成する。ここで、2枚のOCTA正面画像1401,1402は比較すべきOCTA正面画像であり、追加のOCTA正面画像1405は、2枚の正面画像1401,1402に関連する被検眼の他の深度範囲のOCTA正面画像である。
FIG. 14 is a diagram for explaining the configuration of the trained model according to the present embodiment. In this embodiment, as shown in FIG. 14, the trained
本実施例に係る一態様では、追加の正面画像1405は網膜表層のOCTA正面画像である。網膜表層のOCTA正面画像を入力することで、学習済モデル1410での処理に関して、OCTA正面画像に発生するプロジェクションアーチファクトを考慮させることができると考えられる。
In one aspect according to this embodiment, the additional
ここで、図15を参照して、プロジェクションアーチファクトについて説明する。図15は、OCTA正面画像1401,1405についてコントラスト補正を行ったOCTA正面画像1501,1505の一例を示す。OCTA正面画像1501の下部1501bの構造は、OCTA正面画像1505の下部1505bの表層構造とよく相関する。一方で、OCTA正面画像1501の上部1501aは主にCNVに関連する構造を含み、OCTA正面画像1505の上部1505aの表面構造とあまり相関しない。上述したように、プロジェクションアーチファクトとは、網膜の表層などの血管が、表層より下の層に映りこむ現象である。このため、OCTA正面画像1505の下部1505bの表層構造とよく相関するOCTA正面画像1501の下部1501bの構造はプロジェクションアーチファクトの影響によるものとして、CNVに関連する構造と区別して把握することができると考えられる。
Here, the projection artifact will be described with reference to FIG. FIG. 15 shows an example of the
このため、比較すべきOCTA正面画像1401,1402に加えて、追加のOCTA正面画像1405を学習済モデル1410に入力することで、OCTA正面画像1405との相関に基づいて病理部やアーチファクトを考慮した処理が行われると考えられる。そのため、本実施例に係る学習済モデルを用いることで、病理部とプロジェクションアーチファクトとをより適切に区別した、より信頼性の高い比較を行うことができると考えられる。
Therefore, by inputting an additional OCTA
なお、本実施例に係る学習データは、実施例2に係る学習データに加えて、入力データとして、2つのOCTA正面画像に関連する被検眼の網膜表層のOCTA正面画像を用いる。一方、正解データ(出力データ)は、実施例2に係る正解データと同様のものであってよい。 As the learning data according to the present embodiment, in addition to the learning data according to the second embodiment, the OCTA front image of the retinal surface layer of the eye to be inspected, which is related to the two OCTA front images, is used as the input data. On the other hand, the correct answer data (output data) may be the same as the correct answer data according to the second embodiment.
また、本実施例では、学習済モデル1410へOCTA正面画像を入力する際に、OCTA正面画像1401,1402、及び追加の正面画像1405を別々の入力チャネルに入力することができる。例えば、図16に示すように、OCTA正面画像1401をRチャネル、OCTA正面画像1402をGチャネル、追加のOCTA正面画像1405をBチャネルとしたRGB画像1601を学習済モデルに入力してもよい。この場合には、RGB画像1601に基づいて、OCTA正面画像1401が学習済モデルのRチャネルに、OCTA正面画像1402を学習済モデルのGチャネルに、追加のOCTA正面画像1405が学習済モデルのBチャネルに入力されることとなる。なお、この場合には、学習データの入力データも、同様に生成されたRGB画像を用いることとすればよい。
Further, in this embodiment, when the OCTA front image is input to the trained
上記のように本実施例に係る正面画像決定部343は、少なくとも2つの正面画像に加えて、当該少なくとも2つの正面画像とは異なる画像(追加の画像)として被検眼の網膜表層に対応するOCTA正面画像を学習済モデルに入力する。ここで、学習済モデルに入力される当該異なる画像は、被検眼の網膜表層のOCTA正面画像とすることができる。なお、正面画像決定部343は、当該少なくとも2つの正面画像及び当該異なる画像のそれぞれを学習済モデルの異なるチャネルに入力することができる。本実施例によれば、病理部とプロジェクションアーチファクトとをより適切に区別した、より信頼性の高い比較を行うことができると考えられる。
As described above, the frontal
(実施例4)
実施例2では、最適な深度範囲を決定するために、正面画像決定部343は、学習済モデル1210に異なる深度範囲のうちの2枚の正面画像のペアを入力し、比較を行った。これに対し、実施例4に係る正面画像決定処理では、正面画像決定部は、学習済モデルに一度に異なる深度範囲に対応する複数の正面画像の全てを入力し、比較を行うという点で、実施例2における正面画像決定処理(ステップS1002)と異なる。本実施例の利点としては、正面画像決定部は、学習済モデルを用いて同時に全ての正面画像の比較を行うため、より信頼性の高い分析を行うことができると期待される。また、ステップS1002における正面画像決定処理のフローを単一のステップに単純化できるという利点がある。
(Example 4)
In Example 2, in order to determine the optimum depth range, the front
以下、図17を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例2に係る画像処理装置300との違いを中心に説明する。
Hereinafter, the image processing apparatus according to this embodiment will be described with reference to FIG. Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the
図17は、本実施例に係る学習済モデルの構成を説明するための図である。本実施例では、図17に示すように、学習済モデル1710を、ステップS1001で生成された複数の深度範囲のOCTA正面画像の枚数Nに等しい複数のOCTA正面画像1700が入力されるように構成する。図17では、説明の簡便化のためN=4の例を示している。学習済モデルは、N+1に等しい数の要素の重みベクトル(評価値w1~w5)を出力する。ここで、Nに等しい数の重みベクトル(評価値w1~w4)を含む重みベクトルの第一の要素1720は、入力された各OCTA正面画像のCNVの存在確率に対応し、重みベクトルの第二の要素1725(評価値w5)は入力画像のいずれにもCNVが存在しない確率に対応する。
FIG. 17 is a diagram for explaining the configuration of the trained model according to the present embodiment. In this embodiment, as shown in FIG. 17, the trained
本実施例に係る学習データでは、入力データとして、複数の深度範囲のOCTA正面画像をランダムな順序で用いる。また、出力データとして、入力データのうちの最良の画像に対応する重みベクトルを1とする重みベクトルを用いる。例として、N=4のOCTA正面画像がCNVを有する眼のデータから提供され、第3の入力データとして最良の画像が提供された場合には、学習処理で与える正解データとして重みベクトル(0,0,1,0,0)を用いる。一方、OCTA正面画像が正常な眼のデータから提供された場合、学習処理で与える正解データとしては常に重みベクトル(0,0,0,0,1)を用いる。このような学習を行った学習済モデル1710は、入力された複数の深度範囲の全てのOCTA正面画像から一度に評価値を出力できる。
In the learning data according to this embodiment, OCTA front images having a plurality of depth ranges are used as input data in a random order. Further, as the output data, a weight vector having a weight vector of 1 corresponding to the best image among the input data is used. As an example, when the OCTA front image with N = 4 is provided from the data of the eye having CNV and the best image is provided as the third input data, the weight vector (0,) is given as the correct answer data in the learning process. 0,1,0,0) is used. On the other hand, when the OCTA front image is provided from normal eye data, the weight vector (0,0,0,0,1) is always used as the correct answer data given in the learning process. The trained
また、本実施例では、学習済モデルから出力される評価値(重みベクトル)のインデックスのうち最も高い評価値のインデックスは、最適な深度範囲の正面画像のインデックスに対応する。そのため、正面画像決定部343は、当該最も高い評価値のインデックスに基づいて、最適な深度範囲を判断することができる。
Further, in this embodiment, the index of the highest evaluation value among the indexes of the evaluation values (weight vectors) output from the trained model corresponds to the index of the front image in the optimum depth range. Therefore, the front
本実施例によれば、学習済モデル1710を用いて、同時に異なる深度範囲に対応する複数の正面画像の全てを比較することができ、より信頼性の高い比較を行うことができると期待できる。また、ステップS1002における正面画像決定処理のフローを単一のステップに単純化できる。
According to this embodiment, it is expected that the trained
なお、本実施例に係る学習済モデルを用いる際には、学習時の入力データの数と同数の入力データを入力する必要がある。そのため、例えば、学習時の入力データの数を比較的多く設定し、学習済モデルの運用時に比較したい正面画像の数が少ない場合には、比較した正面画像に加えて、予め設定されたCNVが存在しない正面画像等のダミーの画像を入力してもよい。また、実施例3と同様に、学習済モデル1710への追加の入力画像として、網膜表層のOCTA正面画像を入力するようにしてもよい。
When using the trained model according to this embodiment, it is necessary to input the same number of input data as the number of input data at the time of training. Therefore, for example, if the number of input data at the time of training is set relatively large and the number of front images to be compared during operation of the trained model is small, a preset CNV is added to the compared front images. A dummy image such as a front image that does not exist may be input. Further, as in the third embodiment, the OCTA front image of the surface layer of the retina may be input as an additional input image to the trained
(実施例5)
実施例3では、正面画像決定部343は、学習済モデル1710に、追加の入力画像として、網膜表層のOCTA正面画像を入力した。これに対し、実施例5では、追加の入力画像として、網膜表層のOCTA正面画像の代わりに、入力される正面画像のそれぞれに対応する深度範囲の輝度のEn-Face画像が入力されるように学習済モデルを構成する。
(Example 5)
In Example 3, the frontal
以下、図18を参照して、本実施例に係る画像処理装置について説明する。なお、本実施例に係る画像処理装置の構成は、実施例3に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。以下、本実施例に係る画像処理装置について、実施例2に係る画像処理装置300との違いを中心に説明する。
Hereinafter, the image processing apparatus according to this embodiment will be described with reference to FIG. Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the third embodiment, the description thereof will be omitted using the same reference numerals. Hereinafter, the image processing apparatus according to the present embodiment will be described focusing on the difference from the
図18は本実施例に係る学習済モデルの構成を説明するための図である。本実施例では、図18に示すように、学習済モデル1810を、2枚のOCTA正面画像1801,1802の他に、OCTA正面画像1801,1802のそれぞれに対応する深度範囲の輝度のEn-Face画像1805,1806が入力されるように構成する。
FIG. 18 is a diagram for explaining the configuration of the trained model according to this embodiment. In this embodiment, as shown in FIG. 18, the trained
なお、本実施例に係る学習データは、実施例3に係る学習データと同様に、入力データとして、2つのOCTA正面画像と共にこれらに対応する深度範囲の輝度のEn-Face画像を用いる。一方、正解データ(出力データ)は、実施例2に係る正解データと同様のものであってよい。 As the learning data according to the present embodiment, similarly to the learning data according to the third embodiment, as input data, an En-Face image having a brightness in the depth range corresponding to the two OCTA front images is used. On the other hand, the correct answer data (output data) may be the same as the correct answer data according to the second embodiment.
このような学習を行った学習済モデルを用いることで、輝度のEn-Face画像の特徴も考慮した比較を行うことができる。そのため、本実施例によれば、より信頼性の高い比較を行うことができる。 By using the trained model that has been trained in this way, it is possible to make a comparison in consideration of the characteristics of the En-Face image of luminance. Therefore, according to this embodiment, it is possible to make a more reliable comparison.
なお、本実施例では、学習済モデルに入力される追加の画像として、入力されるOCTA正面画像の深度範囲に対応する輝度のEn-Face画像を用いた。しかしながら、学習済モデルに入力される追加の画像はこれに限られず、例えば、眼底カメラ画像、走査レーザー眼球光学画像(SLO画像)、眼道血管造影画像、眼道オート蛍光画像、又はインドシアニン緑血管造影画像などの異なる画像化モダリティから得られた画像を用いてもよい。なお、これらの場合には、学習データの入力データとして、学習済モデルに入力される追加の画像に対応する画像化モダリティを用いて、入力データとなる正面画像を取得した被検眼から得られた画像を用いればよい。 In this embodiment, as an additional image to be input to the trained model, an En-Face image having a brightness corresponding to the depth range of the input OCTA front image was used. However, the additional images input to the trained model are not limited to this, for example, fundus camera images, scanning laser eye optical images (SLO images), ocular angiography images, ocular autofluorescence images, or indocyanine green. Images obtained from different imaging modalities, such as angiography images, may be used. In these cases, as the input data of the training data, the imaging modality corresponding to the additional image input to the trained model was used, and the front image as the input data was obtained from the subject to be inspected. Images may be used.
また、比較される正面画像を輝度のEn-Face画像とする場合には、追加の画像として比較される輝度のEn-Face画像の深度範囲に対応するOCTA正面画像を用いることができる。この場合、学習データの入力データも同様に、比較される正面画像として輝度のEn-Face画像を用い、追加の画像として比較される輝度のEn-Face画像の深度範囲に対応するOCTA正面画像を用いればよい。 When the front image to be compared is an En-Face image of brightness, an OCTA front image corresponding to the depth range of the En-Face image of brightness to be compared can be used as an additional image. In this case, the input data of the training data also uses the brightness En-Face image as the front image to be compared, and the OCTA front image corresponding to the depth range of the brightness En-Face image to be compared as the additional image. You can use it.
上記のように、本実施例に係る正面画像生成部342は、少なくとも2つの正面画像に加えて、該少なくとも2つの正面画像とは異なる画像(追加の画像)を学習済モデルに入力する。ここで、学習済モデルに入力される異なる画像は、学習済モデルに入力される少なくとも2つの正面画像に対応する少なくとも2つの輝度のEn-Face画像又はOCTA正面画像とすることができる。また、学習済モデルに入力される異なる画像は、光干渉断層撮影装置以外のモダリティにより取得された被検眼の画像であってもよい。なお、正面画像決定部343は、当該少なくとも2つの正面画像及び異なる画像のそれぞれを学習済モデルの異なるチャネルに入力することができる。本実施例によれば、追加の画像の特徴も考慮した比較を行うことができ、より信頼性の高い比較を行うことができる。
As described above, the front
なお、追加の画像は、網膜表層のOCTA正面画像や、学習済モデルに入力される少なくとも2つの正面画像に対応する上記輝度のEn-Face画像又はOCTA正面画像、及び他のモダリティにより取得された被検眼の画像の組み合わせであってもよい。この場合、学習データとしては、学習済モデルに入力される正面画像及び追加の画像に対応する画像を用いればよい。例えば、追加の画像として、網膜表層のOCTA正面画像、及び学習済モデルに入力される少なくとも2つの正面画像に対応する輝度のEn-Face画像が用いられる場合を考える。この場合には、学習データの入力データにも、網膜表層のOCTA正面画像、及び評価を行う正面画像に対応する輝度のEn-Face画像を用いればよい。 The additional image was acquired by the OCTA front image of the surface layer of the retina, the En-Face image or OCTA front image of the above brightness corresponding to at least two front images input to the trained model, and other modality. It may be a combination of images of the eye to be inspected. In this case, as the training data, an image corresponding to the front image and the additional image input to the trained model may be used. For example, consider the case where an OCTA frontal image of the surface layer of the retina and an En-Face image of brightness corresponding to at least two frontal images input to the trained model are used as additional images. In this case, as the input data of the training data, an OCTA front image of the surface layer of the retina and an En-Face image having a brightness corresponding to the front image to be evaluated may be used.
(実施例6)
以下、図19を参照して、実施例6に係る画像処理装置について説明する。本実施例では、正面画像生成部342が生成するOCTA正面画像の複数の深度範囲は、事前に定義された投影構成リストに基づいて決定される。また、本実施例では、学習済モデルに入力されるOCTA正面画像として、OCTA正面画像の解像度を低くしたサムネイル画像を用いる。
(Example 6)
Hereinafter, the image processing apparatus according to the sixth embodiment will be described with reference to FIG. In this embodiment, the plurality of depth ranges of the OCTA front image generated by the front
本実施例に係る画像処理装置の構成は、実施例2に係る画像処理装置の構成と同様であるため、同じ参照符号を用いて説明を省略する。なお、本実施例に係る一連の処理は、正面画像生成処理のみが実施例2の処理と異なり、他の処理は実施例2に係る一連の処理と同様であるため、実施例2に係る一連の処理との違いを中心に説明する。図19は、本実施例に係る正面画像生成処理のフローチャートを示す。本実施例に係る正面画像生成処理が開始されると、処理はステップS1901に移行する。 Since the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the second embodiment, the description thereof will be omitted using the same reference numerals. In the series of processes according to the present embodiment, only the front image generation process is different from the process of the second embodiment, and the other processes are the same as the series of processes according to the second embodiment. Therefore, the series of processes according to the second embodiment. The difference from the processing of is mainly explained. FIG. 19 shows a flowchart of the front image generation process according to the present embodiment. When the front image generation process according to this embodiment is started, the process proceeds to step S1901.
ステップS1901では、投影範囲制御部341は、生成されたモーションコントラスト画像と、層認識結果と、記憶部305に記憶されている投影構成リストとに基づいて、OCTA正面画像の生成に用いる3次元モーションコントラストデータを特定する。また、投影範囲制御部341は、投影構成リストに基づいて、各OCTA正面画像についての投影方法を特定する。正面画像生成部342は、投影範囲制御部341によって特定された3次元モーションコントラストデータ及び投影方法によって、3次元モーションコントラストデータを2次元平面に投影し、OCTA正面画像の低解像度のサムネイル画像を生成する。
In step S1901, the projection
ここで、投影構成リストには、深度範囲の上端及び下端の定義、並びに投影方法が含まれる。なお、投影構成リストに定義される投影方法は、公知の任意の投影方法であってよく、例えば、平均画像投影(AIP)又は最大画像投影(MIP)であってよい。以下の表2に本実施例の一態様に従った投影構成リストの例を示す。
本実施例の一態様に係る投影構成リストは、異なる形態のCNVを有する患者の眼の98個のデータに基づいて、以下のように決定された。まず、各検査について専門家によって、深度範囲(上端及び下端)を決定し、投影方法を選択することによって、最適な品質で完全なCNVを表す画像を得るために投影構成を決定した。次に、専門家によって決定された投影構成の分布を分析し、専門家によって決定された98個の投影構成を上記の17個の投影構成にグループ化した。 The projection configuration list according to one aspect of this example was determined as follows, based on 98 data of the eyes of patients with different forms of CNV. First, for each inspection, experts determined the depth range (top and bottom) and selected the projection method to determine the projection configuration to obtain an image representing complete CNV with optimum quality. Next, the distribution of projection configurations determined by the expert was analyzed, and the 98 projection configurations determined by the expert were grouped into the above 17 projection configurations.
なお、投影構成の数と定義は上記の投影構成リストに記載のものに限定されず、最終的な投影構成リストは、分析されたケースの数とバリエーション、及びグループ化の基準と病理の種類によって異なってよい。また、必要に応じて、ユーザが優れた画像品質を提供するいくつかの追加の投影設定を見つけた場合、ユーザが事前定義された投影構成リストに新しい投影構成を追加してもよい。なお、学習済モデルの学習データとして十分に多くの異なる深度範囲や投影方法に関するOCTA正面画像を用いている場合には、投影構成リストに投影構成を追加しても、機械学習モデルの再設計や再トレーニングは必要ない。また、学習済モデルの学習データとして用いたOCTA正面画像に関する深度範囲や投影方法は、投影構成リストに定義されている深度範囲や投影方法と同一でなくてもよい。 Note that the number and definition of projection configurations is not limited to those listed above, and the final projection configuration list depends on the number and variation of cases analyzed, as well as grouping criteria and pathological types. It may be different. Also, if desired, the user may add a new projection configuration to the predefined projection configuration list if the user finds some additional projection settings that provide excellent image quality. If the training data of the trained model uses OCTA frontal images with sufficiently different depth ranges and projection methods, even if the projection configuration is added to the projection configuration list, the machine learning model can be redesigned. No retraining required. Further, the depth range and the projection method regarding the OCTA front image used as the training data of the trained model do not have to be the same as the depth range and the projection method defined in the projection configuration list.
また、OCTA正面画像のサムネイル画像とは、画像サイズが小さい(低解像度の)OCTA正面画像を意味する。例えば、OCTA検査のスキャンサイズが464×464スキャンで構成される場合、フルサイズの正面画像の解像度は464×464となる。これに対し、サムネイル画像の解像度は、例えば、232×232であってよい。サムネイル画像の生成方法としては、正面画像生成部342が、フルサイズのOCTA正面画像を生成し、目標の解像度までOCTA正面画像の解像度を低減する方法で行われてもよいし、他の方法によって行われてもよい。なお、サムネイル画像の解像度は、この値に限定されず、フルサイズの正面画像の解像度より低い値であればよく、例えば、232×232よりも小さな値でもよい。なお、輝度のEn-Face画像を用いる場合には、輝度のEn-Face画像のサムネイル画像が、OCTA正面画像のサムネイル画像と同様に生成され、比較に用いられればよい。
Further, the thumbnail image of the OCTA front image means an OCTA front image having a small image size (low resolution). For example, if the scan size of the OCTA test consists of 464 x 464 scans, the resolution of the full size front image will be 464 x 464. On the other hand, the resolution of the thumbnail image may be, for example, 232 × 232. As a method of generating a thumbnail image, the front
次に、ステップS1902では、正面画像決定部343が、学習済モデルを用いて、投影構成リストで定義された投影構成(#1~#17)のOCTA正面画像のサムネイル画像のペアを比較し、最適な深度範囲及び投影方法(投影構成)を選択する。ステップS1902での最適な深度範囲及び投影方法を求める一連の処理は、実施例2に係る正面画像決定処理(S1002)と同様に行われてよい。ただし、ステップS1902では、勝者AWであるサムネイル画像を決定し、決定したサムネイル画像に対応する深度範囲及び投影方法を選択する点が、実施例2に係る正面画像決定処理と異なる。
Next, in step S1902, the front
さらに、本実施例では、サムネイル画像を学習済モデルへの入力として用いる点が、実施例2に係る正面画像決定処理(ステップS1002)と異なる。本実施例では、このような処理を行うため、学習データの入力データについてもOCTA正面画像のサムネイル画像を用いる。なお、サムネイル画像の生成方法は上述の方法であってよい。また、ステップS1901において、正面画像生成部342がOCTA正面画像のサムネイル画像を生成する際には、学習データの入力データに用いられたサムネイル画像と同一の解像度を有するサムネイル画像を生成することができる。さらに、正面画像生成部342によるサムネイル画像の生成方法は、入力データに用いられるサムネイル画像の生成方法と同一の方法とすることができる。
Further, in this embodiment, the thumbnail image is used as an input to the trained model, which is different from the front image determination process (step S1002) according to the second embodiment. In this embodiment, in order to perform such processing, the thumbnail image of the OCTA front image is also used as the input data of the training data. The thumbnail image generation method may be the above-mentioned method. Further, in step S1901, when the front
このような学習データを用いて学習を行った学習済モデルを用いることで、正面画像決定部343は、投影構成リストに基づく各OCTA正面画像のサムネイル画像から、CNVの観察に適切な投影構成を選択することができる。なお、本実施例では、画像の比較にサムネイル画像を用いることから、比較処理に用いるリソース及び処理時間を抑えることができ、効率的に比較処理を行うことができる。
By using the trained model trained using such training data, the front
次に、ステップS1903では、正面画像生成部342が、ステップS1902で求めた投影構成について、フルサイズのOCTA正面画像を生成する。なお、ステップS1901においてサムネイル画像を生成する際にフルサイズのOCTA正面画像を生成している場合には、正面画像生成部342は、ステップS1902で求めた投影構成に対応するフルサイズのOCTA正面画像を特定すればよい。ステップS1903においてフルサイズのOCTA正面画像が生成されると、処理はステップS704へと移行する。以降の処理は実施例2と同様であるため説明を省略する。
Next, in step S1903, the front
本実施例では、正面画像生成部342は、予め定義された異なる深度範囲を含む投影構成リストを用いて、被検眼の3次元のデータから異なる深度範囲に対応する複数の正面画像を生成する。これにより、正面画像生成部342は、学習済モデルの入力データとして用いられる少なくとも2つの正面画像を含む複数の正面画像を取得する。また、正面画像決定部343は、評価値を用いて深度範囲を決定し、決定された深度範囲を用いて生成した画像を出力画像として決定する。本実施例によれば、予め定義された投影構成リストに基づいて、複数の深度範囲及び投影方法のOCTA正面画像を生成するため、撮影時の深度範囲や投影方法の設定に係る操作の煩雑さを低減することができる。
In this embodiment, the front
なお、投影構成リストは、上端と下端によって定義された深度範囲及び正面画像の画素値を算出するための投影方法を含む。また、投影構成リストに含まれる深度範囲の上端と下端は、被検眼の構造に基づいて定義されることができる。被検眼の構造は、例えば、眼の層の境界を含む。また、深度範囲の上端と下端は、眼の層の境界からオフセットされた深度を含むことができる。さらに、投影構成リストは、画像処理装置300の記憶部305に検索テーブルとして記憶されることができ、画像処理装置300は、投影構成リストを参照することで、各正面画像に対応する深度範囲や投影方法を検索し、特定することができる。
The projection configuration list includes a projection method for calculating the depth range defined by the upper and lower ends and the pixel value of the front image. In addition, the upper and lower ends of the depth range included in the projection configuration list can be defined based on the structure of the eye to be inspected. The structure of the eye to be inspected includes, for example, the boundaries of the layers of the eye. Also, the top and bottom edges of the depth range can include depth offset from the boundaries of the eye layer. Further, the projection configuration list can be stored as a search table in the
さらに、本実施例では学習データは、被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を含む。正面画像生成部342は、被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を生成する。また、正面画像生成部342は、正面画像決定部343によって決定された深度範囲に対応する正面画像として、サムネイル画像よりも解像度が高いフルサイズの正面画像を生成する。
Further, in this embodiment, the learning data includes thumbnail images of a plurality of front images as a plurality of front images corresponding to different depth ranges of the eye to be inspected. The front
このような構成により、学習済モデルの入力に、フルサイズの画像の代わりに、解像度が低減されたサムネイル画像が使用されるため、比較処理に用いるリソース及び処理時間を抑えることができ、効率的に処理を行うことができる。さらに、適切な学習を行った学習済モデルを用いて画像を評価し、最適な深度範囲を決定するため、サムネイル画像を入力として用いても、信頼性の高い評価を実現することができる。また、投影構成リストに新たな投影構成を登録することができるため、様々な病変の投影にも容易に対応することができる。 With such a configuration, thumbnail images with reduced resolution are used instead of full-size images for input of the trained model, so that resources and processing time used for comparison processing can be reduced, which is efficient. Can be processed. Further, since the image is evaluated using the trained model that has been appropriately trained and the optimum depth range is determined, highly reliable evaluation can be realized even if the thumbnail image is used as an input. In addition, since a new projection configuration can be registered in the projection configuration list, it is possible to easily support the projection of various lesions.
なお、本実施例では、投影構成に深度範囲と投影方法が含まれる構成とした。しかしながら、投影構成に含まれる項目はこれに限られない。例えば、投影方法は任意の方法に固定とし、深度範囲のみが投影構成に含まれてもよい。 In this embodiment, the projection configuration includes the depth range and the projection method. However, the items included in the projection configuration are not limited to this. For example, the projection method may be fixed to any method, and only the depth range may be included in the projection configuration.
また、上記実施例及び変形例で説明したGUI等の表示態様は、上述のものに限られず、所望の構成に応じて任意に変更されてよい。例えば、GUI500等について、OCTA正面画像、断層画像、及び深度範囲を表示すると記載したが、断層画像上に、モーションコントラストデータを表示してもよい。この場合、どの深度にモーションコントラスト値が分布しているのかを合わせて確認することができる。また、画像の表示等に色を用いるなどしてもよい。
Further, the display mode of the GUI and the like described in the above-mentioned Examples and Modifications is not limited to the above-mentioned ones, and may be arbitrarily changed according to a desired configuration. For example, although it is described that the OCTA front image, the tomographic image, and the depth range are displayed for the
さらに、上記実施例及び変形例に係る抽出対象の評価用の学習済モデルでは、正面画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。また、学習モデルに2枚の正面画像を入力すると、それぞれの正面画像における抽出対象の存在を示す評価値が出力されるため、学習済モデルでは、それぞれの正面画像における抽出対象に対応する輝度値等を比較するような処理が行われていると考えられる。 Further, in the trained model for evaluation of the extraction target according to the above embodiment and the modified example, the magnitude of the brightness value of the front image, the order and inclination of the bright part and the dark part, the position, the distribution, the continuity, etc. are one of the feature quantities. It can be considered that it is extracted as a part and used for the estimation process. Further, when two front images are input to the training model, an evaluation value indicating the existence of the extraction target in each front image is output. Therefore, in the trained model, the brightness value corresponding to the extraction target in each front image is output. It is considered that processing such as comparison is performed.
なお、上記実施例及び変形例では、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD-OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS-OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine-OCT装置(あるいはSS-Line-OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field-OCT装置(あるいはSS-Full Field-OCT装置)にも本発明を適用することもできる。さらに、波面補償光学系を用いた波面補償OCT(AO-OCT)装置、又は偏光位相差や偏光解消に関する情報を可視化するための偏光OCT(PS-OCT)装置にも本発明を適用することができる。 In the above embodiments and modifications, the spectral domain OCT (SD-OCT) device using the SLD as the light source has been described as the OCT device, but the configuration of the OCT device according to the present invention is not limited to this. For example, the present invention can be applied to any other type of OCT device such as a wavelength sweep type OCT (SS-OCT) device using a wavelength sweep light source capable of sweeping the wavelength of emitted light. Further, the present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. The present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light. Further, the present invention may be applied to a wave surface adaptive optics (AO-OCT) device using an adaptive optics system or a polarized OCT (PS-OCT) device for visualizing information on polarization phase difference and polarization elimination. can.
上記実施例及び変形例では、分割手段としてカプラーを使用した光ファイバ光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、光干渉部100及び走査光学系200の構成は、上記の構成に限られず、光干渉部100及び走査光学系200に含まれる構成の一部をこれらとは別体の構成としてもよい。
In the above-described embodiment and modification, an optical fiber optical system using a coupler is used as the dividing means, but a spatial optical system using a collimator and a beam splitter may be used. Further, the configuration of the
また、上記実施例及び変形例では、画像処理装置300は、光干渉部100で取得された干渉信号や再構成部301で生成された断層データ等を取得した。しかしながら、画像処理装置300がこれらの信号や画像を取得する構成はこれに限られない。例えば、画像処理装置300は、画像処理装置300とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号やデータを取得してもよい。
Further, in the above embodiment and the modified example, the
なお、上記実施例及び変形例に係る学習済モデルは画像処理装置300に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、画像処理装置300と接続される別のサーバの装置等に設けられてもよい。この場合には、画像処理装置300は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。また、学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。
The trained model according to the above embodiment and the modified example can be provided in the
なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、学習部(不図示)の一例である正面画像決定部343による処理には、CPUに加えてGPUを用いてもよい。この場合には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPU又はGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
The GPU can perform efficient operations by processing more data in parallel. Therefore, when learning is performed a plurality of times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, a GPU may be used in addition to the CPU for the processing by the front
(その他の実施例)
本発明は、上述の実施例及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、一つ又は複数のプロセッサ若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサ若しくは回路のネットワークを含みうる。
(Other examples)
The present invention is also a process of supplying a program that realizes one or more functions of the above-described examples and modifications to a system or device via a network or a storage medium, and the computer of the system or device reads and executes the program. It is feasible. A computer may have one or more processors or circuits and may include multiple separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.
プロセッサ又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサ又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).
以上、実施例及び変形例を参照して本発明について説明したが、本発明は上記実施例及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to Examples and Modifications, the present invention is not limited to the above Examples and Modifications. The present invention also includes inventions modified to the extent not contrary to the gist of the present invention, and inventions equivalent to the present invention. In addition, the above-mentioned Examples and Modifications can be appropriately combined as long as they do not contradict the gist of the present invention.
300:画像処理装置、342:正面画像生成部(取得部)、343:正面画像決定部(評価部、決定部) 300: Image processing device, 342: Front image generation unit (acquisition unit), 343: Front image determination unit (evaluation unit, determination unit)
Claims (18)
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する評価部と、
前記評価値を用いて、前記複数の正面画像のうち少なくとも一つを出力画像として決定する決定部と、
を備える、画像処理装置。 An acquisition unit that acquires multiple front images corresponding to different depth ranges of the three-dimensional data of the eye to be inspected, and an acquisition unit.
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. An evaluation unit that acquires an evaluation value that evaluates the existence of a target area by using at least two front images, and an evaluation unit.
A determination unit that determines at least one of the plurality of front images as an output image using the evaluation value, and a determination unit.
An image processing device.
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得する評価部と、
前記評価値を用いて深度範囲を決定し、前記決定された深度範囲を用いて生成した画像を出力画像として決定する決定部と、
を備える、画像処理装置。 An acquisition unit that acquires multiple front images corresponding to different depth ranges of the three-dimensional data of the eye to be inspected, and an acquisition unit.
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. An evaluation unit that acquires an evaluation value that evaluates the existence of a target area by using at least two front images, and an evaluation unit.
A determination unit that determines the depth range using the evaluation value and determines an image generated using the determined depth range as an output image.
An image processing device.
前記取得部は、
被検眼の異なる深度範囲に対応する複数の正面画像として複数の正面画像のサムネイル画像を生成し、
前記決定された深度範囲に対応する正面画像としてサムネイル画像よりも解像度が高い正面画像を生成する、請求項2に記載の画像処理装置。 The training data includes thumbnail images of a plurality of front images as a plurality of front images corresponding to different depth ranges of the eye to be inspected.
The acquisition unit
Generate thumbnail images of multiple front images as multiple front images corresponding to different depth ranges of the eye to be inspected.
The image processing apparatus according to claim 2, wherein a front image having a higher resolution than a thumbnail image is generated as a front image corresponding to the determined depth range.
前記深度範囲の上端と下端は、被検眼の構造に基づいて定義される、請求項4に記載の画像処理装置。 The list includes projection methods for calculating the depth range and frontal image pixel values defined by the top and bottom edges.
The image processing apparatus according to claim 4, wherein the upper end and the lower end of the depth range are defined based on the structure of the eye to be inspected.
前記深度範囲の上端と下端は、前記境界からオフセットされた深度を含む、請求項5に記載の画像処理装置。 The structure of the eye to be inspected includes the boundaries of the layers of the eye, including the boundaries of the layers of the eye.
The image processing apparatus according to claim 5, wherein the upper end and the lower end of the depth range include a depth offset from the boundary.
前記異なる画像は、被検眼の網膜表層に対応する正面画像、前記少なくとも2つの正面画像に対応する少なくとも2つの輝度のEn-Face画像又はOCTA正面画像、及び光干渉断層撮影装置以外のモダリティにより取得された被検眼の画像のうちの少なくとも1つである、請求項1乃至7のいずれか一項に記載の画像処理装置。 In addition to the at least two front images, the evaluation unit inputs an image different from the at least two front images into the trained model.
The different images are acquired by a front image corresponding to the surface layer of the retina of the eye to be inspected, an En-Face image or OCTA front image having at least two brightnesses corresponding to the at least two front images, and a modality other than the optical interference tomography device. The image processing apparatus according to any one of claims 1 to 7, which is at least one of the images of the subject to be inspected.
前記3次元のデータは3次元のモーションコントラストデータである、請求項1乃至12のいずれか一項に記載の画像処理装置。 The target area is the area of new blood vessels.
The image processing apparatus according to any one of claims 1 to 12, wherein the three-dimensional data is three-dimensional motion contrast data.
前記3次元のデータは乳頭部の3次元の断層データである、請求項1乃至12のいずれか一項に記載の画像処理装置。 The target area is the area of the sieve plate, and is the area of the sieve plate.
The image processing apparatus according to any one of claims 1 to 12, wherein the three-dimensional data is three-dimensional tomographic data of the papilla.
前記3次元のデータは黄斑部の3次元のモーションコントラストデータである、請求項1乃至12のいずれか一項に記載の画像処理装置。 The target area is the area of the capillary aneurysm and
The image processing apparatus according to any one of claims 1 to 12, wherein the three-dimensional data is three-dimensional motion contrast data of the yellow spot portion.
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得すること、
前記評価値を用いて、前記複数の正面画像のうち少なくとも一つを出力画像として決定すること、
を含む、画像処理方法。 Acquiring multiple frontal images corresponding to different depth ranges of 3D data of the eye to be inspected,
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. Obtaining an evaluation value that evaluates the existence of the target area by using at least two front images,
Using the evaluation value, at least one of the plurality of front images is determined as an output image.
Image processing methods, including.
被検眼の異なる深度範囲に対応する複数の正面画像を含む学習データを用いて学習して得た学習済モデルの異なるチャネルに入力される入力データとして、前記取得された複数の正面画像のうちの少なくとも2つの正面画像を用いることにより、対象領域の存在を評価した評価値を取得することと、
前記評価値を用いて深度範囲を決定し、前記決定された深度範囲を用いて生成した画像を出力画像として決定することと、
を含む、画像処理方法。 Acquiring multiple frontal images corresponding to different depth ranges of the 3D data of the eye to be inspected,
Of the plurality of acquired front images, as input data input to different channels of the trained model obtained by training using training data including a plurality of front images corresponding to different depth ranges of the eye to be inspected. By using at least two front images, it is possible to obtain an evaluation value that evaluates the existence of the target area.
The depth range is determined using the evaluation value, and the image generated using the determined depth range is determined as the output image.
Image processing methods, including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020212249A JP2022098699A (en) | 2020-12-22 | 2020-12-22 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020212249A JP2022098699A (en) | 2020-12-22 | 2020-12-22 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022098699A true JP2022098699A (en) | 2022-07-04 |
Family
ID=82261897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020212249A Pending JP2022098699A (en) | 2020-12-22 | 2020-12-22 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022098699A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023099280A (en) * | 2021-12-16 | 2023-07-12 | 株式会社大都技研 | Game machine |
-
2020
- 2020-12-22 JP JP2020212249A patent/JP2022098699A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023099280A (en) * | 2021-12-16 | 2023-07-12 | 株式会社大都技研 | Game machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11935241B2 (en) | Image processing apparatus, image processing method and computer-readable medium for improving image quality | |
US20210158525A1 (en) | Medical image processing apparatus, medical image processing method, computer-readable medium, and learned model | |
US20210304363A1 (en) | Image processing apparatus, image processing method and computer-readable medium | |
JP7269413B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM | |
US20210183019A1 (en) | Image processing apparatus, image processing method and computer-readable medium | |
US20210224957A1 (en) | Medical image processing apparatus, medical image processing method and computer-readable medium | |
US9918625B2 (en) | Image processing apparatus and control method of image processing apparatus | |
JP2023009530A (en) | Image processing method, image processing device, and program | |
WO2020137678A1 (en) | Image processing device, image processing method, and program | |
CN114760906A (en) | Medical image processing apparatus, optical coherence tomography apparatus, medical image processing method, and program | |
WO2020050308A1 (en) | Image processing device, image processing method and program | |
JP2019177032A (en) | Ophthalmologic image processing device and ophthalmologic image processing program | |
CN113543695A (en) | Image processing apparatus, image processing method, and program | |
WO2021100694A1 (en) | Image processing device, image processing method, and program | |
JP2022098699A (en) | Image processing device, image processing method, and program | |
WO2020075719A1 (en) | Image processing device, image processing method, and program | |
JP7111874B2 (en) | ophthalmic imaging equipment | |
JP2020058615A (en) | Image processing device, learned model, image processing method, and program | |
JP2020032072A (en) | Image processing device, image processing method and program | |
JP7237786B2 (en) | Image processing device, image processing method | |
JP7488934B2 (en) | IMAGE PROCESSING APPARATUS, OPERATION METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM | |
WO2023199847A1 (en) | Image processing method, image processing device, and program | |
JP7086708B2 (en) | Image processing equipment, image processing methods and programs | |
JP2021058285A (en) | Image processing device, image processing method and program | |
JP2024001913A (en) | Image processing method, image processing apparatus, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20220630 |