JP7435067B2 - Ophthalmology image processing device and ophthalmology image processing program - Google Patents

Ophthalmology image processing device and ophthalmology image processing program Download PDF

Info

Publication number
JP7435067B2
JP7435067B2 JP2020042503A JP2020042503A JP7435067B2 JP 7435067 B2 JP7435067 B2 JP 7435067B2 JP 2020042503 A JP2020042503 A JP 2020042503A JP 2020042503 A JP2020042503 A JP 2020042503A JP 7435067 B2 JP7435067 B2 JP 7435067B2
Authority
JP
Japan
Prior art keywords
image
ophthalmological
input
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020042503A
Other languages
Japanese (ja)
Other versions
JP2021142088A (en
Inventor
祐輔 坂下
佳紀 熊谷
涼介 柴
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2020042503A priority Critical patent/JP7435067B2/en
Publication of JP2021142088A publication Critical patent/JP2021142088A/en
Application granted granted Critical
Publication of JP7435067B2 publication Critical patent/JP7435067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、被検眼の眼科画像を処理する眼科画像処理装置および眼科画像処理プログラムに関する。 The present disclosure relates to an ophthalmological image processing device and an ophthalmological image processing program that process an ophthalmological image of an eye to be examined.

従来、高画質の画像を取得するための種々の技術が提案されている。例えば、特許文献1に記載の眼科画像処理装置は、機械学習アルゴリズムによって訓練された数学モデルに基画像を入力することで、基画像よりも高画質の目的画像を取得する。数学モデルは、低解像度訓練画像を入力用訓練データとし、且つ、高解像度訓練画像を出力用訓練データとして予め訓練されている。 Conventionally, various techniques for acquiring high-quality images have been proposed. For example, the ophthalmological image processing apparatus described in Patent Document 1 acquires a target image of higher quality than the base image by inputting the base image to a mathematical model trained by a machine learning algorithm. The mathematical model is trained in advance using low-resolution training images as input training data and high-resolution training images as output training data.

特開2020-678号公報JP 2020-678 Publication

特許文献1に記載の眼科画像処理装置によると、高画質(高解像度)の眼科画像が実際に撮影されなくても、高画質の目的画像が取得され得る。しかし、実際に撮影された画像から、高画質化以外の他の効果を奏する画像を得ることは、従来の技術では困難であった。 According to the ophthalmologic image processing apparatus described in Patent Document 1, a high-quality target image can be obtained even if a high-quality (high-resolution) ophthalmologic image is not actually captured. However, with conventional techniques, it has been difficult to obtain images that have effects other than high image quality from images that have actually been photographed.

本開示の典型的な目的は、実際に撮影された画像から有用な画像を取得するための眼科画像処理装置および眼科画像処理プログラムを提供することである。 A typical objective of the present disclosure is to provide an ophthalmological image processing device and an ophthalmic image processing program for acquiring useful images from images actually taken.

本開示における典型的な実施形態が提供する眼科画像処理装置の第1態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件の指定指示の入力を受け付ける撮影条件入力ステップと、機械学習アルゴリズムによって訓練された数学モデルに、前記撮影条件入力ステップにおいて入力された前記撮影条件と、前記基画像を入力することで、入力された加算枚数以外の前記撮影条件で撮影された画像に相当する目的画像を取得する目的画像取得ステップと、を実行し、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されている。
本開示における典型的な実施形態が提供する眼科画像処理装置の第2態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、前記基画像が前記OCT装置によって撮影された際の撮影条件を取得する基画像撮影条件取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに、前記基画像撮影条件取得ステップにおいて取得された前記基画像の前記撮影条件と、前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が異なる画像に相当する目的画像を取得する目的画像取得ステップと、を実行し、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されている。
本開示における典型的な実施形態が提供する眼科画像処理装置の第3態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、画像範囲全体のうち一部の範囲の指定指示の入力を受け付ける範囲入力ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が前記範囲入力ステップにおいて入力された範囲において異なる画像に相当する目的画像を取得する目的画像取得ステップと、を実行し、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されている。
A first aspect of an ophthalmologic image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmologic image processing apparatus that processes an ophthalmologic image that is an image of a tissue of a subject's eye, the ophthalmologic image processing apparatus including a control unit of the ophthalmologic image processing apparatus. comprises a base image acquisition step of acquiring, as a base image, an ophthalmological image photographed by an OCT device, or an arithmetic average image obtained by adding and averaging a plurality of ophthalmological images photographed at the same site of tissue by the OCT device; an imaging condition input step that accepts input of an instruction to designate an imaging condition other than the number of additional images, which is the number of ophthalmological images used for (≧1), and a mathematical model trained by a machine learning algorithm in the imaging condition input step. executing a target image acquisition step of acquiring a target image corresponding to an image photographed under the photographing conditions other than the input additional number of images by inputting the input photographing conditions and the base image; The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. Training is performed using data of the training ophthalmological images that are different from the shooting conditions of the training data as output training data.
A second aspect of an ophthalmological image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmological image processing apparatus that processes an ophthalmological image that is an image of a tissue of an eye to be examined, the control unit of the ophthalmological image processing apparatus comprises a base image acquisition step of acquiring, as a base image, an ophthalmological image photographed by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images photographed at the same site of tissue by the OCT device; A base image photographing condition acquisition step of acquiring the photographing conditions under which the image was photographed by the OCT device, and a mathematical model trained by a machine learning algorithm that includes the base image acquired in the base image photographing condition acquisition step. By inputting the imaging conditions and the base image, the number of ophthalmological images used for the arithmetic average (≧1) is added to the imaging conditions under which the base image was captured by the OCT device. a target image acquisition step of acquiring target images corresponding to images having different imaging conditions other than the number of images; The data of the training ophthalmology image is used as input training data, and the data of the training ophthalmology image whose imaging conditions other than the number of images to be added are different from the imaging conditions of the input training data is trained as output training data. There is.
A third aspect of an ophthalmological image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmological image processing apparatus that processes an ophthalmological image that is an image of a tissue of an eye to be examined, the control unit of the ophthalmological image processing apparatus a base image acquisition step of acquiring, as a base image, an ophthalmologic image captured by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmologic images captured by the OCT device at the same site of tissue; and an image range. A range input step of accepting an input for specifying a part of the range, and inputting the base image to a mathematical model trained by a machine learning algorithm, when the base image is captured by the OCT device. Acquire a target image corresponding to a different image in the range input in the range input step for the imaging condition other than the number of ophthalmological images used for the arithmetic average (≧1). performing a target image acquisition step, and the mathematical model uses data of some of the training ophthalmology images, out of a plurality of training ophthalmology images taken of the same part of the tissue, as input training data; Training is performed using data of the training ophthalmological images whose imaging conditions other than the number of images to be added differ from those of the input training data as output training data.

本開示における典型的な実施形態が提供する眼科画像処理プログラムの第1態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件の指定指示の入力を受け付ける撮影条件入力ステップと、機械学習アルゴリズムによって訓練された数学モデルに、前記撮影条件入力ステップにおいて入力された前記撮影条件と、前記基画像を入力することで、入力された加算枚数以外の前記撮影条件で撮影された画像に相当する目的画像を取得する目的画像取得ステップと、を前記眼科画像処理装置に実行させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されている。
本開示における典型的な実施形態が提供する眼科画像処理プログラムの第2態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、前記基画像が前記OCT装置によって撮影された際の撮影条件を取得する基画像撮影条件取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに、前記基画像撮影条件取得ステップにおいて取得された前記基画像の前記撮影条件と、前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が異なる画像に相当する目的画像を取得する目的画像取得ステップと、を前記眼科画像処理装置に実行させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されている。
本開示における典型的な実施形態が提供する眼科画像処理プログラムの第3態様は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、画像範囲全体のうち一部の範囲の指定指示の入力を受け付ける範囲入力ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が前記範囲入力ステップにおいて入力された範囲において異なる画像に相当する目的画像を取得する目的画像取得ステップと、を前記眼科画像処理装置に実行させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されている。
A first aspect of an ophthalmological image processing program provided by a typical embodiment of the present disclosure is an ophthalmic image processing program executed by an ophthalmic image processing apparatus that processes an ophthalmological image that is an image of a tissue of a subject's eye. The ophthalmologic image processing program is executed by the control unit of the ophthalmologic image processing device, so that an ophthalmologic image captured by the OCT device or a plurality of ophthalmologic images captured by the OCT device of the same region of tissue are averaged. a base image acquisition step of acquiring the averaged image obtained as a base image; and a photographing condition input step of receiving an instruction to designate a photographing condition other than the number of additional images, which is the number of ophthalmological images used for the averaging (≧1). By inputting the photographing conditions input in the photographing condition input step and the base image to a mathematical model trained by a machine learning algorithm, images are taken under the photographing conditions other than the input additional number of images . the ophthalmological image processing apparatus executes a target image acquisition step of acquiring a target image corresponding to the image; The data of the training ophthalmology image is used as the input training data, and the data of the training ophthalmology image whose imaging conditions other than the number of images to be added are different from the imaging conditions of the input training data is used as the output training data. .
A second aspect of the ophthalmologic image processing program provided by the exemplary embodiment of the present disclosure is an ophthalmologic image processing program executed by an ophthalmologic image processing apparatus that processes an ophthalmologic image that is an image of a tissue of a subject's eye, The ophthalmologic image processing program is executed by the control unit of the ophthalmologic image processing device, so that an ophthalmologic image captured by the OCT device or a plurality of ophthalmologic images captured by the OCT device of the same region of tissue are averaged. a base image acquisition step of acquiring the averaged image obtained as a base image; a base image photography condition acquisition step of acquiring the photography conditions under which the base image was photographed by the OCT device; By inputting the photographing conditions of the base image acquired in the base image photographing condition acquisition step and the base image into a mathematical model, the photographing conditions under which the base image was photographed by the OCT device can be calculated. and causing the ophthalmological image processing device to execute a target image acquisition step of acquiring a target image corresponding to an image with different imaging conditions other than the number of added images, which is the number of ophthalmological images used for averaging (≧1). , the mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as input training data, and the imaging conditions other than the number of images to be added are the input training data. Training is performed using data of the training ophthalmological images that are different from the shooting conditions of the training data as output training data.
A third aspect of the ophthalmologic image processing program provided by the exemplary embodiment of the present disclosure is an ophthalmologic image processing program executed by an ophthalmologic image processing apparatus that processes an ophthalmologic image that is an image of a tissue of a subject's eye, The ophthalmologic image processing program is executed by the control unit of the ophthalmologic image processing device, so that an ophthalmologic image captured by the OCT device or a plurality of ophthalmologic images captured by the OCT device of the same region of tissue are averaged. a base image acquisition step of acquiring the calculated averaged image as a base image; a range input step of accepting an input for specifying a part of the entire image range; By inputting an image, the imaging conditions other than the number of ophthalmologic images used for averaging (≧1) are changed to the imaging conditions under which the base image was captured by the OCT device. the ophthalmological image processing device executes a target image acquisition step of acquiring target images corresponding to different images in the range input in the range input step; Among the training ophthalmology images, data of some of the training ophthalmology images are used as input training data, and data of the training ophthalmology images whose imaging conditions other than the number of additional images are different from the imaging conditions of the input training data. is trained as the output training data.

本開示に係る眼科画像処理装置および眼科画像処理プログラムによると、実際に撮影された画像から有用な画像が取得される。 According to the ophthalmologic image processing device and the ophthalmologic image processing program according to the present disclosure, useful images are obtained from images that are actually photographed.

数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a mathematical model construction device 1, an ophthalmological image processing device 21, and ophthalmological image photographing devices 11A and 11B. 数学モデル構築装置1が実行する数学モデル構築処理のフローチャートである。3 is a flowchart of a mathematical model construction process executed by the mathematical model construction device 1. FIG. 入力用訓練データと出力用訓練データの取得パターンの一例を説明するための説明図である。It is an explanatory view for explaining an example of an acquisition pattern of training data for input and training data for output. 眼科画像処理装置21が実行する撮影条件変更処理のフローチャートである。It is a flowchart of the imaging condition change process executed by the ophthalmologic image processing device 21. 条件指定画面30と、目的画像表示画面40の一例を示す図である。3 is a diagram showing an example of a condition specification screen 30 and a target image display screen 40. FIG.

本開示で例示する眼科画像処理装置の制御部は、基画像取得ステップ、および目的画像取得ステップを実行する。基画像取得ステップでは、制御部は、OCT装置によって撮影された眼科画像、または、OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する。目的画像取得ステップでは、制御部は、機械学習アルゴリズムによって訓練された数学モデルに基画像を入力することで、目的画像を取得する。数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が入力用訓練データの撮影条件とは異なる訓練用眼科画像のデータを出力用訓練データとして訓練されている。取得される目的画像は、OCT装置によって基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が異なる画像に相当する。 The control unit of the ophthalmologic image processing apparatus exemplified in this disclosure executes a base image acquisition step and a target image acquisition step. In the base image acquisition step, the control unit acquires, as the base image, an ophthalmologic image captured by the OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmologic images captured by the OCT device at the same site of tissue. In the target image acquisition step, the control unit acquires the target image by inputting the base image to a mathematical model trained by a machine learning algorithm. The mathematical model uses the data of some of the training ophthalmological images taken of the same part of the tissue as the input training data, and also sets the imaging conditions other than the number of additional images as the input training data. Training is performed using training ophthalmological image data different from the imaging conditions as output training data. The target image to be acquired is an image with different imaging conditions than the imaging conditions under which the base image was taken by the OCT device, except for the number of additional images, which is the number of ophthalmological images used for averaging (≧1). Equivalent to.

本開示で例示する眼科画像処理装置によると、OCT装置によって実際に撮影された基画像から、加算枚数以外の撮影条件が基画像の撮影条件とは異なる画像に相当する目的画像が取得される。従って、ユーザにとって有用な撮影条件で撮影された画像に相当する画像が、容易に取得される。 According to the ophthalmological image processing device exemplified in the present disclosure, a target image corresponding to an image whose imaging conditions other than the number of added images are different from the imaging conditions of the base image is acquired from the base image actually captured by the OCT device. Therefore, an image corresponding to an image photographed under photographing conditions useful to the user is easily obtained.

なお、本開示では、OCT装置によって撮影された眼科画像を処理する眼科画像処理装置を例示する。しかし、本開示で例示する技術は、OCT装置以外の眼科撮影装置(例えば、走査型レーザ検眼鏡(SLO)、眼底カメラ、および角膜内皮細胞撮影装置等の少なくともいずれか)によって撮影された眼科画像を処理する眼科画像処理装置にも適用できる。 Note that this disclosure exemplifies an ophthalmologic image processing apparatus that processes an ophthalmologic image captured by an OCT device. However, the technology exemplified in the present disclosure uses ophthalmologic images captured by an ophthalmologic imaging device other than an OCT device (for example, at least one of a scanning laser ophthalmoscope (SLO), a fundus camera, and a corneal endothelial cell imaging device). It can also be applied to an ophthalmological image processing device that processes images.

加算枚数以外の撮影条件は、OCT装置における測定光と参照光の少なくともいずれかの光路長、測定光および参照光の少なくともいずれかの偏光状態、OCT信号を取得する際の受光素子の露光時間、1つのスキャンラインに対して測定光を走査させる際に取得されるAスキャンデータの数、および、Aスキャン方向の解像度の少なくともいずれかであってもよい。この場合、基画像の撮影条件とは異なる撮影条件で撮影された画像に相当する目的画像が、眼科画像処理装置によって適切に取得される。 The imaging conditions other than the number of additional images include the optical path length of at least one of the measurement light and reference light in the OCT device, the polarization state of at least one of the measurement light and reference light, the exposure time of the light receiving element when acquiring the OCT signal, It may be at least one of the number of A-scan data acquired when scanning one scan line with measurement light and the resolution in the A-scan direction. In this case, a target image corresponding to an image photographed under photographing conditions different from the photographing conditions of the base image is appropriately acquired by the ophthalmological image processing apparatus.

詳細には、数学モデルによって変更する撮影条件を光路長とする場合には、組織の深さ方向における各位置のうち、画像に鮮明に映り込む位置が変化する。変更する撮影条件を偏光状態とする場合には、偏光状態に応じて画像に現れる組織の構造の差異が変化する。変更する撮影条件を露光時間とする場合には、露光時間に起因する画像の輝度が変化する。変更する撮影条件を、スキャンライン毎のAスキャンデータの数とする場合には、スキャンライン方向(所謂Bスキャン方向)における画像の解像度が変化する。変更する撮影条件を、Aスキャン方向の解像度とする場合には、組織の深さ方向における画像の解像度が変化する。なお、数学モデルによって変更する撮影条件を、光路長、偏光状態、露光時間、Aスキャンデータの数、およびAスキャン方向の解像度とは異なる撮影条件とすることも可能である。 Specifically, when the imaging condition to be changed by a mathematical model is the optical path length, the position clearly reflected in the image changes among the positions in the depth direction of the tissue. When the photographing condition to be changed is the polarization state, the difference in tissue structure appearing in the image changes depending on the polarization state. When the photographing condition to be changed is the exposure time, the brightness of the image due to the exposure time changes. When the photographing condition to be changed is the number of A-scan data for each scan line, the resolution of the image in the scan line direction (so-called B-scan direction) changes. When the imaging condition to be changed is the resolution in the A-scan direction, the resolution of the image in the depth direction of the tissue changes. Note that the photographing conditions changed by the mathematical model can be different from the optical path length, polarization state, exposure time, number of A-scan data, and resolution in the A-scan direction.

数学モデルの訓練に用いられる入力用訓練データは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の訓練用眼科画像に基づくデータであってもよい。また、数学モデルの訓練に用いられる出力用訓練データは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、加算枚数以外の撮影条件が入力用訓練データの撮影条件とは異なる、H枚(H>L)の訓練用眼科画像の加算平均画像のデータであってもよい。この場合、OCT装置によって実際に撮影された基画像から、ノイズの影響が抑制され、且つ、異なる撮影条件で撮影された画像に相当する目的画像が、数学モデルによって容易に取得される。 The input training data used for training the mathematical model may be data based on L (L≧1) training ophthalmology images among a plurality of training ophthalmology images taken of the same part of the tissue. In addition, the output training data used for training the mathematical model is an H The data may be an average image of training ophthalmological images (H>L). In this case, a target image in which the influence of noise is suppressed and corresponds to an image captured under different imaging conditions is easily obtained from a base image actually captured by the OCT device using a mathematical model.

制御部は、基画像、または、取得された目的画像のノイズの影響を抑制するデノイジングステップをさらに実行してもよい。この場合、加算枚数以外の撮影条件が変更されることに加え、画像に含まれるノイズの影響が抑制される。よって、より有用な眼科画像が取得される。 The control unit may further execute a denoising step of suppressing the influence of noise on the base image or the acquired target image. In this case, in addition to changing the photographing conditions other than the number of added images, the influence of noise included in the images is suppressed. Therefore, more useful ophthalmological images are obtained.

なお、目的画像取得ステップとデノイジングステップが別々に実行される場合、デノイジングステップの具体的な方法は適宜選択できる。例えば、制御部は、加算平均画像を出力用訓練モデルとして予め訓練された数学モデルに、基画像または目的画像を入力することで、基画像または目的画像のノイズの影響が抑制された画像を取得してもよい。また、制御部は、数学モデルを使用しない他の手法(例えば、加算平均処理またはフィルター処理等)を用いて、基画像または目的画像のノイズの影響を抑制してもよい。制御部は、基画像のノイズの影響を抑制した後に、目的画像取得ステップを実行してもよい。 Note that when the target image acquisition step and the denoising step are executed separately, the specific method of the denoising step can be selected as appropriate. For example, the control unit inputs the base image or the target image to a mathematical model trained in advance using the averaged image as an output training model, thereby obtaining an image in which the influence of noise on the base image or the target image is suppressed. You may. Further, the control unit may suppress the influence of noise on the base image or the target image using other methods that do not use a mathematical model (for example, averaging processing or filter processing). The control unit may execute the target image acquisition step after suppressing the influence of noise on the base image.

制御部は、加算枚数以外の撮影条件の指定指示の入力を受け付ける撮影条件入力ステップをさらに実行してもよい。制御部は、目的画像取得ステップにおいて入力された撮影条件と、基画像とを数学モデルに入力することで、入力された撮影条件で撮影された画像に相当する目的画像を取得してもよい。つまり、制御部は、入力された撮影条件を画像の変換条件として、基画像を変換した目的画像を取得してもよい。この場合、ユーザが所望する撮影条件で撮影された画像に相当する目的画像が、適切に取得される。 The control unit may further execute a photographing condition input step of accepting an input of an instruction to designate a photographing condition other than the number of images to be added. The control unit may acquire a target image corresponding to an image photographed under the input photographing conditions by inputting the photographing conditions input in the target image acquisition step and the base image into a mathematical model. That is, the control unit may obtain a target image obtained by converting the base image using the input photographing conditions as image conversion conditions. In this case, a target image corresponding to an image photographed under the photographing conditions desired by the user is appropriately acquired.

入力される撮影条件は、変更される撮影条件の種類であってもよいし、目的画像の撮影条件を指定する数値等であってもよい。撮影条件の種類および数値等が共に入力されてもよい。また、複数の撮影条件の候補の中から、ユーザが所望する撮影条件を選択することで、撮影条件が入力されてもよい。 The input photographing condition may be the type of photographing condition to be changed, or may be a numerical value specifying the photographing condition of the target image. The type of photographing condition, numerical value, etc. may be input together. Alternatively, the shooting conditions may be input by the user selecting a desired shooting condition from among a plurality of shooting condition candidates.

ただし、ユーザが撮影条件を指定せずに、変更される撮影条件(撮影条件の種類および数値等の少なくともいずれか)が予め定められていてもよい。 However, the photographing conditions (at least one of the type and numerical value of the photographing conditions) to be changed may be determined in advance without the user specifying the photographing conditions.

制御部は、基画像がOCT装置によって撮影された際の撮影条件を取得する基画像撮影条件取得ステップをさらに実行してもよい。制御部は、基画像撮影条件取得ステップにおいて取得された基画像の撮影条件と、基画像とを数学モデルに入力することで、目的画像を取得してもよい。この場合には、基画像の撮影条件が数学モデルに入力されない場合に比べて、数学モデルから出力される目的画像の品質が向上する。 The control unit may further execute a base image photographing condition acquisition step of acquiring photographing conditions under which the base image was photographed by the OCT apparatus. The control unit may acquire the target image by inputting the base image and the base image photographing conditions acquired in the base image photographing condition acquisition step into a mathematical model. In this case, the quality of the target image output from the mathematical model is improved compared to the case where the photographing conditions of the base image are not input to the mathematical model.

また、制御部は、基画像と、基画像のノイズの程度を示すノイズ情報とを数学モデルに入力することで、目的画像を取得してもよい。この場合には、ノイズ情報が数学モデルに入力されない場合に比べて、数学モデルから出力される目的画像のノイズがより適切に減少する。なお、ノイズ情報は、基画像のノイズの程度を示す値であってもよい。また、基画像が加算平均画像である場合には、ノイズ情報は、基画像を生成する際に加算平均された画像の枚数であってもよい。 Further, the control unit may acquire the target image by inputting the base image and noise information indicating the degree of noise in the base image to a mathematical model. In this case, noise in the target image output from the mathematical model is more appropriately reduced than when noise information is not input to the mathematical model. Note that the noise information may be a value indicating the degree of noise in the base image. Furthermore, when the base image is an averaged image, the noise information may be the number of images averaged when generating the base image.

なお、基画像の撮影条件およびノイズ情報を数学モデルに入力する処理は、省略されてもよい。この場合でも、基画像の撮影条件とは異なる撮影条件で撮影された画像に相当する目的画像が、適切に取得される。 Note that the process of inputting the photographing conditions and noise information of the base image into the mathematical model may be omitted. Even in this case, a target image corresponding to an image photographed under photographing conditions different from the photographing conditions of the base image is appropriately acquired.

制御部は、画像範囲全体のうち一部の範囲の指定指示の入力を受け付ける範囲入力ステップを実行してもよい。制御部は、入力された範囲において撮影条件が変更された目的画像を取得してもよい。この場合、画像範囲全体のうち、ユーザが所望する範囲において、撮影条件が変更される。よって、ユーザにとってより有用な画像が取得される。 The control unit may execute a range input step of accepting an input of an instruction to designate a part of the entire image range. The control unit may acquire a target image in which the imaging conditions have been changed within the input range. In this case, the imaging conditions are changed in a range desired by the user out of the entire image range. Therefore, images that are more useful to the user are obtained.

なお、以下では、基画像を数学モデルに入力することで、基画像よりもノイズの影響が抑制され、且つ、OCT装置によって基画像が撮影された際の撮影条件とは異なる撮影条件で撮影された画像に相当する目的画像が取得される場合を例示する。しかし、ノイズの影響が基画像から変更されず、且つ、基画像の撮影条件とは異なる撮影条件で撮影された画像に相当する目的画像が、数学モデルによって取得されてもよい。この場合、数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、1枚または複数枚の訓練用眼科画像に基づく画像を入力用訓練データとすると共に、入力用訓練データが撮影された際の撮影条件とは異なる条件で撮影された、1枚または複数枚の訓練用眼科画像に基づく画像を出力用訓練データとして訓練されていてもよい。 In the following, by inputting the base image into a mathematical model, the influence of noise is suppressed compared to the base image, and the base image is taken under different shooting conditions from the one under which the base image was shot by the OCT device. A case in which a target image corresponding to a captured image is acquired will be exemplified. However, a mathematical model may also be used to obtain a target image that is not affected by noise from the base image and corresponds to an image photographed under different photographing conditions from those of the base image. In this case, the mathematical model uses, as input training data, an image based on one or more training ophthalmology images out of a plurality of training ophthalmology images taken of the same part of the tissue, and also uses input training data as input training data. The image may be trained using an image based on one or more training ophthalmology images taken under conditions different from those under which the image was taken as the output training data.

<実施形態>
(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された基画像に基づいて、基画像が撮影された際の撮影条件(加算枚数以外の撮影条件)とは異なる撮影条件で撮影された画像に相当する目的画像を出力する。眼科画像処理装置21は、数学モデルを用いて、基画像から目的画像を取得する。眼科画像撮影装置11A,11Bは、被検眼の組織の画像である眼科画像を撮影する。
<Embodiment>
(Device configuration)
One typical embodiment of the present disclosure will be described below with reference to the drawings. As shown in FIG. 1, in this embodiment, a mathematical model construction device 1, an ophthalmological image processing device 21, and ophthalmological image capturing devices 11A and 11B are used. The mathematical model construction device 1 constructs a mathematical model by training the mathematical model using a machine learning algorithm. Based on the input base image, the constructed mathematical model generates a target image that corresponds to an image that was photographed under different photographing conditions (photographing conditions other than the number of additional images) when the base image was photographed. Output. The ophthalmological image processing device 21 uses a mathematical model to obtain a target image from a base image. The ophthalmologic image capturing devices 11A and 11B capture ophthalmologic images that are images of tissues of the eye to be examined.

一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、眼科画像撮影装置11Aから取得した眼科画像を利用して数学モデルを訓練させることで、数学モデルを構築する。しかし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、眼科画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as "PC") is used as the mathematical model construction device 1 of this embodiment. Although details will be described later, the mathematical model construction device 1 constructs a mathematical model by training the mathematical model using the ophthalmologic images acquired from the ophthalmologic image capturing device 11A. However, the device that can function as the mathematical model construction device 1 is not limited to a PC. For example, the ophthalmologic image capturing device 11A may function as the mathematical model construction device 1. Further, the control units of a plurality of devices (for example, the CPU of the PC and the CPU 13A of the ophthalmological image capturing apparatus 11A) may cooperate to construct the mathematical model.

また、本実施形態の眼科画像処理装置21にはPCが用いられる。しかし、眼科画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、眼科画像撮影装置11Bまたはサーバ等が、眼科画像処理装置21として機能してもよい。眼科画像撮影装置(本実施形態ではOCT装置)11Bが眼科画像処理装置21として機能する場合、眼科画像撮影装置11Bは、眼科画像を撮影しつつ、撮影した眼科画像に対して撮影条件が変更された眼科画像を適切に取得することができる。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。 Further, a PC is used as the ophthalmological image processing apparatus 21 of this embodiment. However, the device that can function as the ophthalmological image processing device 21 is not limited to a PC either. For example, the ophthalmologic image capturing device 11B, a server, or the like may function as the ophthalmologic image processing device 21. When the ophthalmologic image capturing device 11B (OCT device in this embodiment) functions as the ophthalmologic image processing device 21, the ophthalmologic image capturing device 11B captures an ophthalmologic image while changing the capturing conditions for the captured ophthalmologic image. ophthalmological images can be appropriately acquired. Further, a mobile terminal such as a tablet terminal or a smartphone may function as the ophthalmological image processing device 21. The control units of a plurality of devices (for example, the CPU of the PC and the CPU 13B of the ophthalmological image capturing apparatus 11B) may cooperate to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Further, in this embodiment, a case will be described in which a CPU is used as an example of a controller that performs various processes. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be used as the controller to speed up the processing.

数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、眼科画像処理装置21または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理(図2参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、眼科画像撮影装置11Aおよび眼科画像処理装置21等)と接続する。 The mathematical model construction device 1 will be explained. The mathematical model construction device 1 is placed, for example, at a manufacturer that provides the ophthalmologic image processing device 21 or the ophthalmologic image processing program to users. The mathematical model construction device 1 includes a control unit 2 that performs various control processes and a communication I/F 5. The control unit 2 includes a CPU 3, which is a controller that controls, and a storage device 4 that can store programs, data, and the like. The storage device 4 stores a mathematical model building program for executing a mathematical model building process (see FIG. 2), which will be described later. Further, the communication I/F 5 connects the mathematical model construction device 1 to other devices (for example, the ophthalmologic image capturing device 11A and the ophthalmologic image processing device 21, etc.).

数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 1 is connected to an operation section 7 and a display device 8. The operation unit 7 is operated by the user in order for the user to input various instructions to the mathematical model construction device 1. As the operation unit 7, for example, at least one of a keyboard, a mouse, a touch panel, etc. can be used. Note that a microphone or the like for inputting various instructions may be used together with or in place of the operation section 7. The display device 8 displays various images. As the display device 8, various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used. Note that "image" in the present disclosure includes both still images and moving images.

数学モデル構築装置1は、眼科画像撮影装置11Aから眼科画像のデータ(以下、単に「眼科画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Aから眼科画像のデータを取得してもよい。 The mathematical model construction device 1 can acquire ophthalmologic image data (hereinafter sometimes simply referred to as "ophthalmologic image") from the ophthalmologic image capturing device 11A. The mathematical model construction device 1 may acquire ophthalmologic image data from the ophthalmologic image capturing device 11A through at least one of wired communication, wireless communication, a removable storage medium (for example, a USB memory), and the like.

眼科画像処理装置21について説明する。眼科画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する眼科画像処理(例えば、図4に例示する撮影条件変更処理等)を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、眼科画像処理装置21を他のデバイス(例えば、眼科画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。 The ophthalmologic image processing device 21 will be explained. The ophthalmological image processing device 21 is placed, for example, in a facility (for example, a hospital or a medical examination facility) that performs diagnosis or examination of subjects. The ophthalmologic image processing device 21 includes a control unit 22 that performs various control processes, and a communication I/F 25. The control unit 22 includes a CPU 23 that is a controller that controls control, and a storage device 24 that can store programs, data, and the like. The storage device 24 stores an ophthalmological image processing program for executing ophthalmological image processing (for example, photographing condition changing processing illustrated in FIG. 4), which will be described later. The ophthalmologic image processing program includes a program that realizes the mathematical model constructed by the mathematical model construction device 1. The communication I/F 25 connects the ophthalmologic image processing device 21 to other devices (for example, the ophthalmologic image capturing device 11B and the mathematical model construction device 1).

眼科画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。 The ophthalmological image processing device 21 is connected to an operation section 27 and a display device 28. As with the operation section 7 and display device 8 described above, various devices can be used for the operation section 27 and the display device 28.

眼科画像処理装置21は、眼科画像撮影装置11Bから眼科画像を取得することができる。眼科画像処理装置21は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Bから眼科画像を取得してもよい。また、眼科画像処理装置21は、数学モデル構築装置1によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The ophthalmologic image processing device 21 can acquire ophthalmologic images from the ophthalmologic image capturing device 11B. The ophthalmological image processing device 21 may acquire ophthalmological images from the ophthalmological image capturing device 11B, for example, by wired communication, wireless communication, a removable storage medium (for example, a USB memory), or the like. Further, the ophthalmological image processing device 21 may acquire a program or the like that realizes the mathematical model constructed by the mathematical model construction device 1 via communication or the like.

眼科画像撮影装置11A,11Bについて説明する。一例として、本実施形態では、数学モデル構築装置1に眼科画像を提供する眼科画像撮影装置11Aと、眼科画像処理装置21に眼科画像を提供する眼科画像撮影装置11Bが使用される場合について説明する。しかし、使用される眼科画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置1および眼科画像処理装置21は、複数の眼科画像撮影装置から眼科画像を取得してもよい。また、数学モデル構築装置1および眼科画像処理装置21は、共通する1つの眼科画像撮影装置から眼科画像を取得してもよい。なお、本実施形態で例示する2つの眼科画像撮影装置11A,11Bは、同一の構成を備える。従って、以下では、2つの眼科画像撮影装置11A,11Bについて纏めて説明を行う。 The ophthalmologic image capturing devices 11A and 11B will be explained. As an example, in this embodiment, a case will be described in which an ophthalmologic image capturing device 11A that provides ophthalmologic images to the mathematical model construction device 1 and an ophthalmologic image capturing device 11B that provides ophthalmologic images to the ophthalmologic image processing device 21 are used. . However, the number of ophthalmological imaging devices used is not limited to two. For example, the mathematical model construction device 1 and the ophthalmology image processing device 21 may acquire ophthalmology images from a plurality of ophthalmology image capturing devices. Further, the mathematical model construction device 1 and the ophthalmologic image processing device 21 may acquire ophthalmologic images from one common ophthalmologic image capturing device. Note that the two ophthalmologic image capturing apparatuses 11A and 11B illustrated in this embodiment have the same configuration. Therefore, below, the two ophthalmological image capturing apparatuses 11A and 11B will be collectively described.

また、本実施形態では、眼科画像撮影装置11(11A,11B)として、OCT装置を例示する。ただし、OCT装置以外の眼科画像撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。 Moreover, in this embodiment, an OCT device is illustrated as the ophthalmologic image capturing device 11 (11A, 11B). However, an ophthalmologic imaging device other than the OCT device (for example, a laser scanning ophthalmoscope (SLO), a fundus camera, or a corneal endothelial cell imaging device (CEM)) may be used.

眼科画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、眼科画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。 The ophthalmologic image capturing device 11 (11A, 11B) includes a control unit 12 (12A, 12B) that performs various control processes, and an ophthalmologic image capturing section 16 (16A, 16B). The control unit 12 includes a CPU 13 (13A, 13B) that is a controller that controls control, and a storage device 14 (14A, 14B) that can store programs, data, and the like.

眼科画像撮影部16は、被検眼の眼科画像を撮影するために必要な各種構成を備える。図示しないが、眼科画像撮影部16は、OCT光源と、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子を備える。さらに、本実施形態の眼科画像撮影部16は、受光素子17(17A,17B)、スキャナ18(18A,18B)、光路長調整部19(19A,19B)、偏光状態調整部20(20A,20B)を備える。受光素子17は、被検眼の組織によって光と参照光の合成光を受光する。スキャナ18は、測定光を被検眼の組織上で走査する。光路長調整部19は、測定光と参照光の少なくともいずれかの光路長を調整する。偏光状態調整部20は、測定光および参照光の少なくともいずれかの偏光状態を調整する。 The ophthalmological image photographing unit 16 includes various configurations necessary for photographing an ophthalmological image of the eye to be examined. Although not shown, the ophthalmologic image capturing unit 16 includes an OCT light source and a branching optical element that branches the OCT light emitted from the OCT light source into measurement light and reference light. Furthermore, the ophthalmological image capturing section 16 of this embodiment includes a light receiving element 17 (17A, 17B), a scanner 18 (18A, 18B), an optical path length adjustment section 19 (19A, 19B), a polarization state adjustment section 20 (20A, 20B), and a polarization state adjustment section 20 (20A, 20B). ). The light receiving element 17 receives the combined light of the light and the reference light by the tissue of the eye to be examined. The scanner 18 scans the measurement light over the tissue of the eye to be examined. The optical path length adjustment section 19 adjusts the optical path length of at least one of the measurement light and the reference light. The polarization state adjustment unit 20 adjusts the polarization state of at least one of the measurement light and the reference light.

眼科画像撮影装置11は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU13は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。また、CPU13は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU13は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU13は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。 The ophthalmologic image capturing device 11 can capture two-dimensional tomographic images and three-dimensional tomographic images of the fundus of the eye to be examined. Specifically, the CPU 13 scans the scan line with OCT light (measuring light) to capture a two-dimensional tomographic image of a cross section intersecting the scan line. Further, the CPU 13 can capture a three-dimensional tomographic image of the tissue by two-dimensionally scanning the OCT light. For example, the CPU 13 acquires a plurality of two-dimensional tomographic images by scanning measurement light on each of a plurality of scan lines at different positions within a two-dimensional region when the tissue is viewed from the front. Next, the CPU 13 obtains a three-dimensional tomographic image by combining the plurality of captured two-dimensional tomographic images.

また、CPU13は、各種撮影条件を変更して眼科画像を撮影することができる。例えば、CPU13は、光路長調整部19によって光路長を調整することで、組織の深さ方向における各位置のうち、断層画像に鮮明に映り込む位置を変化させることができる。CPU13は、偏光状態調整部20によって偏光状態を調整することで、偏光状態に応じて画像に現れる組織の構造を変化させることができる。CPU13は、受光素子17における露光時間を調整することで、露光時間に起因する眼科画像の輝度を変化させることができる。CPU13は、各スキャンライン毎のAスキャンデータ(深さ方向のデータ)の数を調整することで、スキャンライン方向(Bスキャン方向)における画像の解像度を変化させることができる。CPU13は、Aスキャン方向の画像の解像度を変化させることも可能である。 Further, the CPU 13 can photograph an ophthalmological image by changing various photographing conditions. For example, by adjusting the optical path length using the optical path length adjustment unit 19, the CPU 13 can change the position that is clearly reflected in the tomographic image among the positions in the depth direction of the tissue. By adjusting the polarization state using the polarization state adjustment unit 20, the CPU 13 can change the structure of the tissue appearing in the image according to the polarization state. By adjusting the exposure time of the light receiving element 17, the CPU 13 can change the brightness of the ophthalmological image due to the exposure time. The CPU 13 can change the resolution of the image in the scan line direction (B scan direction) by adjusting the number of A scan data (data in the depth direction) for each scan line. The CPU 13 can also change the resolution of the image in the A-scan direction.

さらに、CPU13は、組織上の同一部位(本実施形態では、同一のスキャンライン上)に測定光を複数回走査させることで、同一部位の眼科画像を複数撮影する。CPU13は、同一部位の複数の眼科画像に対して加算平均処理を行うことで、スペックルノイズの影響が抑制された加算平均画像を取得することができる。加算平均処理は、例えば、複数の眼科画像のうち、同一の位置の画素の画素値を平均化することで行われてもよい。加算平均処理を行う画像の数が多い程、スペックルノイズの影響は抑制され易いが、撮影時間は長くなる。なお、眼科画像撮影装置11は、同一部位の眼科画像を複数撮影する間に、被検眼の動きにOCT光の走査位置を追従させるトラッキング処理を実行する。 Furthermore, the CPU 13 scans the measurement light multiple times over the same site on the tissue (in this embodiment, on the same scan line) to capture multiple ophthalmological images of the same site. The CPU 13 can obtain an average image in which the influence of speckle noise is suppressed by performing averaging processing on a plurality of ophthalmological images of the same site. The averaging process may be performed, for example, by averaging pixel values of pixels at the same position among a plurality of ophthalmological images. The larger the number of images subjected to the averaging process, the more likely it is to suppress the influence of speckle noise, but the longer the imaging time will be. Note that while the ophthalmologic image capturing apparatus 11 captures a plurality of ophthalmologic images of the same site, it executes a tracking process that causes the scanning position of the OCT light to follow the movement of the subject's eye.

(数学モデル構築処理)
図2および図3を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。
(mathematical model construction process)
The mathematical model construction process executed by the mathematical model construction device 1 will be described with reference to FIGS. 2 and 3. The mathematical model construction process is executed by the CPU 3 according to the mathematical model construction program stored in the storage device 4.

数学モデル構築処理では、訓練データセットによって数学モデルが訓練されることで、基画像が撮影された際の撮影条件(加算枚数以外の撮影条件)とは異なる撮影条件で撮影された画像に相当する(つまり、撮影条件が変更された画像に相当する)目的画像を出力するための数学モデルが構築される。さらに、本開示で例示する数学モデルは、目的画像よりもノイズの影響が抑制された目的画像を出力する。詳細は後述するが、訓練データセットには、入力用訓練データと出力用訓練データが含まれる。本実施形態では、入力用訓練データとして、1枚~複数枚の眼科画像(本実施形態では眼底の二次元断層画像)に基づくデータが使用される。また、出力用訓練データとして、入力用訓練データが撮影された際の加算枚数以外の撮影条件とは異なる撮影条件で撮影された眼科画像に基づくデータが使用される。さらに、本実施形態では、出力用訓練データとして、入力用訓練データに使用される眼科画像の枚数(L枚)よりも多い枚数(H枚)の眼科画像に基づく加算平均画像のデータが使用される。入力用訓練データと出力用訓練データは、組織の同一部位を撮影対象としている。 In the mathematical model construction process, a mathematical model is trained using a training dataset, which corresponds to an image taken under shooting conditions different from the shooting conditions (shooting conditions other than the number of added images) when the base image was shot. A mathematical model is constructed for outputting a target image (that is, corresponding to an image with changed imaging conditions). Furthermore, the mathematical model exemplified in this disclosure outputs a target image in which the influence of noise is suppressed more than the target image. Although details will be described later, the training data set includes input training data and output training data. In this embodiment, data based on one to a plurality of ophthalmological images (in this embodiment, a two-dimensional tomographic image of the fundus) is used as input training data. In addition, as the output training data, data based on ophthalmological images taken under imaging conditions different from the imaging conditions other than the number of additional images when the input training data was taken is used. Furthermore, in this embodiment, data of an average image based on a larger number (H) of ophthalmological images than the number (L) of ophthalmological images used for input training data is used as output training data. Ru. The input training data and the output training data target the same part of the tissue.

図2に示すように、CPU3は、入力用訓練データ用の眼科画像Iを取得する(S1)。本実施形態では、被検眼の眼底上にOCT光を走査させることで撮影された二次元断層画像が、入力用訓練データ用の眼科画像Iとして、眼科画像撮影装置11Aから取得される。ただし、CPU3は、二次元断層画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Aから取得し、取得した信号に基づいて二次元断層画像を生成することで、二次元断層画像を取得してもよい。 As shown in FIG. 2, the CPU 3 acquires an ophthalmological image I for input training data (S1). In this embodiment, a two-dimensional tomographic image captured by scanning the fundus of the eye to be examined with OCT light is acquired from the ophthalmologic image capturing apparatus 11A as the ophthalmologic image I for input training data. However, the CPU 3 acquires a signal (for example, an OCT signal) that is the basis for generating a two-dimensional tomographic image from the ophthalmological image capturing device 11A, and generates a two-dimensional tomographic image based on the acquired signal. Images may also be acquired.

図3に示す例では、第1撮影条件で撮影された1枚の眼科画像30Iのデータが、入力用訓練データとして取得される。しかし、組織の同一部位を撮影した複数の眼科画像30Iのデータ、または、組織の同一部位を撮影した複数の眼科画像30Iの加算平均画像のデータが、入力用訓練データとして取得されてもよい。加算平均画像のデータが入力用訓練データとして取得されることで、1枚の眼科画像30Iのデータが入力用訓練データとして取得される場合に比べて、数学モデルが出力する目的画像の画質が向上する。 In the example shown in FIG. 3, data of one ophthalmological image 30I photographed under the first photographing condition is acquired as input training data. However, data of a plurality of ophthalmological images 30I taken of the same part of the tissue, or data of an average image of the plurality of ophthalmological images 30I taken of the same part of the tissue may be acquired as input training data. By acquiring the average image data as the input training data, the image quality of the target image output by the mathematical model is improved compared to the case where the data of one ophthalmological image 30I is acquired as the input training data. do.

なお、本実施形態のS1で取得される入力用訓練データには、眼科画像Iが撮影された際の、加算枚数以外の第1撮影条件(光路長、偏光状態、露光時間、スキャンライン毎のAスキャンデータの数、および、Aスキャン方向の解像度のうちの少なくともいずれか)と、眼科画像Iのノイズの程度を示すノイズ情報とが含まれる。第1撮影条件は、眼科画像撮影装置11Aから取得されてもよい。また、眼科画像Iのノイズの程度を示す情報は、眼科画像Iから自動的に取得されてもよいし、ユーザによって入力されてもよい。 Note that the input training data acquired in S1 of this embodiment includes the first imaging conditions (optical path length, polarization state, exposure time, scan line by scan line) other than the number of additional images when the ophthalmological image I was taken. At least one of the number of A-scan data and the resolution in the A-scan direction) and noise information indicating the degree of noise in the ophthalmological image I are included. The first imaging condition may be acquired from the ophthalmologic image capturing device 11A. Furthermore, information indicating the degree of noise in the ophthalmological image I may be automatically acquired from the ophthalmological image I, or may be input by the user.

次いで、CPU3は、入力用訓練データ(眼科画像I)と同一の被検眼の同一部位を、入力用訓練データの加算枚数以外の撮影条件(第1撮影条件)とは異なる撮影条件(第2撮影条件)で撮影した複数の眼科画像Oを、出力用訓練データ用の眼科画像として取得する(S2)。つまり、CPU3は、入力用訓練データを撮影する際にOCT光が走査されたスキャンラインと同一のスキャンライン上でOCT光を走査させることで撮影された、複数の眼科画像Oを、眼科画像撮影装置11Aから取得する。 Next, the CPU 3 captures the same part of the subject's eye that is the same as the input training data (ophthalmological image I) under imaging conditions (second imaging conditions) different from the imaging conditions (first imaging conditions) other than the number of additional images of the input training data. A plurality of ophthalmological images O taken under conditions) are acquired as ophthalmological images for output training data (S2). In other words, the CPU 3 captures a plurality of ophthalmologic images O captured by scanning the OCT light on the same scan line as the scan line scanned by the OCT light when capturing the input training data. It is acquired from the device 11A.

図3に示す例では、入力用訓練データとして使用された眼科画像30Iの枚数(L枚)よりも多いH枚の眼科画像O(30O1~30OH)が、出力用訓練データ用の眼科画像として取得される。例えば、入力用訓練データとして、L枚の眼科画像30Iの加算平均画像が取得された場合には、加算平均画像に使用された眼科画像30Iの枚数(L枚)よりも多いH枚の眼科画像Oが、S2で取得される。 In the example shown in FIG. 3, H ophthalmological images O (30O1 to 30OH), which are larger than the number of ophthalmological images 30I (L images) used as input training data, are acquired as ophthalmological images for output training data. be done. For example, when an average image of L ophthalmological images 30I is acquired as input training data, H ophthalmological images are larger than the number (L) of ophthalmological images 30I used for the average image. O is obtained in S2.

本実施形態では、入力用訓練データ用の眼科画像Iの撮影条件(第1撮影条件)と、出力用訓練データ用の眼科画像Oの撮影条件(第2撮影条件)の間で、前述した光路長、偏光状態、露光時間、スキャンライン毎のAスキャンデータの数、および、Aスキャン方向の解像度のうちの1つまたは複数が異なる。 In this embodiment, the optical path described above is determined between the photographing conditions for the ophthalmological image I for input training data (first photographing condition) and the photographing condition for the ophthalmological image O for output training data (second photographing condition). One or more of the length, polarization state, exposure time, number of A-scan data per scan line, and resolution in the A-scan direction are different.

次いで、CPU3は、出力用訓練データ用の複数の眼科画像Oの加算平均画像31を、出力用訓練データとして取得する(S3)前述したように、出力用訓練データである加算平均画像31に使用される眼科画像Oの枚数Hは、入力用訓練データに使用される眼科画像Iの枚数Lよりも多い。なお、加算平均画像31は、数学モデル構築装置1が生成してもよい。また、数学モデル構築装置1は、眼科画像撮影装置11Aによって生成された加算平均画像31を取得してもよい。 Next, the CPU 3 acquires the average image 31 of the plurality of ophthalmological images O for output training data as output training data (S3). The number H of ophthalmological images O to be used is larger than the number L of ophthalmological images I used for input training data. Note that the average image 31 may be generated by the mathematical model construction device 1. Furthermore, the mathematical model construction device 1 may acquire the averaged image 31 generated by the ophthalmologic image capturing device 11A.

なお、本実施形態のS1,S3で取得される出力用訓練データには、複数の眼科画像Oが撮影された際の第2撮影条件(光路長、偏光状態、露光時間、スキャンライン毎のAスキャンデータの数、および、Aスキャン方向の解像度のうちの少なくともいずれか)と、加算平均画像31のノイズの程度を示すノイズ情報とが含まれる。第2撮影条件は、眼科画像撮影装置11Aから取得されてもよい。また、加算平均画像31のノイズの程度を示す情報は、加算平均画像31から自動的に取得されてもよいし、ユーザによって入力されてもよい。加算平均画像31に使用された眼科画像Oの枚数の情報が、ノイズの程度を示す情報として取得されてもよい。 Note that the output training data acquired in S1 and S3 of this embodiment includes the second imaging conditions (optical path length, polarization state, exposure time, A At least one of the number of scan data and the resolution in the A-scan direction) and noise information indicating the degree of noise in the averaged image 31 are included. The second imaging condition may be acquired from the ophthalmologic image capturing device 11A. Furthermore, information indicating the degree of noise in the averaged image 31 may be automatically acquired from the averaged image 31, or may be input by the user. Information on the number of ophthalmological images O used in the averaged image 31 may be acquired as information indicating the degree of noise.

次いで、CPU3は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S4)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 Next, the CPU 3 executes training of a mathematical model using the training data set using a machine learning algorithm (S4). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 Neural networks are a method that imitates the behavior of biological nerve cell networks. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), and stochastic neural networks. There are various types of neural networks (Boltzmann machines, Bassian networks, etc.).

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of generating a large number of decision trees by performing learning based on randomly sampled training data. When using random forest, branches of multiple decision trees trained in advance as a classifier are followed, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining multiple weak classifiers. A strong classifier is constructed by sequentially training simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. For example, the SVM learns the parameters of a linear input element based on the criterion (hyperplane separation theorem) of finding a margin-maximizing hyperplane that maximizes the distance to each data point from training data.

数学モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。訓練データセットは、入力用訓練データと出力用訓練データのセットである。数学モデルは、ある入力用訓練データが入力された時に、それに対応する出力用訓練データが出力されるように訓練される。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 A mathematical model refers to, for example, a data structure for predicting the relationship between input data and output data. A mathematical model is constructed by being trained using a training dataset. The training data set is a set of input training data and output training data. A mathematical model is trained such that when certain input training data is input, corresponding output training data is output. For example, training updates correlation data (eg, weights) between each input and output.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。ただし、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 In this embodiment, a multilayer neural network is used as a machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating data to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a type of multilayer neural network, is used. However, other machine learning algorithms may be used. For example, generative adversarial networks (GAN), which utilize two competing neural networks, may be employed as the machine learning algorithm.

なお、本実施形態のS4では、前述したように、眼科画像Iが撮影された際の第1撮影条件と、眼科画像Iのノイズの程度を示す情報とが、入力用訓練データに含まれる。また、複数の眼科画像Oが撮影された際の第2撮影条件と、加算平均画像31のノイズの程度を示す情報とが、出力用訓練データに含まれる。その結果、数学モデルは、入力される基画像の第1撮影条件およびノイズの程度に応じて、適切に目的画像を出力することができる。 In addition, in S4 of this embodiment, as described above, the first photographing condition under which the ophthalmological image I was photographed and information indicating the degree of noise in the ophthalmological image I are included in the input training data. Further, the second photographing conditions under which the plurality of ophthalmological images O were photographed and information indicating the degree of noise in the averaged image 31 are included in the output training data. As a result, the mathematical model can appropriately output the target image according to the first imaging condition and the degree of noise of the input base image.

また、加算枚数以外の複数の撮影条件(本実施形態では、光路長、偏光状態、露光時間、スキャンライン毎のAスキャンデータの数、および、Aスキャン方向の解像度)のうち、入力用訓練データ用の眼科画像Iと出力用訓練データ用の眼科画像Oの間で異なるいずれかの撮影条件に応じて、複数の数学モデルの各々が訓練されてもよい。つまり、数学モデルを利用して変更する撮影条件毎に、別々に数学モデルが訓練されてもよい。また、入力用訓練データ用の眼科画像Iと出力用訓練データ用の眼科画像Oの間で、加算枚数以外の複数の撮影条件を変更して、数学モデルを訓練してもよい。この場合、数学モデルは、入力された基画像に基づいて、基画像の撮影条件に対して複数の撮影条件を変更した目的画像を出力することができる。 In addition, among a plurality of imaging conditions other than the number of additional images (in this embodiment, optical path length, polarization state, exposure time, number of A-scan data for each scan line, and resolution in the A-scan direction), input training data Each of the plurality of mathematical models may be trained according to any of the imaging conditions that are different between the ophthalmological image I for use as an output training data and the ophthalmological image O for output training data. That is, a mathematical model may be trained separately for each imaging condition that is changed using the mathematical model. Furthermore, the mathematical model may be trained by changing a plurality of imaging conditions other than the number of images to be added between the ophthalmological image I for input training data and the ophthalmological image O for output training data. In this case, the mathematical model can output a target image in which a plurality of photographing conditions are changed with respect to the photographing conditions of the base image, based on the input base image.

数学モデルの構築が完了するまで(S5:NO)、S1~S4の処理が繰り返される。数学モデルの構築が完了すると(S5:YES)、数学モデル構築処理は終了する。構築された数学モデルを実現させるプログラムおよびデータは、眼科画像処理装置21に組み込まれる。 The processes of S1 to S4 are repeated until construction of the mathematical model is completed (S5: NO). When construction of the mathematical model is completed (S5: YES), the mathematical model construction process ends. A program and data for realizing the constructed mathematical model are incorporated into the ophthalmological image processing device 21.

(撮影条件変更処理)
図4および図5を参照して、眼科画像処理装置21が実行する撮影条件変更処理について説明する。撮影条件変更処理は、記憶装置24に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。本実施形態の撮影条件変更処理では、数学モデルに基画像が入力されることで、基画像よりもノイズの影響が抑制され、且つ、基画像が撮影された際の撮影条件(加算枚数以外の撮影条件)とは異なる撮影条件で撮影された画像に相当する目的画像が取得される。
(Photographing condition change processing)
The photographing condition changing process executed by the ophthalmological image processing apparatus 21 will be described with reference to FIGS. 4 and 5. The photographing condition changing process is executed by the CPU 23 according to the ophthalmological image processing program stored in the storage device 24. In the photographing condition change process of this embodiment, by inputting the base image into the mathematical model, the influence of noise is suppressed compared to the base image, and the photographing conditions (other than the number of additional images) under which the base image was photographed are A target image corresponding to an image photographed under photographing conditions different from the photographing conditions) is acquired.

まず、CPU23は、眼科画像撮影装置(本実施形態ではOCT装置)11Bによって撮影された基画像31(図5参照)を取得する。本実施形態の基画像31は、前述した入力用訓練データと同様に、第1撮影条件で撮影された1枚の眼科画像の、または、第1撮影条件で撮影された複数枚の眼科画像の加算平均画像である。 First, the CPU 23 acquires the base image 31 (see FIG. 5) captured by the ophthalmologic image capturing device (OCT device in this embodiment) 11B. The base image 31 of this embodiment, like the input training data described above, is a single ophthalmological image taken under the first imaging condition, or a plurality of ophthalmological images taken under the first imaging condition. This is an average image.

CPU23は、基画像31が眼科画像撮影装置11Bによって撮影された際の、加算枚数以外の撮影条件(基画像31の撮影条件)と、基画像31のノイズの程度を示すノイズ情報を取得する(S2)。基画像31の撮影条件は、例えば、有線通信、無線通信、または着脱可能な記憶媒体等を介して取得されてもよいし、ユーザによって入力されてもよい。また、ノイズ情報は、基画像31から自動的に取得されてもよいし、ユーザによって入力されてもよい。基画像31が加算平均画像である場合には、ノイズ情報は、基画像31を生成する際に加算平均された画像の枚数(加算枚数)であってもよい。 The CPU 23 acquires the photographing conditions other than the number of additional images (photographing conditions for the base image 31) when the base image 31 was photographed by the ophthalmological image photographing device 11B, and noise information indicating the degree of noise in the base image 31 ( S2). The photographing conditions for the base image 31 may be acquired via wired communication, wireless communication, a removable storage medium, or the like, or may be input by the user. Further, the noise information may be automatically acquired from the base image 31 or may be input by the user. When the base image 31 is an averaged image, the noise information may be the number of images that are averaged when generating the base image 31 (added number of images).

CPU23は、S1で取得した基画像31と条件指定部32を、表示装置28に表示させる(S3)。図5に、基画像31と条件指定部32が表示された条件指定画面30の一例を示す。条件指定部32には、基画像31の撮影条件と、ユーザが指定する目的画像の撮影条件(つまり、基画像31の撮影条件から変更する撮影条件)が、複数の撮影条件(本実施形態では、光路長、偏光状態、露光時間、スキャンライン毎のAスキャンデータの数、および、Aスキャン方向の解像度)の各々について表示される。なお、本実施形態では、基画像31および目的画像の加算枚数も表示されている。ユーザは、変更したい撮影条件の欄を指定し、所望の値を入力することで、目的画像の撮影条件を適宜指定することができる。なお、複数の撮影条件のうち、ユーザが変更することを指定しない撮影条件の欄には、「-」が表示されている。 The CPU 23 causes the display device 28 to display the base image 31 and the condition specifying section 32 acquired in S1 (S3). FIG. 5 shows an example of the condition specification screen 30 on which the base image 31 and the condition specification section 32 are displayed. The condition specifying unit 32 stores a plurality of shooting conditions (in this embodiment, shooting conditions for the base image 31 and shooting conditions for the target image specified by the user (that is, shooting conditions to be changed from the shooting conditions for the base image 31). , optical path length, polarization state, exposure time, number of A-scan data per scan line, and resolution in the A-scan direction). Note that in this embodiment, the added number of base images 31 and target images is also displayed. The user can specify the shooting conditions for the target image as appropriate by specifying the field for the shooting conditions to be changed and inputting a desired value. Note that among the plurality of shooting conditions, a "-" is displayed in the column of the shooting conditions that the user does not specify to change.

CPU23は、撮影条件を指定する指示が入力されたか否かを判断する(S5)。入力されていなければ(S5:NO)、処理はそのままS8へ移行する。撮影条件を指定する指示が入力されると(S5:YES)、CPU23は、指定された撮影条件を目的画像の撮影条件(つまり、画像の変換条件)に設定し、条件指定部32の表示を変更する(S6)。 The CPU 23 determines whether an instruction specifying photographing conditions has been input (S5). If it has not been input (S5: NO), the process moves directly to S8. When an instruction to designate photographing conditions is input (S5: YES), the CPU 23 sets the designated photographing conditions as the photographing conditions of the target image (that is, the image conversion conditions), and changes the display of the condition specifying section 32. Change (S6).

CPU23は、範囲指定指示がユーザによって入力されたか否かを判断する(S8)。本実施形態では、ユーザは、基画像31の撮影条件を変更する変更範囲33(図5参照)を指定することができる。変更範囲33が指定されると、基画像31の画像範囲全体のうち、指定された変更範囲内において、ノイズの影響が抑制され且つ撮影条件が変更された目的画像が取得される。変更範囲33が指定されていなければ(S8:NO)、処理はそのままS11へ移行する。変更範囲33が指定されると(S8:YES)、CPU23は、指定された変更範囲33を、撮影条件の変更範囲に設定する(S9)。 The CPU 23 determines whether a range designation instruction has been input by the user (S8). In this embodiment, the user can specify a change range 33 (see FIG. 5) in which to change the shooting conditions of the base image 31. When the change range 33 is specified, a target image in which the influence of noise is suppressed and the photographing conditions are changed is acquired within the specified change range out of the entire image range of the base image 31. If the change range 33 has not been specified (S8: NO), the process directly proceeds to S11. When the change range 33 is specified (S8: YES), the CPU 23 sets the specified change range 33 as the change range of the photographing conditions (S9).

CPU23は、撮影条件を決定する指示がユーザによって入力されたか否かを判断する(S11)。入力されていなければ(S11:NO)、処理はS5へ戻り、S5~S11の処理が繰り返される。ユーザが決定ボタン34(図5参照)を操作して決定指示を入力すると(S11:YES)、CPU23は、基画像31、基画像31の撮影条件、基画像31のノイズ情報、および、指定された目的画像の撮影条件を数学モデルに入力する(S12)。その結果、基画像31よりもノイズの影響が抑制され、且つ、基画像31が撮影された際の撮影条件とは異なる撮影条件(本実施形態では、指定された撮影条件)で撮影された画像に相当する目的画像が、数学モデルによって出力される。CPU23は、取得した目的画像を表示装置28に表示させる。図5に、目的画像表示画面40の一例を示す。表示される目的画像41では、ノイズの影響が抑制されている。また、目的画像41の撮影条件は、基画像31の撮影条件とは異なる撮影条件に変更されている。 The CPU 23 determines whether the user has input an instruction to determine photographing conditions (S11). If it has not been input (S11: NO), the process returns to S5, and the processes from S5 to S11 are repeated. When the user operates the decision button 34 (see FIG. 5) and inputs a decision instruction (S11: YES), the CPU 23 inputs the base image 31, the shooting conditions of the base image 31, the noise information of the base image 31, and the specified The photographing conditions for the target image are input into the mathematical model (S12). As a result, the influence of noise is suppressed more than in the base image 31, and the image is captured under different capture conditions (in this embodiment, specified capture conditions) than the capture conditions under which the base image 31 was captured. A target image corresponding to is output by the mathematical model. The CPU 23 causes the display device 28 to display the acquired target image. FIG. 5 shows an example of the target image display screen 40. In the displayed target image 41, the influence of noise is suppressed. Furthermore, the shooting conditions for the target image 41 have been changed to different shooting conditions from the shooting conditions for the base image 31.

なお、S9で変更範囲33が設定されている場合、本実施形態のS12では、基画像31の画像範囲全体のうち、S9で設定された変更範囲33内の画像が数学モデルに入力される。その結果、基画像31の画像範囲全体のうち、ユーザが所望する範囲において、ノイズの影響および撮影条件が変更される。 Note that when the change range 33 is set in S9, in S12 of this embodiment, the image within the change range 33 set in S9 out of the entire image range of the base image 31 is input to the mathematical model. As a result, the influence of noise and the photographing conditions are changed in the range desired by the user among the entire image range of the base image 31.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。例えば、眼科画像処理装置21は、数学モデルに基画像31を入力することで、基画像31のノイズの影響を変更せずに、基画像31が撮影された際の撮影条件とは異なる撮影条件で撮影された画像に相当する目的画像41を取得してもよい。この場合、眼科画像処理装置21は、撮影条件が変更された目的画像41を取得する処理とは別に、基画像31または目的画像41のノイズの影響を抑制するデノイジング処理を実行してもよい。デノイジング処理は、目的画像41を取得するための数学モデルとは別に設けられた、画像のノイズの影響を抑制するための数学モデルが利用されることで実行されてもよい。また、数学モデルを利用せずに、公知の処理(例えば、加算平均処理またはフィルター処理等)によって、デノイジング処理が実行されてもよい。 The techniques disclosed in the above embodiments are merely examples. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. First, it is also possible to execute only some of the techniques exemplified in the above embodiments. For example, by inputting the base image 31 into a mathematical model, the ophthalmological image processing device 21 can perform imaging under different photographing conditions than the one under which the base image 31 was photographed, without changing the influence of noise on the base image 31. You may acquire the target image 41 corresponding to the image photographed in . In this case, the ophthalmological image processing device 21 may perform a denoising process to suppress the influence of noise on the base image 31 or the target image 41, in addition to the process of acquiring the target image 41 with changed imaging conditions. The denoising process may be performed by using a mathematical model for suppressing the influence of image noise, which is provided separately from the mathematical model for acquiring the target image 41. Further, the denoising process may be performed by known processing (for example, averaging processing or filter processing) without using a mathematical model.

また、上記実施形態では、ユーザは、所望する撮影条件を自由に眼科画像処理装置21に入力することが可能である。眼科画像処理装置21は、入力された撮影条件を変換条件として、基画像31を変換することで、目的画像41を取得する。しかし、眼科画像処理装置21は、多数の撮影条件の組み合わせの中から、目的画像41の画質が良好となる撮影条件の組み合わせを自動的に設定し、設定した撮影条件の組み合わせを変換条件として目的画像41を取得してもよい。 Furthermore, in the embodiment described above, the user can freely input desired imaging conditions into the ophthalmological image processing apparatus 21. The ophthalmological image processing device 21 obtains the target image 41 by converting the base image 31 using the input imaging conditions as conversion conditions. However, the ophthalmological image processing device 21 automatically sets a combination of imaging conditions that provides good image quality of the target image 41 from among a large number of combinations of imaging conditions, and uses the set combination of imaging conditions as a conversion condition for the purpose. An image 41 may also be acquired.

なお、図4のS1で基画像31を取得する処理は、「基画像取得ステップ」の一例である。図4のS12で目的画像を取得する処理は、「目的画像取得ステップ」の一例である。図4のS5で撮影条件の指定指示の入力を受け付ける処理は、「撮影条件入力ステップ」の一例である。図4のS2で基画像31の撮影条件を取得する処理は、「基画像撮影条件取得ステップ」の一例である。図4のS8で変更範囲33の指定指示の入力を受け付ける処理は、「範囲入力ステップ」の一例である。 Note that the process of acquiring the base image 31 in S1 in FIG. 4 is an example of a "base image acquisition step." The process of acquiring the target image in S12 of FIG. 4 is an example of a "target image acquisition step." The process of accepting the input of the instruction to designate the imaging conditions in S5 of FIG. 4 is an example of the "imaging condition input step." The process of acquiring the photographing conditions for the base image 31 in S2 of FIG. 4 is an example of the "base image photographing condition acquisition step." The process of accepting the input of the change range 33 designation instruction in S8 of FIG. 4 is an example of a "range input step."

1 数学モデル構築装置
11A,11B 眼科画像撮影装置
17A,17B 受光素子
18A,18B スキャナ
19A,19B 光路長調整部
20A,20B 偏光状態調整部
21 眼科画像処理装置
23 CPU
24 記憶装置
28 表示装置
31 基画像
41 目的画像
1 Mathematical model construction device 11A, 11B Ophthalmology image photographing device 17A, 17B Light receiving element 18A, 18B Scanner 19A, 19B Optical path length adjustment section 20A, 20B Polarization state adjustment section 21 Ophthalmology image processing device 23 CPU
24 Storage device 28 Display device 31 Base image 41 Target image

Claims (6)

被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像処理装置の制御部は、
OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、
加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件の指定指示の入力を受け付ける撮影条件入力ステップと、
機械学習アルゴリズムによって訓練された数学モデルに、前記撮影条件入力ステップにおいて入力された前記撮影条件と、前記基画像を入力することで、入力された加算枚数以外の前記撮影条件で撮影された画像に相当する目的画像を取得する目的画像取得ステップと、
を実行し、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理装置。
An ophthalmological image processing device that processes an ophthalmological image that is an image of a tissue of an eye to be examined,
The control unit of the ophthalmological image processing device includes:
a base image acquisition step of acquiring, as a base image, an ophthalmological image taken by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images taken of the same part of tissue by the OCT device;
an imaging condition input step that receives an input of an instruction to designate an imaging condition other than the number of additional images, which is the number of ophthalmological images used for the averaging (≧1);
By inputting the photographing conditions input in the photographing condition input step and the base image to a mathematical model trained by a machine learning algorithm, images photographed under the photographing conditions other than the input additional number of images can be created. a target image acquisition step of acquiring a corresponding target image;
Run
The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. An ophthalmological image processing apparatus, characterized in that the ophthalmological image processing apparatus is trained using data of the training ophthalmological image that is different from photographing conditions of the training data as output training data.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、 An ophthalmological image processing device that processes an ophthalmological image that is an image of a tissue of an eye to be examined,
前記眼科画像処理装置の制御部は、 The control unit of the ophthalmological image processing device includes:
OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、 a base image acquisition step of acquiring, as a base image, an ophthalmological image taken by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images taken of the same part of tissue by the OCT device;
前記基画像が前記OCT装置によって撮影された際の撮影条件を取得する基画像撮影条件取得ステップと、 a base image photographing condition acquisition step of acquiring photographing conditions when the base image was photographed by the OCT device;
機械学習アルゴリズムによって訓練された数学モデルに、前記基画像撮影条件取得ステップにおいて取得された前記基画像の前記撮影条件と、前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が異なる画像に相当する目的画像を取得する目的画像取得ステップと、 By inputting the photographing conditions of the base image acquired in the base image photographing condition acquisition step and the base image into a mathematical model trained by a machine learning algorithm, the base image is photographed by the OCT device. a target image acquisition step of acquiring a target image corresponding to an image with different photographing conditions other than the number of added images, which is the number of ophthalmological images used for averaging (≧1), with respect to the photographing conditions at the time of averaging;
を実行し、 Run
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理装置。 The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. An ophthalmological image processing apparatus, characterized in that the ophthalmological image processing apparatus is trained using data of the training ophthalmological image that is different from photographing conditions of the training data as output training data.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、 An ophthalmological image processing device that processes an ophthalmological image that is an image of a tissue of an eye to be examined,
前記眼科画像処理装置の制御部は、 The control unit of the ophthalmological image processing device includes:
OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、 a base image acquisition step of acquiring, as a base image, an ophthalmological image taken by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images taken of the same part of tissue by the OCT device;
画像範囲全体のうち一部の範囲の指定指示の入力を受け付ける範囲入力ステップと、 a range input step of accepting input of an instruction to specify a part of the entire image range;
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が前記範囲入力ステップにおいて入力された範囲において異なる画像に相当する目的画像を取得する目的画像取得ステップと、 By inputting the base image into a mathematical model trained by a machine learning algorithm, the number of ophthalmological images used for averaging (≧ 1) a target image acquisition step of acquiring a target image corresponding to a different image in a range in which photographing conditions other than the number of additional images are input in the range input step;
を実行し、 Run
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理装置。 The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. An ophthalmological image processing apparatus, characterized in that the ophthalmological image processing apparatus is trained using data of the training ophthalmological image that is different from photographing conditions of the training data as output training data.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、 An ophthalmologic image processing program executed by an ophthalmologic image processing device that processes an ophthalmologic image that is an image of a tissue of an eye to be examined,
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、 The ophthalmology image processing program is executed by the control unit of the ophthalmology image processing device,
OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、 a base image acquisition step of acquiring, as a base image, an ophthalmological image taken by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images taken of the same part of tissue by the OCT device;
加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件の指定指示の入力を受け付ける撮影条件入力ステップと、 an imaging condition input step that receives an input of an instruction to designate an imaging condition other than the number of additional images, which is the number of ophthalmological images used for the averaging (≧1);
機械学習アルゴリズムによって訓練された数学モデルに、前記撮影条件入力ステップにおいて入力された前記撮影条件と、前記基画像を入力することで、入力された加算枚数以外の前記撮影条件で撮影された画像に相当する目的画像を取得する目的画像取得ステップと、 By inputting the photographing conditions input in the photographing condition input step and the base image to a mathematical model trained by a machine learning algorithm, images photographed under the photographing conditions other than the input additional number of images can be created. a target image acquisition step of acquiring a corresponding target image;
を前記眼科画像処理装置に実行させ、 causing the ophthalmological image processing device to execute
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理プログラム。 The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. An ophthalmological image processing program characterized in that the program is trained using data of the training ophthalmological image different from the shooting conditions of the training data as output training data.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、 An ophthalmologic image processing program executed by an ophthalmologic image processing device that processes an ophthalmologic image that is an image of a tissue of an eye to be examined,
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、 The ophthalmology image processing program is executed by the control unit of the ophthalmology image processing device,
OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、 a base image acquisition step of acquiring, as a base image, an ophthalmological image taken by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images taken of the same part of tissue by the OCT device;
前記基画像が前記OCT装置によって撮影された際の撮影条件を取得する基画像撮影条件取得ステップと、 a base image photographing condition acquisition step of acquiring photographing conditions when the base image was photographed by the OCT device;
機械学習アルゴリズムによって訓練された数学モデルに、前記基画像撮影条件取得ステップにおいて取得された前記基画像の前記撮影条件と、前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が異なる画像に相当する目的画像を取得する目的画像取得ステップと、 By inputting the photographing conditions of the base image acquired in the base image photographing condition acquisition step and the base image into a mathematical model trained by a machine learning algorithm, the base image is photographed by the OCT device. a target image acquisition step of acquiring a target image corresponding to an image with different photographing conditions other than the number of added images, which is the number of ophthalmological images used for averaging (≧1), with respect to the photographing conditions at the time of averaging;
を前記眼科画像処理装置に実行させ、 causing the ophthalmological image processing device to execute
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理プログラム。 The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. An ophthalmological image processing program characterized in that the program is trained using data of the training ophthalmological image different from the shooting conditions of the training data as output training data.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、 An ophthalmologic image processing program executed by an ophthalmologic image processing device that processes an ophthalmologic image that is an image of a tissue of an eye to be examined,
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、 The ophthalmology image processing program is executed by the control unit of the ophthalmology image processing device,
OCT装置によって撮影された眼科画像、または、前記OCT装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、 a base image acquisition step of acquiring, as a base image, an ophthalmological image taken by an OCT device, or an averaged image obtained by adding and averaging a plurality of ophthalmological images taken of the same part of tissue by the OCT device;
画像範囲全体のうち一部の範囲の指定指示の入力を受け付ける範囲入力ステップと、 a range input step of accepting input of an instruction to specify a part of the entire image range;
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記OCT装置によって前記基画像が撮影された際の撮影条件に対して、加算平均に用いられた眼科画像の枚数(≧1)である加算枚数以外の撮影条件が前記範囲入力ステップにおいて入力された範囲において異なる画像に相当する目的画像を取得する目的画像取得ステップと、 By inputting the base image into a mathematical model trained by a machine learning algorithm, the number of ophthalmological images used for averaging (≧ 1) a target image acquisition step of acquiring a target image corresponding to a different image in a range in which photographing conditions other than the number of additional images are input in the range input step;
を前記眼科画像処理装置に実行させ、 causing the ophthalmological image processing device to execute
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、一部の前記訓練用眼科画像のデータを入力用訓練データとすると共に、加算枚数以外の撮影条件が前記入力用訓練データの撮影条件とは異なる前記訓練用眼科画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理プログラム。 The mathematical model uses the data of some of the training ophthalmology images taken of the same part of the tissue as the input training data, and sets the imaging conditions other than the number of images for input as the input training data. An ophthalmological image processing program characterized in that the program is trained using data of the training ophthalmological image different from the shooting conditions of the training data as output training data.
JP2020042503A 2020-03-12 2020-03-12 Ophthalmology image processing device and ophthalmology image processing program Active JP7435067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020042503A JP7435067B2 (en) 2020-03-12 2020-03-12 Ophthalmology image processing device and ophthalmology image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020042503A JP7435067B2 (en) 2020-03-12 2020-03-12 Ophthalmology image processing device and ophthalmology image processing program

Publications (2)

Publication Number Publication Date
JP2021142088A JP2021142088A (en) 2021-09-24
JP7435067B2 true JP7435067B2 (en) 2024-02-21

Family

ID=77765424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020042503A Active JP7435067B2 (en) 2020-03-12 2020-03-12 Ophthalmology image processing device and ophthalmology image processing program

Country Status (1)

Country Link
JP (1) JP7435067B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120165799A1 (en) 2010-12-27 2012-06-28 Nidek Co., Ltd. Ophthalmic laser treatment apparatus
JP2019216848A (en) 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program
JP2020000678A (en) 2018-06-29 2020-01-09 株式会社ニデック Ophthalmic image processing apparatus, oct apparatus, ophthalmic image processing program, and method of building mathematical model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120165799A1 (en) 2010-12-27 2012-06-28 Nidek Co., Ltd. Ophthalmic laser treatment apparatus
JP2019216848A (en) 2018-06-15 2019-12-26 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program
JP2020000678A (en) 2018-06-29 2020-01-09 株式会社ニデック Ophthalmic image processing apparatus, oct apparatus, ophthalmic image processing program, and method of building mathematical model

Also Published As

Publication number Publication date
JP2021142088A (en) 2021-09-24

Similar Documents

Publication Publication Date Title
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP7388525B2 (en) Ophthalmology image processing device and ophthalmology image processing program
WO2010047034A1 (en) Imaging control device for capturing tomogram of eye ground, imaging device, imaging control method, program, and storage medium
JP2024040372A (en) Ophthalmology image processing program and ophthalmology image processing device
WO2020026535A1 (en) Ophthalmic image processing device, oct device, and ophthalmic image processing program
JP2021101965A (en) Control device, optical interference tomography apparatus, control method of optical interference tomography apparatus, and program
JP6703319B1 (en) Ophthalmic image processing device and OCT device
JP2024045441A (en) Ophthalmic image processing device and ophthalmic image processing program
JP7147888B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP7435067B2 (en) Ophthalmology image processing device and ophthalmology image processing program
JP2021086560A (en) Medical image processing apparatus, medical image processing method, and program
JP7439990B2 (en) Medical image processing device, medical image processing program, and medical image processing method
JPWO2020116351A1 (en) Diagnostic support device and diagnostic support program
WO2021020419A1 (en) Medical image processing device and medical image processing program
WO2021045019A1 (en) Ophthalmic image processing program and ophthalmic image processing device
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP6461937B2 (en) Image processing apparatus, image processing method, and image processing program
JP7210927B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
WO2023281965A1 (en) Medical image processing device and medical image processing program
JP2024007133A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP2020121038A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP2021069667A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7435067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150