JP7388525B2 - Ophthalmology image processing device and ophthalmology image processing program - Google Patents

Ophthalmology image processing device and ophthalmology image processing program Download PDF

Info

Publication number
JP7388525B2
JP7388525B2 JP2022196733A JP2022196733A JP7388525B2 JP 7388525 B2 JP7388525 B2 JP 7388525B2 JP 2022196733 A JP2022196733 A JP 2022196733A JP 2022196733 A JP2022196733 A JP 2022196733A JP 7388525 B2 JP7388525 B2 JP 7388525B2
Authority
JP
Japan
Prior art keywords
image
resolution
ophthalmological
training
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022196733A
Other languages
Japanese (ja)
Other versions
JP2023077425A5 (en
JP2023077425A (en
Inventor
涼介 柴
祐輔 坂下
佳紀 熊谷
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2022196733A priority Critical patent/JP7388525B2/en
Publication of JP2023077425A publication Critical patent/JP2023077425A/en
Publication of JP2023077425A5 publication Critical patent/JP2023077425A5/en
Application granted granted Critical
Publication of JP7388525B2 publication Critical patent/JP7388525B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本開示は、被検眼の眼科画像を処理する眼科画像処理装置、および、眼科画像処理装置において実行される眼科画像処理プログラムに関する。
The present disclosure relates to an ophthalmologic image processing device that processes an ophthalmologic image of an eye to be examined, and an ophthalmologic image processing program that is executed in the ophthalmologic image processing device.

近年、機械学習アルゴリズムによって訓練された数学モデルを用いて、種々の医療情報を取得する技術が提案されている。例えば、特許文献1に記載の眼科装置では、機械学習アルゴリズムによって訓練された数学モデルに眼形状パラメータが入力されることで、被検眼のIOL関連情報(例えば、予想述語前房深度)が取得される。取得されたIOL関連情報に基づいて、IOL度数が算出される。 In recent years, techniques for acquiring various medical information using mathematical models trained by machine learning algorithms have been proposed. For example, in the ophthalmological device described in Patent Document 1, IOL-related information of the eye to be examined (e.g., predicted predicate anterior chamber depth) is acquired by inputting eye shape parameters to a mathematical model trained by a machine learning algorithm. Ru. IOL power is calculated based on the acquired IOL related information.

また、機械学習アルゴリズムによって訓練された数学モデルを用いて、低解像度の画像から高解像度の画像を取得することも考えられる。この場合、低解像度の画像が数学モデルに入力されることで、高解像度の画像が出力される。 It is also conceivable to obtain high-resolution images from low-resolution images using mathematical models trained by machine learning algorithms. In this case, a low-resolution image is input to the mathematical model, and a high-resolution image is output.

特開2018-51223号公報JP2018-51223A

本開示における技術の1つの側面について説明する。機械学習アルゴリズムによって訓練された数学モデルを用いて、低解像度の画像から高解像度の画像を取得する場合には、同一の部位を撮影した低解像度の画像と高解像度の画像を用いて、数学モデルが予め訓練されている必要がある。つまり、数学モデルを構築する作業者は、同一の部位を撮影した低解像度の画像と高解像度の画像のセットを多数用意し、数学モデルを訓練させなければならない。画像のセットを多数用意するには、多大な労力を要する。 One aspect of the technology in this disclosure will be described. When acquiring a high-resolution image from a low-resolution image using a mathematical model trained by a machine learning algorithm, the mathematical model is must be trained in advance. In other words, a worker constructing a mathematical model must prepare a large number of sets of low-resolution and high-resolution images of the same body part and train the mathematical model. Preparing a large number of sets of images requires a lot of effort.

他の側面について説明する。数学モデルを適切に訓練させるためには、訓練に用いる低解像度の画像と高解像度の画像の対応関係が適切である必要がある。対応関係が不適切な画像のセットを用いて数学モデルが訓練されると、良好な高解像度の画像を数学モデルを用いて取得することは困難である。 Explain other aspects. In order to properly train a mathematical model, the correspondence between low-resolution images and high-resolution images used for training needs to be appropriate. It is difficult to obtain good high-resolution images using a mathematical model if the mathematical model is trained using a set of images with inappropriate correspondences.

本開示は、上記複数の側面の少なくともいずれかを解決することを目的とする。つまり、本開示の典型的な目的は、低解像度の画像から高解像度の画像を適切に取得するための眼科画像処理装置、および、眼科画像処理プログラムを提供することである。
The present disclosure aims to solve at least one of the above multiple aspects. That is, a typical object of the present disclosure is to provide an ophthalmologic image processing device and an ophthalmologic image processing program for appropriately acquiring a high-resolution image from a low-resolution image.

本開示における典型的な実施形態が提供する眼科画像処理装置は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像である基画像を取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、画像解像度が前記基画像の画像解像度よりも高い目的画像を取得し、前記数学モデルは、同一の組織の部位を撮影対象とし、且つ、同一の眼科画像撮影装置によって撮影された複数の眼科画像のセットのうち、少なくとも1つの眼科画像である低解像度訓練画像を入力用訓練データとし、前記低解像度訓練画像よりも画像解像度が高い眼科画像である高解像度訓練画像を出力用訓練データとして訓練されており、前記目的画像および前記基画像のうち、表示装置に表示させる画像を、前記目的画像を表示させることが可能なタイミングに応じて予め設定しておくことが可能であり、前記目的画像を表示させることが可能なタイミングが到来した際に、前記目的画像および前記基画像のうち、前記タイミングに応じて予め設定されている画像を前記表示装置に表示させる
An ophthalmologic image processing apparatus provided by a typical embodiment of the present disclosure is an ophthalmologic image processing apparatus that processes an ophthalmologic image that is an image of a tissue of an eye to be examined, and the control unit of the ophthalmologic image processing apparatus is configured to control the ophthalmologic image processing apparatus. By acquiring a base image, which is an ophthalmological image taken by an imaging device, and inputting the base image to a mathematical model trained by a machine learning algorithm, a target image whose image resolution is higher than that of the base image is obtained. The mathematical model is a low-resolution training image that is at least one ophthalmological image from a set of a plurality of ophthalmological images that target the same tissue site and that are taken by the same ophthalmological image capturing device. is used as input training data, and a high-resolution training image, which is an ophthalmological image having a higher image resolution than the low-resolution training image, is used as output training data. The image to be displayed can be set in advance according to the timing when the target image can be displayed, and when the timing when the target image can be displayed has arrived, the target image can be set in advance. And among the base images, an image that is preset according to the timing is displayed on the display device .

本開示における典型的な実施形態が提供する眼科画像処理プログラムは、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、眼科画像撮影装置によって撮影された眼科画像である基画像を取得する基画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、画像解像度が前記基画像の画像解像度よりも高い目的画像を取得する目的画像取得ステップと、を前記眼科画像処理装置に実行させ、前記数学モデルは、同一の組織の部位を撮影対象とし、且つ、同一の眼科画像撮影装置によって撮影された複数の眼科画像のセットのうち、少なくとも1つの眼科画像である低解像度訓練画像を入力用訓練データとし、前記低解像度訓練画像よりも画像解像度が高い眼科画像である高解像度訓練画像を出力用訓練データとして訓練されており、前記目的画像および前記基画像のうち、表示装置に表示させる画像を、前記目的画像を表示させることが可能なタイミングに応じて予め設定しておくことが可能であり、前記目的画像を表示させることが可能なタイミングが到来した際に、前記目的画像および前記基画像のうち、前記タイミングに応じて予め設定されている画像を前記表示装置に表示させるステップを前記眼科画像処理装置に実行させる。
An ophthalmologic image processing program provided by a typical embodiment of the present disclosure is an ophthalmologic image processing program executed by an ophthalmologic image processing apparatus that processes an ophthalmologic image that is an image of a tissue of a subject's eye, When the program is executed by the control unit of the ophthalmological image processing device, a base image acquisition step of acquiring a base image, which is an ophthalmologic image taken by the ophthalmology image capturing device, and a mathematical model trained by a machine learning algorithm are performed. By inputting the base image, the ophthalmological image processing apparatus executes a target image acquisition step of acquiring a target image whose image resolution is higher than that of the base image, and the mathematical model A low-resolution training image that is at least one ophthalmological image from a set of a plurality of ophthalmological images taken by the same ophthalmological image capturing device is used as input training data, and the low-resolution training A high-resolution training image, which is an ophthalmological image having a higher image resolution than the image, is trained as output training data, and among the target image and the base image, the image to be displayed on the display device is the target image. It is possible to set in advance according to the timing when the target image can be displayed, and when the timing when the target image can be displayed has arrived, the target image and the base image can be set according to the timing The ophthalmologic image processing apparatus is caused to execute a step of displaying a preset image on the display device.

本開示に係る眼科画像処理装置および眼科画像処理プログラムによると、低解像度の画像から高解像度の画像が適切に取得される。
According to the ophthalmologic image processing device and the ophthalmologic image processing program according to the present disclosure, a high-resolution image is appropriately acquired from a low-resolution image.

数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a mathematical model construction device 1, an ophthalmological image processing device 21, and ophthalmological image photographing devices 11A and 11B. 数学モデル構築装置1が実行する数学モデル構築処理のフローチャートである。3 is a flowchart of a mathematical model construction process executed by the mathematical model construction device 1. FIG. 高解像度訓練画像31および低解像度訓練画像32を含む訓練データセット30を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining a training data set 30 including a high-resolution training image 31 and a low-resolution training image 32. FIG. 本実施形態における数学モデルの訓練の内容を説明するための説明図である。It is an explanatory diagram for explaining the contents of training of the mathematical model in this embodiment. 眼科画像処理装置21が実行する眼科画像処理のフローチャートである。It is a flowchart of ophthalmological image processing performed by the ophthalmological image processing device 21. 目的画像42と注目領域画像44の合成画像40の一例を示す図である。4 is a diagram showing an example of a composite image 40 of a target image 42 and an attention area image 44. FIG.

<概要>
本開示で例示する眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像である基画像を取得する。制御部は、機械学習アルゴリズムによって訓練された数学モデルに基画像を入力することで、画像解像度が基画像の画像解像度よりも高い目的画像を取得する。数学モデルは、入力用訓練データと出力用訓練データのセットである訓練データセットによって訓練されている。訓練データセットは、同一の組織の部位を撮影対象とし、且つ、同一の眼科画像撮影装置によって撮影された複数の眼科画像を含む。入力用訓練データには、訓練データセットのうちの少なくとも1つの眼科画像である低解像度訓練画像が用いられている。また、出力用訓練データには、訓練データセットのうち、低解像度訓練画像よりも画像解像度が高い眼科画像である高解像度訓練画像が用いられている。
<Summary>
The control unit of the ophthalmologic image processing device exemplified in this disclosure acquires a base image that is an ophthalmologic image captured by the ophthalmologic image capturing device. The control unit obtains a target image having an image resolution higher than that of the base image by inputting the base image to a mathematical model trained by a machine learning algorithm. The mathematical model is trained by a training data set, which is a set of input training data and output training data. The training data set includes a plurality of ophthalmologic images that target the same tissue site and are captured by the same ophthalmologic image capture device. The input training data uses a low-resolution training image that is at least one ophthalmological image in the training data set. Moreover, among the training data sets, high-resolution training images, which are ophthalmological images having a higher image resolution than the low-resolution training images, are used as the output training data.

つまり、数学モデルを構築する数学モデル構築装置は、画像セット取得ステップと訓練ステップを実行する。画像セット取得ステップでは、被検眼の組織の同一の部位を撮影対象とし、且つ、同一の眼科画像撮影装置によって撮影された、複数の眼科画像のセットが取得される。訓練ステップでは、取得されたセットのうち、少なくとも1つの眼科画像である低解像度訓練画像を入力用訓練データとし、且つ、セットのうち、低解像度訓練画像よりも画像解像度が高い眼科画像である高解像度訓練画像を出力用訓練データとして、数学モデルが訓練される。 That is, a mathematical model construction device that constructs a mathematical model performs an image set acquisition step and a training step. In the image set acquisition step, a set of a plurality of ophthalmological images, each of which targets the same region of the tissue of the eye to be examined and is photographed by the same ophthalmological image photographing device, is acquired. In the training step, at least one low-resolution training image, which is an ophthalmological image, of the acquired set is used as input training data, and at least one high-resolution ophthalmic image, which is an ophthalmological image with higher image resolution than the low-resolution training image, is used as input training data. A mathematical model is trained using the resolution training images as output training data.

この場合、訓練データセットに含まれる低解像度訓練画像と高解像度訓練画像が、共に同一の眼科画像撮影装置によって撮影される。従って、低解像度訓練画像と高解像度訓練画像が異なる眼科撮影装置によって撮影される場合に比べて、訓練データセットが効率よく取得される。また、低解像度訓練画像と高解像度訓練画像が異なる眼科撮影装置によって撮影される場合に比べて、訓練データセットに含まれる低解像度訓練画像と高解像度訓練画像の対応関係が適切になりやすい。(例えば、画像の色味、画像に含まれるノイズの量、アーチファクト、光学分解能、撮影画角、撮影時の組織の状態等が、低解像度訓練画像と高解像度訓練画像の間で近似しやすい。)よって、訓練された数学モデルが用いられることで、より良好な目的画像が取得される。 In this case, both the low-resolution training images and the high-resolution training images included in the training data set are captured by the same ophthalmological image capturing device. Therefore, the training data set is acquired more efficiently than when the low-resolution training images and the high-resolution training images are taken by different ophthalmological imaging devices. Furthermore, the correspondence between the low-resolution training images and the high-resolution training images included in the training data set is likely to be appropriate compared to the case where the low-resolution training images and the high-resolution training images are captured by different ophthalmological imaging devices. (For example, the color tone of the image, the amount of noise contained in the image, artifacts, optical resolution, imaging angle of view, tissue condition at the time of imaging, etc. are likely to be similar between low-resolution training images and high-resolution training images. ) Therefore, by using the trained mathematical model, a better target image can be obtained.

なお、本開示における「画像解像度」は、撮影対象を描写する細かさ(つまり、画像の精細さ)を意味する。換言すると、本開示における「画像解像度」は、撮影対象である組織上の単位面積に対応する、画像の画素数である。 Note that "image resolution" in the present disclosure means the fineness of depicting the object to be photographed (that is, the fineness of the image). In other words, "image resolution" in the present disclosure is the number of pixels of an image corresponding to a unit area on the tissue to be imaged.

また、訓練データセットに含まれる低解像度訓練画像および高解像度訓練画像は、同一の眼科画像撮影装置によって撮影された眼科画像そのもの(つまり、原画像)に限定されない。例えば、低解像度訓練画像および高解像度訓練画像の少なくとも一方は、眼科画像撮影装置によって撮影された原画像に基づいて生成された画像でもよい。つまり、低解像度訓練画像および高解像度訓練画像の少なくとも一方に加工等が施されている場合、低解像度訓練画像および高解像度訓練画像の基となった原画像が、同一の眼科画像撮影装置によって撮影されていればよい。 Further, the low-resolution training images and high-resolution training images included in the training data set are not limited to the ophthalmological images themselves (that is, original images) taken by the same ophthalmological image capturing device. For example, at least one of the low-resolution training image and the high-resolution training image may be an image generated based on an original image captured by an ophthalmologic image capturing device. In other words, if at least one of the low-resolution training images and high-resolution training images has been processed, the original images on which the low-resolution training images and the high-resolution training images are based were taken by the same ophthalmological imaging device. It would be fine if it had been done.

基画像、低解像度訓練画像、および高解像度訓練画像は、OCT装置によって撮影された被検眼の眼底のOCTアンジオ画像であってもよい。OCTアンジオ画像には、被検眼の眼底血管が表れる。よって、OCTアンジオ画像が用いられることで、眼底血管が表れた高解像度の目的画像が、基画像に基づいて適切に取得される。 The base image, the low-resolution training image, and the high-resolution training image may be OCT angio images of the fundus of the subject's eye taken by an OCT device. The OCT angio image shows the fundus blood vessels of the eye to be examined. Therefore, by using the OCT angio image, a high-resolution target image showing fundus blood vessels can be appropriately acquired based on the base image.

なお、OCTアンジオ画像は、眼底を正面(つまり、被検眼の視線方向)から見た二次元の正面画像であってもよい。OCTアンジオ画像は、例えば、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が処理されることで取得されるモーションコントラスト画像であってもよい。 Note that the OCT angio image may be a two-dimensional front image of the fundus viewed from the front (that is, the line of sight direction of the eye to be examined). The OCT angio image may be, for example, a motion contrast image obtained by processing at least two OCT signals obtained at different times regarding the same position.

ただし、訓練データセットとして用いられる眼科画像、および、数学モデルに入力される基画像として、眼底のOCTアンジオ画像以外の画像を用いることも可能である。例えば、OCT装置によって撮影された断層画像(二次元断層画像または三次元断層画像)、眼底カメラによって撮影された画像、レーザ走査型検眼装置(SLO)によって撮影された画像等の少なくともいずれかが、訓練データセットおよび基画像として用いられてもよい。また、訓練データセットおよび基画像は、被検眼の眼底以外の組織(例えば被検眼の前眼部等)を撮影した画像であってもよい。 However, it is also possible to use images other than the OCT angio image of the fundus as the ophthalmological image used as the training data set and the base image input to the mathematical model. For example, at least one of a tomographic image (two-dimensional tomographic image or three-dimensional tomographic image) taken by an OCT device, an image taken by a fundus camera, an image taken by a laser scanning ophthalmoscope (SLO), etc. It may be used as a training dataset and base image. Further, the training data set and the base image may be images of tissues other than the fundus of the eye to be examined (for example, the anterior segment of the eye to be examined).

複数の訓練データセットの少なくともいずれかに用いられる高解像度訓練画像は、完全には重複しない複数の撮影領域の各々において撮影された複数の眼科画像を位置合わせすることで生成されたパノラマ画像であってもよい。つまり、眼科画像撮影装置は、完全には重複しない複数の撮影領域の各々について眼科画像(以下、「単位画像」という)を撮影してもよい。撮影された複数の単位画像が位置合わせされることで、パノラマ画像が生成されてもよい。数学モデル構築装置が実行する画像データ取得ステップは、生成されたパノラマ画像を高解像度訓練画像として取得するパノラマ画像取得ステップを含んでいてもよい。 The high-resolution training image used in at least one of the plurality of training datasets is a panoramic image generated by aligning a plurality of ophthalmological images taken in each of a plurality of imaging regions that do not completely overlap. You can. That is, the ophthalmologic image capturing apparatus may capture an ophthalmologic image (hereinafter referred to as a "unit image") for each of a plurality of capturing regions that do not completely overlap. A panoramic image may be generated by positioning a plurality of captured unit images. The image data acquisition step performed by the mathematical model construction device may include a panoramic image acquisition step of acquiring the generated panoramic image as a high-resolution training image.

この場合、画像解像度が高い単位画像が撮影されることで、組織の広い範囲が撮影された高解像度の画像が、訓練データセットの高解像度訓練画像として用いられる。従って、訓練データセットの高解像度訓練画像がより適切に取得される。 In this case, by capturing a unit image with a high image resolution, a high-resolution image capturing a wide range of tissue is used as a high-resolution training image of the training data set. Therefore, high-resolution training images of the training dataset are better obtained.

複数の訓練データセットの少なくともいずれかに用いられる低解像度訓練画像は、高解像度訓練画像であるパノラマ画像の画像解像度を低下させることで生成された画像であってもよい。つまり、数学モデル構築装置が実行する画像データ取得ステップは、パノラマ画像の画像解像度を低下させることで低解像度訓練画像を生成する低解像度訓練画像生成ステップを含んでいてもよい。 The low-resolution training image used in at least one of the plurality of training data sets may be an image generated by lowering the image resolution of a panoramic image that is a high-resolution training image. That is, the image data acquisition step performed by the mathematical model construction device may include a low-resolution training image generation step of generating a low-resolution training image by lowering the image resolution of the panoramic image.

この場合、少なくともいずれかの訓練データセットにおいて、低解像度訓練画像と高解像度訓練画像の撮影範囲、撮影位置、および撮影時の組織の状態が一致する。従って、訓練された数学モデルが用いられることで、より良好な目的画像が取得される。 In this case, in at least one of the training datasets, the low-resolution training image and the high-resolution training image have the same imaging range, imaging position, and tissue state at the time of imaging. Therefore, by using a trained mathematical model, a better target image is obtained.

なお、数学モデルを訓練する場合、複数の訓練データセットが訓練に用いられる。ここで、訓練データセットの高解像度訓練画像としてパノラマ画像が用いられる場合、複数の高解像度訓練画像の全てがパノラマ画像である必要は無く、複数の高解像度訓練画像の少なくとも一部がパノラマ画像であればよい。なお、複数の高解像度訓練画像に占めるパノラマ画像の割合が多い場合(望ましくは50%以上、より望ましくは70%以上の場合)には、高解像度訓練画像がより容易に取得される。同様に、パノラマ画像の画像解像度を低下させた画像(以下、「低解像度パノラマ画像」という)が訓練に用いられる場合、複数の低解像度訓練画像の全てが低解像度パノラマ画像である必要は無い。なお、複数の低解像度訓練画像に占める低解像度パノラマ画像の割合が多い場合(望ましくは50%以上、より望ましくは70%以上の場合)には、目的画像の品質がさらに向上する。 Note that when training a mathematical model, multiple training datasets are used for training. Here, when panoramic images are used as high-resolution training images in the training dataset, all of the multiple high-resolution training images do not need to be panoramic images, and at least some of the multiple high-resolution training images are panoramic images. Good to have. Note that when the proportion of panoramic images in the plurality of high-resolution training images is large (preferably 50% or more, more preferably 70% or more), high-resolution training images are more easily acquired. Similarly, when an image obtained by reducing the image resolution of a panoramic image (hereinafter referred to as a "low-resolution panoramic image") is used for training, it is not necessary that all of the plurality of low-resolution training images are low-resolution panoramic images. Note that when the proportion of low-resolution panoramic images in the plurality of low-resolution training images is large (preferably 50% or more, more preferably 70% or more), the quality of the target image is further improved.

ただし、訓練データセットの低解像度訓練画像と高解像度訓練画像を生成するための具体的な方法を変更することも可能である。例えば、パノラマ画像でない眼科画像が、訓練データセットの高解像度訓練画像として用いられてもよい。また、パノラマ画像でない眼科画像の画像解像度を低下させることで、訓練データセットの低解像度訓練画像が生成されてもよい。また、同一の組織を異なる画像解像度で複数回撮影することで生成された複数の眼科画像が、訓練データセットの低解像度訓練画像および高解像度訓練画像として用いられてもよい。また、高解像度訓練画像としてパノラマ画像が用いられる場合に、パノラマ画像と同等の撮影範囲を低解像度で撮影した画像が、訓練データセットの低解像度訓練画像として用いられてもよい。 However, it is also possible to change the specific method for generating the low-resolution training images and high-resolution training images of the training dataset. For example, ophthalmological images that are not panoramic images may be used as high resolution training images in the training dataset. Additionally, low-resolution training images of the training dataset may be generated by reducing the image resolution of ophthalmological images that are not panoramic images. Further, a plurality of ophthalmological images generated by photographing the same tissue multiple times at different image resolutions may be used as the low-resolution training image and the high-resolution training image of the training data set. Furthermore, when a panoramic image is used as a high-resolution training image, an image obtained by photographing a shooting range equivalent to the panoramic image at low resolution may be used as the low-resolution training image of the training dataset.

複数の訓練データセットの少なくともいずれかに用いられる低解像度訓練画像には、画像領域の少なくとも一部に対し、画質を劣化させる劣化処理が行われていてもよい。つまり、数学モデル構築装置は、低解像度訓練画像の画像領域の少なくとも一部に対し、画質を劣化させる劣化ステップを実行してもよい。 A low-resolution training image used for at least one of the plurality of training data sets may have undergone deterioration processing that degrades image quality on at least a portion of the image region. That is, the mathematical model construction device may perform a deterioration step of degrading the image quality on at least a portion of the image region of the low-resolution training image.

この場合、基画像の少なくとも一部の画質が良好でない場合でも、良好でない画質の影響が軽減された目的画像を出力するように、数学モデルが訓練される。よって、より適切な目的画像が取得される。 In this case, even if the image quality of at least part of the base image is poor, the mathematical model is trained to output a target image in which the influence of the poor image quality is reduced. Therefore, a more appropriate target image is obtained.

劣化処理の具体的な内容は、適宜選択できる。例えば、数学モデル構築装置の制御部は、ノイズを付与するノイズ付与処理、および、ぼかしを付与するぼかし付与処理の少なくともいずれかを行ってもよい。 The specific details of the deterioration process can be selected as appropriate. For example, the control unit of the mathematical model construction device may perform at least one of a noise adding process that adds noise and a blurring process that adds blur.

眼科画像処理装置の制御部は、同時表示処理および切替表示処理の少なくとも一方を実行してもよい。同時表示処理では、制御部は、基画像と目的画像を表示装置に同時に表示させる。切替表示処理では、制御部は、ユーザによって入力された指示に応じて、基画像と目的画像を切り替えて表示装置に表示させる。この場合、ユーザは、画像解像度が高い目的画像と、目的画像の基となった基画像(原画像)の両方を容易に確認することができる。よって、ユーザは、診断等をより適切に行うことができる。なお、基画像と目的画像は、同一の表示装置に表示されてもよいし、別々の表示装置に表示されてもよい。 The control unit of the ophthalmological image processing device may execute at least one of simultaneous display processing and switching display processing. In the simultaneous display process, the control unit displays the base image and the target image simultaneously on the display device. In the switching display process, the control unit switches between the base image and the target image and displays them on the display device according to an instruction input by the user. In this case, the user can easily confirm both the target image with high image resolution and the base image (original image) on which the target image is based. Therefore, the user can perform diagnosis etc. more appropriately. Note that the base image and the target image may be displayed on the same display device, or may be displayed on separate display devices.

制御部は、眼科画像撮影装置によって連続して撮影される基画像を順次取得してもよい。制御部は、取得した基画像を数学モデルに順次入力することで、目的画像を連続して取得してもよい。制御部は、取得した複数の目的画像に基づいて、組織の動画データを生成してもよい。この場合、ユーザは、高い画像解像度で表示される組織の動画を確認することができる。よって、ユーザは、診断等をより適切に行うことができる。 The control unit may sequentially acquire base images that are continuously captured by the ophthalmologic image capturing device. The control unit may successively acquire the target images by sequentially inputting the acquired base images to the mathematical model. The control unit may generate moving image data of the tissue based on the plurality of acquired target images. In this case, the user can check the moving image of the tissue displayed at high image resolution. Therefore, the user can perform diagnosis etc. more appropriately.

特に、高い解像度のパノラマ画像を生成する場合には、複数の単位画像からパノラマ画像が生成されるので、パノラマ画像を用いて組織の動画を表示させる場合には、フレームレートが著しく低下し易い。特に、撮影位置が時間の経過に伴って変化する場合等には、パノラマ画像を用いて良好な動画を生成することは困難である。これに対し、本開示の眼科画像処理装置は、フレームレートが低下することを抑制しつつ、高い解像度で広い範囲を撮影した動画を生成することが可能である。 In particular, when generating a high-resolution panoramic image, the panoramic image is generated from a plurality of unit images, so when displaying a moving image of tissue using the panoramic image, the frame rate tends to drop significantly. In particular, when the shooting position changes over time, it is difficult to generate a good moving image using a panoramic image. In contrast, the ophthalmological image processing device of the present disclosure is capable of generating a video that captures a wide range with high resolution while suppressing a decrease in frame rate.

なお、制御部は、眼科画像撮影装置によって撮影されている組織の高解像度の動画を、撮影と並行してリアルタイムに表示装置に表示させてもよい。また、制御部は、基画像の動画と目的画像の動画を表示装置に同時に表示させてもよい。また、制御部は、ユーザによって入力された指示に応じて、基画像の動画と目的画像の動画を切り替えて表示装置に表示させてもよい。この場合、ユーザは、目的画像の動画と基画像の動画の両方を容易に確認することができる。 Note that the control unit may cause the display device to display a high-resolution moving image of the tissue being imaged by the ophthalmologic image capturing device in real time in parallel with the image capturing. Further, the control unit may cause the display device to simultaneously display the moving image of the base image and the moving image of the target image. Further, the control unit may switch between the base image video and the target image video and display them on the display device according to an instruction input by the user. In this case, the user can easily check both the moving image of the target image and the moving image of the base image.

眼科画像処理装置の制御部は、注目領域画像取得ステップ、および合成ステップを実行してもよい。注目領域画像取得ステップでは、眼科画像撮影装置によって撮影された注目領域画像が取得される。注目領域画像は、基画像の撮影領域の注目領域が、基画像の画像解像度よりも高い画像解像度で撮影された画像である。合成ステップでは、目的画像における注目領域に、注目領域画像の原画像が合成される。この場合、合成された画像では、画像解像度が高い原画像によって注目領域が形成されると共に、注目領域以外の領域は目的画像によって形成される。よって、ユーザは、注目領域を原画像によって確認することができ、且つ、画像全体も高い解像度で確認することができる。 The control unit of the ophthalmological image processing apparatus may execute the attention area image acquisition step and the compositing step. In the attention area image acquisition step, an attention area image photographed by an ophthalmologic image capturing device is acquired. The attention area image is an image in which the attention area in the photography area of the base image is photographed at an image resolution higher than the image resolution of the base image. In the compositing step, the original image of the region of interest image is composited with the region of interest in the target image. In this case, in the combined image, the region of interest is formed by the original image with high image resolution, and the regions other than the region of interest are formed by the target image. Therefore, the user can confirm the region of interest in the original image, and can also confirm the entire image at high resolution.

<実施形態>
(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された基画像に基づいて、基画像よりも画像解像度が高い目的画像を出力する。眼科画像処理装置21は、数学モデルを用いて、基画像から目的画像を取得する。眼科画像撮影装置11A,11Bは、被検眼の組織の画像である眼科画像を撮影する。
<Embodiment>
(Device configuration)
One typical embodiment of the present disclosure will be described below with reference to the drawings. As shown in FIG. 1, in this embodiment, a mathematical model construction device 1, an ophthalmological image processing device 21, and ophthalmological image capturing devices 11A and 11B are used. The mathematical model construction device 1 constructs a mathematical model by training the mathematical model using a machine learning algorithm. The constructed mathematical model outputs a target image having a higher image resolution than the base image, based on the input base image. The ophthalmological image processing device 21 uses a mathematical model to obtain a target image from a base image. The ophthalmologic image capturing devices 11A and 11B capture ophthalmologic images that are images of tissues of the eye to be examined.

一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、眼科画像撮影装置11Aから取得した眼科画像を利用して数学モデルを訓練させることで、数学モデルを構築する。しかし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、眼科画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as "PC") is used as the mathematical model construction device 1 of this embodiment. Although details will be described later, the mathematical model construction device 1 constructs a mathematical model by training the mathematical model using the ophthalmologic images acquired from the ophthalmologic image capturing device 11A. However, the device that can function as the mathematical model construction device 1 is not limited to a PC. For example, the ophthalmologic image capturing device 11A may function as the mathematical model construction device 1. Further, the control units of a plurality of devices (for example, the CPU of the PC and the CPU 13A of the ophthalmological image capturing apparatus 11A) may cooperate to construct the mathematical model.

また、本実施形態の眼科画像処理装置21にはPCが用いられる。しかし、眼科画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、眼科画像撮影装置11Bまたはサーバ等が、眼科画像処理装置21として機能してもよい。眼科画像撮影装置(本実施形態ではOCT装置)11Bが眼科画像処理装置21として機能する場合、眼科画像撮影装置11Bは、眼科画像を撮影しつつ、撮影した眼科画像よりも高画質の眼科画像を適切に取得することができる。タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。 Further, a PC is used as the ophthalmological image processing apparatus 21 of this embodiment. However, the device that can function as the ophthalmological image processing device 21 is not limited to a PC either. For example, the ophthalmologic image capturing device 11B, a server, or the like may function as the ophthalmologic image processing device 21. When the ophthalmologic image capturing device 11B (OCT device in this embodiment) functions as the ophthalmologic image processing device 21, the ophthalmologic image capturing device 11B captures an ophthalmologic image while also capturing an ophthalmologic image with higher quality than the captured ophthalmologic image. can be obtained appropriately. A mobile terminal such as a tablet terminal or a smartphone may function as the ophthalmological image processing device 21. The control units of a plurality of devices (for example, the CPU of the PC and the CPU 13B of the ophthalmological image capturing apparatus 11B) may cooperate to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Further, in this embodiment, a case will be described in which a CPU is used as an example of a controller that performs various processes. However, it goes without saying that a controller other than the CPU may be used for at least some of the various devices. For example, a GPU may be used as the controller to speed up the processing.

数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、眼科画像処理装置21または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理(図2参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、眼科画像撮影装置11Aおよび眼科画像処理装置21等)と接続する。 The mathematical model construction device 1 will be explained. The mathematical model construction device 1 is placed, for example, at a manufacturer that provides the ophthalmologic image processing device 21 or the ophthalmologic image processing program to users. The mathematical model construction device 1 includes a control unit 2 that performs various control processes and a communication I/F 5. The control unit 2 includes a CPU 3, which is a controller that controls, and a storage device 4 that can store programs, data, and the like. The storage device 4 stores a mathematical model building program for executing a mathematical model building process (see FIG. 2), which will be described later. Further, the communication I/F 5 connects the mathematical model construction device 1 to other devices (for example, the ophthalmologic image capturing device 11A and the ophthalmologic image processing device 21, etc.).

数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 1 is connected to an operation section 7 and a display device 8. The operation unit 7 is operated by the user in order for the user to input various instructions to the mathematical model construction device 1. As the operation unit 7, for example, at least one of a keyboard, a mouse, a touch panel, etc. can be used. Note that a microphone or the like for inputting various instructions may be used together with or in place of the operation section 7. The display device 8 displays various images. As the display device 8, various devices capable of displaying images (for example, at least one of a monitor, a display, a projector, etc.) can be used. Note that "image" in the present disclosure includes both still images and moving images.

数学モデル構築装置1は、眼科画像撮影装置11Aから眼科画像のデータ(以下、単に「眼科画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Aから眼科画像のデータを取得してもよい。 The mathematical model construction device 1 can acquire ophthalmologic image data (hereinafter sometimes simply referred to as "ophthalmologic image") from the ophthalmologic image capturing device 11A. The mathematical model construction device 1 may acquire ophthalmologic image data from the ophthalmologic image capturing device 11A through at least one of wired communication, wireless communication, a removable storage medium (for example, a USB memory), and the like.

眼科画像処理装置21について説明する。眼科画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する眼科画像処理(図5参照)を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、眼科画像処理装置21を他のデバイス(例えば、眼科画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。 The ophthalmologic image processing device 21 will be explained. The ophthalmological image processing device 21 is placed, for example, in a facility (for example, a hospital or a medical examination facility) that performs diagnosis or examination of subjects. The ophthalmologic image processing device 21 includes a control unit 22 that performs various control processes, and a communication I/F 25. The control unit 22 includes a CPU 23 that is a controller that controls control, and a storage device 24 that can store programs, data, and the like. The storage device 24 stores an ophthalmologic image processing program for executing ophthalmologic image processing (see FIG. 5), which will be described later. The ophthalmologic image processing program includes a program that realizes the mathematical model constructed by the mathematical model construction device 1. The communication I/F 25 connects the ophthalmologic image processing device 21 to other devices (for example, the ophthalmologic image capturing device 11B and the mathematical model construction device 1).

眼科画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。 The ophthalmological image processing device 21 is connected to an operation section 27 and a display device 28. As with the operation section 7 and display device 8 described above, various devices can be used for the operation section 27 and the display device 28.

眼科画像処理装置21は、眼科画像撮影装置11Bから眼科画像を取得することができる。眼科画像処理装置21は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Bから眼科画像を取得してもよい。また、眼科画像処理装置21は、数学モデル構築装置1によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The ophthalmologic image processing device 21 can acquire ophthalmologic images from the ophthalmologic image capturing device 11B. The ophthalmological image processing device 21 may acquire ophthalmological images from the ophthalmological image capturing device 11B, for example, by wired communication, wireless communication, a removable storage medium (for example, a USB memory), or the like. Further, the ophthalmological image processing device 21 may acquire a program or the like that realizes the mathematical model constructed by the mathematical model construction device 1 via communication or the like.

眼科画像撮影装置11A,11Bについて説明する。一例として、本実施形態では、数学モデル構築装置1に眼科画像を提供する眼科画像撮影装置11Aと、眼科画像処理装置21に眼科画像を提供する眼科画像撮影装置11Bが使用される場合について説明する。しかし、使用される眼科画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置1および眼科画像処理装置21は、複数の眼科画像撮影装置から眼科画像を取得してもよい。また、数学モデル構築装置1および眼科画像処理装置21は、共通する1つの眼科画像撮影装置から眼科画像を取得してもよい。なお、本実施形態で例示する2つの眼科画像撮影装置11A,11Bは、同一の構成を備える。従って、以下では、2つの眼科画像撮影装置11A,11Bについて纏めて説明を行う。 The ophthalmologic image capturing devices 11A and 11B will be explained. As an example, in this embodiment, a case will be described in which an ophthalmologic image capturing device 11A that provides ophthalmologic images to the mathematical model construction device 1 and an ophthalmologic image capturing device 11B that provides ophthalmologic images to the ophthalmologic image processing device 21 are used. . However, the number of ophthalmological imaging devices used is not limited to two. For example, the mathematical model construction device 1 and the ophthalmology image processing device 21 may acquire ophthalmology images from a plurality of ophthalmology image capturing devices. Further, the mathematical model construction device 1 and the ophthalmologic image processing device 21 may acquire ophthalmologic images from one common ophthalmologic image capturing device. Note that the two ophthalmologic image capturing apparatuses 11A and 11B illustrated in this embodiment have the same configuration. Therefore, below, the two ophthalmological image capturing apparatuses 11A and 11B will be collectively described.

また、本実施形態では、眼科画像撮影装置11(11A,11B)として、眼底のOCTアンジオ画像を撮影することが可能なOCT装置が用いられる。OCTアンジオ画像には、被検眼の眼底血管が表れる。よって、眼科画像処理装置21は、眼底血管が表れた高解像度の目的画像を取得することができる。なお、本実施形態のOCTアンジオ画像は、眼底を正面(つまり、被検眼の視線方向)から見た場合の二次元正面画像である。 Further, in this embodiment, an OCT device capable of capturing an OCT angio image of the fundus is used as the ophthalmologic image capturing device 11 (11A, 11B). The OCT angio image shows the fundus blood vessels of the eye to be examined. Therefore, the ophthalmological image processing device 21 can acquire a high-resolution target image in which the fundus blood vessels are displayed. Note that the OCT angio image of this embodiment is a two-dimensional front image when the fundus of the eye is viewed from the front (that is, the line of sight direction of the subject's eye).

眼科画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、眼科画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。 The ophthalmologic image capturing device 11 (11A, 11B) includes a control unit 12 (12A, 12B) that performs various control processes, and an ophthalmologic image capturing section 16 (16A, 16B). The control unit 12 includes a CPU 13 (13A, 13B) that is a controller that controls control, and a storage device 14 (14A, 14B) that can store programs, data, and the like.

眼科画像撮影部16は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施形態の眼科画像撮影部16には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。 The ophthalmological image photographing unit 16 includes various configurations necessary for photographing an ophthalmological image of the eye to be examined. The ophthalmologic image capturing section 16 of this embodiment includes an OCT light source, a branching optical element that branches the OCT light emitted from the OCT light source into a measurement light and a reference light, a scanning section for scanning the measurement light, and a scanning section for scanning the measurement light. It includes an optical system for irradiating the eye to be examined, a light receiving element that receives the combined light of the light reflected by the tissue of the eye to be examined and the reference light, and the like.

眼科画像撮影装置11は、OCTアンジオ画像の一種であるモーションコントラスト画像を撮影(生成)する。詳細には、CPU13は、組織における同一の位置にOCT光を複数回走査させることで、測定時間が異なる少なくとも2フレームのOCT信号(干渉信号)を取得する。CPU13は、取得したOCT信号に対して演算処理を行うことで、モーションコントラスト画像のデータを取得する。OCT信号を処理してモーションコントラストデータを取得する方法には、例えば、複素OCT信号の位相差を算出する方法、複素OCT信号のベクトル差分を算出する方法、脱相関、比、差分、分散等の振幅または強度の変化を算出する方法、および、複数の演算結果を掛け合わせる方法等の少なくともいずれかが採用されればよい。 The ophthalmologic image capturing device 11 captures (generates) a motion contrast image, which is a type of OCT angio image. Specifically, the CPU 13 acquires at least two frames of OCT signals (interference signals) with different measurement times by scanning the same position in the tissue multiple times with OCT light. The CPU 13 acquires motion contrast image data by performing arithmetic processing on the acquired OCT signal. Methods for obtaining motion contrast data by processing OCT signals include, for example, a method of calculating a phase difference of a complex OCT signal, a method of calculating a vector difference of a complex OCT signal, a method of decorrelation, a ratio, a difference, a variance, etc. At least one of a method of calculating a change in amplitude or intensity, a method of multiplying a plurality of calculation results, etc. may be adopted.

さらに、眼科画像撮影装置11は、組織(本実施形態では眼底)のパノラマ画像を撮影(生成)することができる。パノラマ画像は、完全には互いに重複しない複数の撮影領域の各々において撮影された複数の画像(以下、単位画像という)を位置合わせすることで生成される。それぞれの単位画像の撮影領域は、パノラマ画像全体の撮影領域よりも狭い。従って、眼科画像撮影装置11は、それぞれの単位画像を高い画像解像度で撮影することが可能である。よって、パノラマ画像は、組織の広い範囲が撮影された高解像度の画像となる。なお、OCTアンジオ画像のパノラマ画像を取得する方法の一例は、例えば、特開2017-47113号公報に記載されている。 Further, the ophthalmologic image capturing device 11 can capture (generate) a panoramic image of a tissue (in this embodiment, the fundus). A panoramic image is generated by aligning a plurality of images (hereinafter referred to as unit images) photographed in each of a plurality of photographing regions that do not completely overlap with each other. The photographing area of each unit image is narrower than the photographing area of the entire panoramic image. Therefore, the ophthalmologic image capturing device 11 can capture each unit image with high image resolution. Therefore, the panoramic image is a high-resolution image that captures a wide range of tissues. Note that an example of a method for acquiring a panoramic image of an OCT angio image is described in, for example, Japanese Patent Application Publication No. 2017-47113.

ただし、OCT装置以外の眼科画像撮影装置を用いることも可能である。例えば、眼底カメラ、レーザ走査型検眼装置(SLO)、または角膜内皮細胞撮影装置(CEM)等が、眼科撮影装置として用いられてもよい。また、OCT装置は、二次元断層画像または三次元断層画像を、数学モデル構築装置1または眼科画像処理装置21に提供してもよい。 However, it is also possible to use an ophthalmologic imaging device other than the OCT device. For example, a fundus camera, a laser scanning ophthalmoscope (SLO), a corneal endothelial cell imaging device (CEM), or the like may be used as the ophthalmological imaging device. Further, the OCT device may provide a two-dimensional tomographic image or a three-dimensional tomographic image to the mathematical model construction device 1 or the ophthalmological image processing device 21.

(数学モデル構築処理)
図2~図4を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。
(mathematical model construction process)
The mathematical model construction process executed by the mathematical model construction device 1 will be described with reference to FIGS. 2 to 4. The mathematical model construction process is executed by the CPU 3 according to the mathematical model construction program stored in the storage device 4.

数学モデル構築処理では、訓練データセットによって数学モデルが訓練されることで、基画像から目的画像を出力するための数学モデルが構築される。詳細は後述するが、訓練データセットには、入力用訓練データと出力用訓練データが含まれる。本実施形態では、入力用訓練データとして低解像度訓練画像のデータが使用される。また、出力用訓練データとして、低解像度訓練画像よりも画像解像度が高い高解像度訓練画像のデータが使用される。低解像度訓練画像と高解像度訓練画像は、同一の組織の部位を撮影対象としている。また、低解像度訓練画像と高解像度訓練画像は、同一の眼科画像撮影装置11によって撮影された画像に基づく画像である。 In the mathematical model construction process, a mathematical model is trained using a training data set, thereby constructing a mathematical model for outputting a target image from a base image. Although details will be described later, the training data set includes input training data and output training data. In this embodiment, low-resolution training image data is used as input training data. Further, as the output training data, data of a high-resolution training image whose image resolution is higher than that of the low-resolution training image is used. The low-resolution training image and the high-resolution training image target the same tissue site. Further, the low-resolution training image and the high-resolution training image are images based on images captured by the same ophthalmologic image capturing device 11.

図2に示すように、CPU3は、高解像度のパノラマ画像(本実施形態では、OCTアンジオ画像のパノラマ画像)を、高解像度訓練画像30として取得する(S1)。本実施形態では、CPU3は、眼科画像撮影装置11Aによって生成されたパノラマ画像を、通信等を介して取得する。ただし、CPU3は、パノラマ画像を生成する基となるデータ(例えば、モーションコントラストデータ)を取得し、取得したデータに基づいてパノラマ画像を生成することで、パノラマ画像を取得してもよい。 As shown in FIG. 2, the CPU 3 acquires a high-resolution panoramic image (in this embodiment, a panoramic image of an OCT angio image) as a high-resolution training image 30 (S1). In this embodiment, the CPU 3 acquires a panoramic image generated by the ophthalmological image capturing device 11A via communication or the like. However, the CPU 3 may acquire the panoramic image by acquiring data (for example, motion contrast data) that is the basis for generating the panoramic image, and generating the panoramic image based on the acquired data.

図3に、本実施形態で使用される高解像度訓練画像31の一例を示す。図3に示すように、本実施形態の高解像度訓練画像31は、OCTアンジオ画像のパノラマ画像であり、4つの単位画像311,312,313,314が位置合わせされることで生成されている。一例として、本実施形態では、4つの単位画像311,312,313,314の各々は、組織上における1辺3mmの正方形の領域を撮影した画像である。4つの単位画像311,312,313,314の各々の解像度は、256pt×256ptである。4つの単位画像311,312,313,314の各々の撮影領域は、格子状に隙間なく接している。よって、パノラマ画像である高解像度訓練画像31では、組織上における撮影領域は1辺6mmの正方形の領域となり、解像度は512pt×512ptとなる。 FIG. 3 shows an example of the high-resolution training image 31 used in this embodiment. As shown in FIG. 3, the high-resolution training image 31 of this embodiment is a panoramic image of an OCT angio image, and is generated by aligning four unit images 311, 312, 313, and 314. As an example, in this embodiment, each of the four unit images 311, 312, 313, and 314 is an image of a square area of 3 mm on a side on the tissue. The resolution of each of the four unit images 311, 312, 313, and 314 is 256 pt×256 pt. The photographing areas of the four unit images 311, 312, 313, and 314 are in contact with each other without gaps in a grid pattern. Therefore, in the high-resolution training image 31, which is a panoramic image, the imaging area on the tissue is a square area of 6 mm on a side, and the resolution is 512 pt x 512 pt.

次いで、CPU3は、パノラマ画像である高解像度訓練画像31の画像解像度を低下させることで、低解像度訓練画像32を生成する(S2)。一例として、本実施形態のCPU3は、高解像度訓練画像31を構成する複数の画素を、規則的に(本実施形態では1個毎に)間引くことで、低解像度訓練画像32を生成する。その結果、低解像度訓練画像32では、組織上における撮影領域は、高解像度訓練画像31の撮影領域と同様に、1辺6mmの正方形の領域となる。一方で、低解像度訓練画像32の解像度は、256pt×256ptに低下する。その結果、低解像度訓練画像32の画像解像度(組織上の単位面積に対する画像の画素数)は、高解像度訓練画像31の画像解像度よりも低下する。 Next, the CPU 3 generates a low-resolution training image 32 by lowering the image resolution of the high-resolution training image 31, which is a panoramic image (S2). As an example, the CPU 3 of the present embodiment generates the low-resolution training image 32 by thinning out a plurality of pixels constituting the high-resolution training image 31 regularly (in this embodiment, one by one). As a result, in the low-resolution training image 32, the imaging region on the tissue becomes a square region of 6 mm on a side, similar to the imaging region in the high-resolution training image 31. On the other hand, the resolution of the low resolution training image 32 is reduced to 256pt x 256pt. As a result, the image resolution of the low-resolution training image 32 (the number of pixels of the image per unit area on the tissue) is lower than the image resolution of the high-resolution training image 31.

以上のように、CPU3は、高解像度訓練画像31の画像解像度を低下させて低解像度訓練画像32を生成することで、高解像度訓練画像31と低解像度訓練画像32を含む訓練データセット30を取得する。この場合、高解像度訓練画像31と低解像度訓練画像32の撮影領域、撮影位置、および撮影時の組織の状態が一致する。よって、後述する数学モデルの訓練が、より適切に行われる。 As described above, the CPU 3 obtains the training data set 30 including the high-resolution training image 31 and the low-resolution training image 32 by reducing the image resolution of the high-resolution training image 31 and generating the low-resolution training image 32. do. In this case, the high-resolution training image 31 and the low-resolution training image 32 have the same imaging area, imaging position, and tissue state at the time of imaging. Therefore, training of a mathematical model, which will be described later, is performed more appropriately.

また、数学モデルの訓練には、複数の訓練データセットが用いられる。本実施形態では、複数の訓練データセットのうち、パノラマ画像である高解像度訓練画像31と、高解像度訓練画像31の画像解像度を低下させることで生成された低解像度訓練画像32とを含む訓練データセット30の割合が、50%以上(望ましくは70%以上)となっている。その結果、数学モデルによって出力される目的画像の品質がさらに向上する。 Additionally, multiple training data sets are used to train the mathematical model. In this embodiment, among a plurality of training data sets, training data includes a high-resolution training image 31 that is a panoramic image and a low-resolution training image 32 that is generated by lowering the image resolution of the high-resolution training image 31. The proportion of set 30 is 50% or more (preferably 70% or more). As a result, the quality of the target image output by the mathematical model is further improved.

なお、複数の訓練データセットのうち、前述した高解像度訓練画像31と低解像度訓練画像32を含まない訓練データセットを取得する方法は、適宜選択できる。例えば、CPU3は、パノラマ画像でない眼科画像を、高解像度訓練画像として取得してもよい。CPU3は、パノラマ画像でない高解像度訓練画像の画像解像度を低下させることで、低解像度訓練画像を生成してもよい。また、同一の組織を異なる画像解像度で複数回撮影することで生成された複数の眼科画像が、訓練データセットに用いられてもよい。なお、高解像度訓練画像の撮影領域と、低解像度訓練画像の撮影領域は、完全に一致していなくてもよい。例えば、高解像度訓練画像の撮影領域と、低解像度訓練画像の撮影領域の一部が重複していてもよい。 Note that among the plurality of training data sets, a method for acquiring a training data set that does not include the above-described high-resolution training images 31 and low-resolution training images 32 can be selected as appropriate. For example, the CPU 3 may acquire an ophthalmological image that is not a panoramic image as a high-resolution training image. The CPU 3 may generate a low-resolution training image by lowering the image resolution of a high-resolution training image that is not a panoramic image. Furthermore, a plurality of ophthalmological images generated by photographing the same tissue multiple times at different image resolutions may be used as the training data set. Note that the shooting area of the high-resolution training image and the shooting area of the low-resolution training image do not need to completely match. For example, the imaging area of the high-resolution training image and the imaging area of the low-resolution training image may partially overlap.

次いで、CPU3は、低解像度訓練画像32に、ランダムにノイズを付与する(S3)。詳細には、CPU3は、複数の低解像度訓練画像32のうち、ノイズを付与する低解像度訓練画像32をランダムに選択する。また、CPU3は、ノイズ付与処理を行う場合、付与するノイズの量、およびノイズを付与する領域等を、ランダムに決定する。 Next, the CPU 3 randomly adds noise to the low-resolution training image 32 (S3). Specifically, the CPU 3 randomly selects a low-resolution training image 32 to which noise is added from among the plurality of low-resolution training images 32. Further, when performing the noise adding process, the CPU 3 randomly determines the amount of noise to be applied, the area to which the noise is applied, and the like.

次いで、CPU3は、低解像度訓練画像32に、ランダムにぼかしを付与する(S4)。詳細には、CPU3は、複数の低解像度訓練画像32のうち、ぼかしを付与する低解像度訓練画像32をランダムに選択する。また、CPU3は、ぼかし付与処理を行う場合、ぼかしを付与する程度、およびぼかしを付与する領域等を、ランダムに決定する。なお、ノイズ付与処理(S3)およびぼかし付与処理(S4)は、低解像度訓練画像32の少なくとも一部の画像を劣化させる劣化処理の一例である。劣化処理の具体的な方法を変更することも可能である。 Next, the CPU 3 randomly adds blur to the low-resolution training image 32 (S4). Specifically, the CPU 3 randomly selects a low-resolution training image 32 to be blurred from among the plurality of low-resolution training images 32. Further, when performing the blurring process, the CPU 3 randomly determines the degree of blurring, the area to be blurred, and the like. Note that the noise adding process (S3) and the blurring process (S4) are examples of deterioration processes that degrade at least a portion of the low-resolution training images 32. It is also possible to change the specific method of deterioration treatment.

次いで、CPU3は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S5)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 Next, the CPU 3 executes training of a mathematical model using the training data set using a machine learning algorithm (S5). As machine learning algorithms, for example, neural networks, random forests, boosting, support vector machines (SVM), etc. are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 Neural networks are a method that imitates the behavior of biological nerve cell networks. Neural networks include, for example, feedforward neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recurrent neural networks (recurrent neural networks, feedback neural networks, etc.), and stochastic neural networks. There are various types of neural networks (Boltzmann machines, Bassian networks, etc.).

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of generating a large number of decision trees by performing learning based on randomly sampled training data. When using random forest, branches of multiple decision trees trained in advance as a classifier are followed, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining multiple weak classifiers. A strong classifier is constructed by sequentially training simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern discriminator using linear input elements. For example, the SVM learns the parameters of a linear input element based on the criterion (hyperplane separation theorem) of finding a margin-maximizing hyperplane that maximizes the distance to each data point from training data.

数学モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。訓練データセットは、入力用訓練データと出力用訓練データのセットである。数学モデルは、ある入力用訓練データが入力された時に、それに対応する出力用訓練データが出力されるように訓練される。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 A mathematical model refers to, for example, a data structure for predicting the relationship between input data and output data. A mathematical model is constructed by being trained using a training dataset. The training data set is a set of input training data and output training data. A mathematical model is trained such that when certain input training data is input, corresponding output training data is output. For example, training updates correlation data (eg, weights) between each input and output.

一例として、本実施形態では、機械学習アルゴリズムとして、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が採用されている。ただし、他の機械学習アルゴリズムが用いられてもよい。例えば、多層型のニューラルネットワーク(一例として、畳み込みニューラルネットワーク(CNN)等)が、機械学習アルゴリズムとして用いられてもよい。 As an example, in this embodiment, a generative adversarial network (GAN) that uses two competing neural networks is employed as a machine learning algorithm. However, other machine learning algorithms may be used. For example, a multilayer neural network (eg, a convolutional neural network (CNN)) may be used as the machine learning algorithm.

図4を参照して、本実施形態で採用されている機械学習アルゴリズム(GAN)による、数学モデルの訓練方法について説明する。前述したように、GANのネットワークは、互いに競合する2つのサブネットワーク(ジェネレータ(生成器)およびディスクリミネータ(識別器))を備える。本実施形態では、まず、入力用訓練データである低解像度訓練画像32を拡大した画像32Eが生成される。その結果、拡大された低解像度訓練画像32Eと、高解像度訓練画像31の大きさが一致する。なお、低解像度訓練画像32を拡大せず訓練用入力データとし、拡大する処理はジェネレータが行ってもよい。次いで、ジェネレータが、低解像度訓練画像32Eに基づいて、高解像度訓練画像31に極力一致する偽物画像32Fを出力する。ディスクリミネータは、本物画像である高解像度訓練画像31と、偽物画像32Fの正否の識別を試みる。判定結果は、ジェネレータおよびディスクリミネータの双方に反映される。この訓練が繰り返されることで、ジェネレータは、より高解像度訓練画像31に近い偽物画像32Fを生成しようとし、ディスクリミネータは、識別の正確性を向上させようとする。訓練された結果構築される数学モデル(ジェネレータモデル)は、画像解像度が低い眼科画像(例えば、後述する基画像)を入力することで、入力された画像よりも画像解像度が高い眼科画像(例えば、後述する目的画像)を生成することができる。 With reference to FIG. 4, a method for training a mathematical model using a machine learning algorithm (GAN) employed in this embodiment will be described. As mentioned above, the GAN network includes two subnetworks (generator and discriminator) that compete with each other. In this embodiment, first, an image 32E is generated by enlarging the low-resolution training image 32, which is input training data. As a result, the enlarged low-resolution training image 32E and the high-resolution training image 31 match in size. Note that the low-resolution training image 32 may be used as training input data without being enlarged, and the enlargement process may be performed by the generator. The generator then outputs a fake image 32F that matches the high resolution training image 31 as closely as possible based on the low resolution training image 32E. The discriminator attempts to distinguish between the high-resolution training image 31, which is a real image, and the fake image 32F. The determination result is reflected in both the generator and the discriminator. By repeating this training, the generator attempts to generate a fake image 32F that is closer to the high-resolution training image 31, and the discriminator attempts to improve the accuracy of identification. The mathematical model (generator model) constructed as a result of training generates an ophthalmological image with a higher image resolution than the input image (e.g., A target image (described later) can be generated.

なお、前述したように、本実施形態では、訓練データセットに含まれる高解像度画像と低解像度画像は、同一の眼科画像撮影装置11Aによって撮影された画像(詳細には、同一の眼科画像撮影装置11Aによって撮影された画像に基づく画像)である。従って、高解像度画像と低解像度画像の色味、画像に含まれるノイズの量、アーチファクト、光学分解能、撮影画角、撮影時の組織の状態等が近似しやすい。よって、数学モデルが適切に訓練される。 As described above, in this embodiment, the high-resolution images and low-resolution images included in the training data set are images captured by the same ophthalmological image capturing apparatus 11A (more specifically, images captured by the same ophthalmic image capturing apparatus 11A). 11A). Therefore, it is easy to approximate the high-resolution image and the low-resolution image in terms of color tone, amount of noise contained in the image, artifacts, optical resolution, photographing angle of view, state of tissue at the time of photographing, and the like. Thus, the mathematical model is properly trained.

また、本実施形態では、複数の訓練データセットの少なくともいずれかに用いられる低解像度訓練画像には、画像領域の少なくとも一部に対して劣化処理が行われている。従って、構築された数学モデルに入力される眼科画像(例えば、後述する基画像)の少なくとも一部の画質が良好でない場合でも、良好でない画質の影響が軽減された画像が出力される。 Furthermore, in the present embodiment, the low-resolution training image used for at least one of the plurality of training datasets has undergone deterioration processing on at least a portion of the image region. Therefore, even if the image quality of at least part of the ophthalmological image (for example, a base image described below) input to the constructed mathematical model is not good, an image in which the influence of the poor image quality is reduced is output.

図2の説明に戻る。数学モデルの構築が完了するまで(S6:NO)、S1~S5の処理が繰り返される。数学モデルの構築が完了すると(S6:YES)、数学モデル構築処理は終了する。構築された数学モデルを実現させるプログラムおよびデータは、眼科画像処理装置21に組み込まれる。 Returning to the explanation of FIG. 2. The processes of S1 to S5 are repeated until construction of the mathematical model is completed (S6: NO). When construction of the mathematical model is completed (S6: YES), the mathematical model construction process ends. A program and data for realizing the constructed mathematical model are incorporated into the ophthalmological image processing device 21.

(眼科画像処理)
図5を参照して、眼科画像処理装置21が実行する眼科画像処理について説明する。眼科画像処理は、記憶装置24に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。
(Ophthalmology image processing)
With reference to FIG. 5, the ophthalmologic image processing performed by the ophthalmologic image processing device 21 will be described. The ophthalmological image processing is executed by the CPU 23 according to the ophthalmological image processing program stored in the storage device 24.

まず、CPU23は、眼科画像撮影装置11Bによって撮影された眼科画像である基画像を取得する(S11)。なお、本実施形態では、眼科画像撮影装置11Bは、基画像を連続して(つまり、動画で)撮影する。CPU23は、連続して撮影された基画像を、順次取得する。 First, the CPU 23 acquires a base image that is an ophthalmological image photographed by the ophthalmological image photographing device 11B (S11). Note that in this embodiment, the ophthalmologic image capturing device 11B captures the base images continuously (that is, as a moving image). The CPU 23 sequentially acquires the continuously photographed base images.

本実施形態における基画像は、前述した高解像度訓練画像31および低解像度訓練画像32と同様に、被検眼の眼底のOCTアンジオ画像である。また、本実施形態における基画像は、前述した高解像度訓練画像31よりも画像解像度が低い画像である。一例として、本実施形態の眼科撮影装置11Bは、高解像度訓練画像31と同様の広さの撮影領域(例えば、6mm×6mmの撮影領域)を、高解像度訓練画像31の解像度よりも低い解像度(例えば、256pt×256pt)で撮影することで、基画像のデータを生成する。従って、基画像を撮影する際の撮影時間は、高解像度訓練画像31を撮影する際の撮影時間よりも短くなる。よって、基画像を撮影する際には、被検眼の動き(例えば、固視微動およびまばたき等)の影響、被検眼の動きに撮影領域を追従させるトラッキング動作の負担等が、高解像度訓練画像31を撮影する場合に比べて低下する。なお、目的画像が取得される場合、眼科画像撮影装置11Bは、基画像の撮影領域を、高解像度訓練画像31と同等の撮影領域に自動的に設定する。その結果、基画像および目的画像がより円滑に取得される。 The base image in this embodiment is an OCT angio image of the fundus of the eye to be examined, similar to the high-resolution training image 31 and low-resolution training image 32 described above. Further, the base image in this embodiment is an image having a lower image resolution than the high-resolution training image 31 described above. As an example, the ophthalmologic imaging apparatus 11B of the present embodiment captures an imaging area of the same size as the high-resolution training image 31 (for example, a imaging area of 6 mm x 6 mm) with a resolution lower than that of the high-resolution training image 31 (for example, an imaging area of 6 mm x 6 mm). For example, data of the base image is generated by photographing at 256 pt x 256 pt). Therefore, the photographing time when photographing the base image is shorter than the photographing time when photographing the high-resolution training image 31. Therefore, when capturing the base image, the influence of the movement of the subject's eye (for example, visual fixation and blinking), the burden of tracking operations to follow the movement of the subject's eye, etc. compared to when shooting. Note that when the target image is acquired, the ophthalmologic image capturing apparatus 11B automatically sets the capturing area of the base image to the same capturing area as the high-resolution training image 31. As a result, the base image and the target image are acquired more smoothly.

次いで、CPU23は、前述した数学モデルに基画像を入力することで、基画像よりも画像解像度が高い目的画像を取得する(S12)。なお、本実施形態では、CPU23は、連続して取得される基画像を数学モデルに順次入力することで、目的画像を連続して取得する。 Next, the CPU 23 inputs the base image into the above-described mathematical model to obtain a target image having a higher image resolution than the base image (S12). Note that in this embodiment, the CPU 23 sequentially inputs continuously acquired base images into the mathematical model, thereby continuously acquiring target images.

次いで、CPU23は、表示装置28に目的画像を表示させる指示が入力されているか否かを判断する(S14)。本実施形態では、ユーザは、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、操作部27を操作することで眼科画像処理装置21に入力することができる。目的画像を表示させる指示が入力されていなければ(S14:NO)、処理はそのままS17へ移行する。目的画像を表示させる指示が入力されている場合(S14:YES)、CPU23は、目的画像を表示装置28に表示させる(S15)。詳細には、本実施形態のS15では、S12で連続して取得される複数の目的画像が表示装置28に順次表示されることで、組織の動画が表示される。つまり、眼科画像撮影装置11Bによってその時点で撮影されている基画像(原画像)の動画に基づいて、撮影中の組織の高解像度の動画がリアルタイムに表示装置28に表示される。なお、CPU23は、S12で連続して取得される複数の目的画像に基づいて、目的画像の動画のデータを生成し、記憶装置に記憶させてもよい。 Next, the CPU 23 determines whether an instruction to display the target image on the display device 28 has been input (S14). In this embodiment, the user instructs the ophthalmological image processing device 21 by operating the operation unit 27 as to which of the target image, the base image, or both the target image and the base image should be displayed on the display device 28. can be entered. If an instruction to display the target image has not been input (S14: NO), the process directly advances to S17. If an instruction to display the target image has been input (S14: YES), the CPU 23 displays the target image on the display device 28 (S15). Specifically, in S15 of the present embodiment, a moving image of the tissue is displayed by sequentially displaying the plurality of target images sequentially acquired in S12 on the display device 28. That is, a high-resolution video of the tissue being photographed is displayed on the display device 28 in real time based on the video of the base image (original image) currently photographed by the ophthalmologic image photographing device 11B. Note that the CPU 23 may generate data of a moving image of the target image based on the plurality of target images sequentially acquired in S12, and store the data in the storage device.

なお、眼科画像処理装置21は、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、種々の方法で入力することができる。例えば、CPU23は、目的画像の表示指示を入力するアイコン、基画像の表示指示を入力するアイコン、および、両方の画像の表示指示を入力するアイコンを、表示装置28に表示させてもよい。ユーザは、希望するアイコンを選択することで、表示指示を眼科画像処理装置21に入力してもよい。 Note that the ophthalmological image processing device 21 can input an instruction as to which of the target image, the base image, or both the target image and the base image should be displayed on the display device 28 using various methods. For example, the CPU 23 may cause the display device 28 to display an icon for inputting a display instruction for the target image, an icon for inputting a display instruction for the base image, and an icon for inputting a display instruction for both images. The user may input a display instruction to the ophthalmological image processing device 21 by selecting a desired icon.

次いで、CPU23は、表示装置28に基画像を表示させる指示が入力されているか否かを判断する(S17)。入力されていなければ(S17:NO)、処理はそのままS20へ移行する。基画像を表示させる指示が入力されている場合(S17:YES)、CPU23は、基画像を表示装置28に表示させる(S18)。詳細には、本実施形態のS18では、S11で連続して取得される複数の基画像が表示装置28に順次表示されることで、組織の動画が表示される。以上のように、CPU23は、ユーザによって入力された指示に応じて、目的画像と基画像を切り替えて表示装置28に表示させることができる。よって、ユーザは、目的画像と基画像の両方を容易に確認することができる。 Next, the CPU 23 determines whether an instruction to display the base image on the display device 28 has been input (S17). If it has not been input (S17: NO), the process moves directly to S20. If an instruction to display the base image has been input (S17: YES), the CPU 23 displays the base image on the display device 28 (S18). Specifically, in S18 of the present embodiment, a moving image of the tissue is displayed by sequentially displaying the plurality of base images sequentially acquired in S11 on the display device 28. As described above, the CPU 23 can switch between the target image and the base image and display them on the display device 28 according to instructions input by the user. Therefore, the user can easily check both the target image and the base image.

次いで、CPU23は、目的画像と基画像を同時に表示装置28に表示させる指示が入力されているか否かを判断する(S20)。入力されていなければ(S20:NO)、処理はそのままS23へ移行する。同時表示指示が入力されていれる場合(S20:YES)、CPU23は、目的画像と基画像を同時に表示装置28に表示させる。詳細には、本実施形態のS20では、目的画像の動画と基画像の動画が共に表示装置28に表示される。 Next, the CPU 23 determines whether an instruction to simultaneously display the target image and the base image on the display device 28 has been input (S20). If it has not been input (S20: NO), the process moves directly to S23. If a simultaneous display instruction has been input (S20: YES), the CPU 23 causes the display device 28 to simultaneously display the target image and the base image. Specifically, in S20 of this embodiment, both the moving image of the target image and the moving image of the base image are displayed on the display device 28.

なお、S15,S18,S21では、動画でなく静止画が表示されてもよい。CPU23は、ユーザによって入力される指示に応じて、動画の表示と静止画の表示を切り替えてもよい。また、CPU23は、動画および静止画を表示装置28に表示させずに、動画および静止画の少なくとも一方のデータを記憶装置24に保存させてもよい。 Note that in S15, S18, and S21, still images may be displayed instead of moving images. The CPU 23 may switch between displaying moving images and displaying still images in accordance with instructions input by the user. Further, the CPU 23 may cause the storage device 24 to store data of at least one of the moving image and the still image without displaying the moving image and the still image on the display device 28.

次いで、CPU23は、表示を終了させる指示が入力されたか否かを判断する(S23)。入力されていなければ(S23:NO)、処理はS11へ戻り、S11~S23の処理が繰り返される。表示を終了させる指示が入力されると(S23:YES)、CPU23は、目的画像(本実施形態では、連続して取得される複数の目的画像の少なくともいずれか)に対する各種解析処理を実行する(S24)。前述したように、目的画像の画像解像度は、基画像の画像解像度よりも高い。従って、目的画像に対する解析処理を実行することで、基画像に対する解析処理を実行する場合に比べて解析精度が向上する。なお、解析処理の具体的な内容は、適宜選択できる。一例として、本実施形態のS24では、眼底の血管密度(例えば、中心窩無灌流領域周囲の血管密度等)が解析される。 Next, the CPU 23 determines whether an instruction to end the display has been input (S23). If it has not been input (S23: NO), the process returns to S11, and the processes from S11 to S23 are repeated. When an instruction to end the display is input (S23: YES), the CPU 23 executes various analysis processes on the target image (in the present embodiment, at least one of the plurality of target images that are sequentially acquired). S24). As mentioned above, the image resolution of the target image is higher than the image resolution of the base image. Therefore, by performing the analysis process on the target image, the analysis accuracy is improved compared to the case where the analysis process is performed on the base image. Note that the specific content of the analysis process can be selected as appropriate. As an example, in S24 of this embodiment, the blood vessel density of the fundus (for example, the blood vessel density around the foveal non-perfused area) is analyzed.

また、目的画像を表示させるタイミングには、例えば、眼科画像撮影装置11Bによる撮影中にリアルタイムで表示させるタイミング、撮影された画像が良好であるか否かをユーザに確認させるタイミング、撮影後に解析結果またはレポートと共に表示させるタイミング等、複数のタイミングがある。CPU23は、目的画像を表示させることが可能な複数のタイミングのそれぞれに対し、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、別々に入力することができる。つまり、ユーザは、目的画像を表示させることが可能なタイミングに応じて、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかを、予め設定しておくことができる。その結果、ユーザの利便性がさらに向上する。 Furthermore, the timing for displaying the target image includes, for example, the timing for displaying the target image in real time while the ophthalmological image capturing device 11B is capturing images, the timing for making the user check whether the captured image is good, and the timing for displaying the analysis results after capturing. Or there are multiple timings, such as when to display it with a report. The CPU 23 separately instructs which of the target image, the base image, and both the target image and the base image should be displayed on the display device 28 at each of a plurality of timings at which the target image can be displayed. can be entered. In other words, the user sets in advance which of the target image, the base image, or both the target image and the base image is to be displayed on the display device 28, depending on the timing at which the target image can be displayed. You can leave it there. As a result, user convenience is further improved.

(合成画像生成処理)
図6を参照して、眼科画像処理装置21のCPU23が実行する合成画像生成処理について説明する。図6に示すように、合成画像40には、目的画像42と注目領域画像44が含まれる。目的画像は、図5のS12で説明したように、数学モデルに基画像を入力することで取得される、高解像度の眼科画像である。注目領域画像44は、眼科画像撮影装置11Bによって、基画像の撮影領域の一部の注目領域が撮影された画像である。注目領域画像44は、基画像の画像解像度よりも高い画像解像度で撮影されている。また、注目領域画像44は、眼科画像撮影装置11Bによって撮影された画像そのもの(つまり原画像)である。基画像の撮影領域に対する注目領域の位置、大きさ、および形状等の設定方法は、適宜選択できる。例えば、眼科画像撮影装置11Bは、ユーザによって入力される指示に応じて、基画像の撮影領域内に注目領域を設定してもよい。また、眼科画像撮影装置11Bは、基画像に対して画像処理等を行うことで、基画像における特徴部位(例えば、黄斑、視神経乳頭、および眼底血管等の少なくともいずれか)を検出し、特徴部位を基準として注目領域を自動で設定してもよい。
(Synthetic image generation processing)
With reference to FIG. 6, the composite image generation process executed by the CPU 23 of the ophthalmological image processing device 21 will be described. As shown in FIG. 6, the composite image 40 includes a target image 42 and a region of interest image 44. The target image is a high-resolution ophthalmological image obtained by inputting the base image to the mathematical model, as described in S12 of FIG. The region of interest image 44 is an image in which a part of the region of interest of the base image is photographed by the ophthalmological image photographing device 11B. The attention area image 44 is photographed at an image resolution higher than that of the base image. Further, the attention area image 44 is the image itself (that is, the original image) photographed by the ophthalmologic image photographing device 11B. The method of setting the position, size, shape, etc. of the region of interest relative to the imaging region of the base image can be selected as appropriate. For example, the ophthalmologic image capturing apparatus 11B may set a region of interest within the capturing region of the base image according to an instruction input by the user. In addition, the ophthalmologic image capturing device 11B performs image processing or the like on the base image to detect a characteristic region (for example, at least one of the macula, optic disc, fundus blood vessel, etc.) in the base image, and The region of interest may be automatically set based on.

眼科画像処理装置21のCPU23は、基画像および注目領域画像44を取得する。CPU23は、基画像を数学モデルに入力することで、基画像よりも画像解像度が高い目的画像42を取得する。CPU23は、目的画像42における注目領域に、注目領域画像44を合成することで、合成画像40を生成する。合成画像40によると、ユーザは、注目領域を原画像によって確認することができ、且つ、画像全体も高い解像度で確認することができる。 The CPU 23 of the ophthalmological image processing device 21 acquires a base image and a region of interest image 44. The CPU 23 inputs the base image into a mathematical model to obtain a target image 42 having a higher image resolution than the base image. The CPU 23 generates a composite image 40 by combining the region of interest image 44 with the region of interest in the target image 42 . According to the composite image 40, the user can confirm the region of interest in the original image, and can also confirm the entire image at high resolution.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。例えば、高解像度訓練画像としてパノラマ画像を用いる技術を採用せずに、低解像度訓練画像に対してノイズ付与処理およびぼかし付与処理の少なくとも一方を実行する技術を採用してもよい。 The techniques disclosed in the above embodiments are merely examples. Therefore, it is also possible to modify the techniques exemplified in the above embodiments. First, it is also possible to execute only some of the techniques exemplified in the above embodiments. For example, instead of adopting a technique of using a panoramic image as a high-resolution training image, a technique of performing at least one of a noise adding process and a blurring process on a low-resolution training image may be adopted.

なお、図5のS11で基画像を取得する処理は、「基画像取得ステップ」の一例である。図5のS12で目的画像を取得する処理は、「目的画像取得ステップ」の一例である。図5のS21で目的画像と基画像を同時に表示させる処理は、「同時表示処理」および「同時表示ステップ」の一例である。図5のS14~S18で基画像と目的画像を切り替えて表示させる処理は、「切替表示処理」および「切替表示ステップ」の一例である。図2のS1,S2で訓練データセットを取得する処理は、「画像セット取得ステップ」の一例である。図2のS5で数学モデルを構築する処理は、「訓練ステップ」の一例である。図2のS1でパノラマ画像を取得する処理は、「パノラマ画像取得ステップ」の一例である。図2のS2で低解像度訓練画像32を生成する処理は、「低解像度訓練画像生成ステップ」の一例である。図2のS3で低解像度訓練画像32にノイズを付与する処理、および、図2のS4で低解像度訓練画像32にぼかしを付与する処理は、「劣化処理」および「劣化ステップ」の一例である。 Note that the process of acquiring the base image in S11 of FIG. 5 is an example of a "base image acquisition step." The process of acquiring the target image in S12 of FIG. 5 is an example of a "target image acquisition step." The process of simultaneously displaying the target image and the base image in S21 of FIG. 5 is an example of a "simultaneous display process" and a "simultaneous display step." The process of switching and displaying the base image and the target image in S14 to S18 in FIG. 5 is an example of a "switching display process" and a "switching display step." The process of acquiring a training data set in S1 and S2 of FIG. 2 is an example of an "image set acquisition step." The process of constructing a mathematical model in S5 of FIG. 2 is an example of a "training step." The process of acquiring a panoramic image in S1 of FIG. 2 is an example of a "panoramic image acquisition step." The process of generating the low-resolution training image 32 in S2 of FIG. 2 is an example of a "low-resolution training image generation step." The process of adding noise to the low-resolution training image 32 in S3 of FIG. 2 and the process of adding blur to the low-resolution training image 32 in S4 of FIG. 2 are examples of "degradation processing" and "degradation step". .

1 数学モデル構築装置
3 CPU
4 記憶装置
11 眼科画像撮影装置
21 眼科画像処理装置
23 CPU
24 記憶装置
27 操作部
28 表示装置
30 訓練データセット
31 高解像度訓練画像
32 低解像度訓練画像
40 合成画像
42 目的画像
44 注目領域画像
1 Mathematical model construction device 3 CPU
4 Storage device 11 Ophthalmology image capturing device 21 Ophthalmology image processing device 23 CPU
24 Storage device 27 Operation unit 28 Display device 30 Training data set 31 High-resolution training image 32 Low-resolution training image 40 Composite image 42 Target image 44 Attention area image

Claims (4)

被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像処理装置の制御部は、
眼科画像撮影装置によって撮影された眼科画像である基画像を取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、画像解像度が前記基画像の画像解像度よりも高い目的画像を取得し、
前記数学モデルは、同一の組織の部位を撮影対象とし、且つ、同一の眼科画像撮影装置によって撮影された複数の眼科画像のセットのうち、少なくとも1つの眼科画像である低解像度訓練画像を入力用訓練データとし、前記低解像度訓練画像よりも画像解像度が高い眼科画像である高解像度訓練画像を出力用訓練データとして訓練されており、
前記目的画像および前記基画像のうち、表示装置に表示させる画像を、前記目的画像を表示させることが可能なタイミングに応じて予め設定しておくことが可能であり、
前記目的画像を表示させることが可能なタイミングが到来した際に、前記目的画像および前記基画像のうち、前記タイミングに応じて予め設定されている画像を前記表示装置に表示させることを特徴とする眼科画像処理装置。
An ophthalmological image processing device that processes an ophthalmological image that is an image of a tissue of an eye to be examined,
The control unit of the ophthalmological image processing device includes:
Obtaining a base image that is an ophthalmological image taken by an ophthalmological image capturing device,
obtaining a target image whose image resolution is higher than that of the base image by inputting the base image to a mathematical model trained by a machine learning algorithm;
The mathematical model is inputted with a low-resolution training image that is at least one ophthalmological image from a set of a plurality of ophthalmological images that target the same tissue site and are taken by the same ophthalmological image capturing device. training data, and a high-resolution training image that is an ophthalmological image having a higher image resolution than the low-resolution training image is trained as output training data,
Of the target image and the base image, an image to be displayed on a display device can be set in advance according to a timing at which the target image can be displayed,
When a timing at which the target image can be displayed has arrived, an image that is preset according to the timing among the target image and the base image is displayed on the display device. Ophthalmology image processing device.
請求項1に記載の眼科画像処理装置であって、 The ophthalmological image processing device according to claim 1,
前記基画像、前記低解像度訓練画像、および前記高解像度訓練画像は、OCT装置によって撮影された前記被検眼のOCTアンジオ画像であることを特徴とする眼科画像処理装置。 An ophthalmological image processing device, wherein the base image, the low-resolution training image, and the high-resolution training image are OCT angio images of the eye to be examined taken by an OCT device.
請求項1または2に記載の眼科画像処理装置であって、 The ophthalmological image processing device according to claim 1 or 2,
前記制御部は、 The control unit includes:
前記目的画像および前記基画像のうち前記表示装置に表示させる画像を、ユーザによって入力される指示に応じて予め設定しておくことを特徴とする眼科画像処理装置。 An ophthalmological image processing apparatus characterized in that an image to be displayed on the display device among the target image and the base image is set in advance according to an instruction input by a user.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、 An ophthalmologic image processing program executed by an ophthalmologic image processing device that processes an ophthalmologic image that is an image of a tissue of an eye to be examined,
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、 The ophthalmology image processing program is executed by the control unit of the ophthalmology image processing device,
眼科画像撮影装置によって撮影された眼科画像である基画像を取得する基画像取得ステップと、 a base image acquisition step of acquiring a base image that is an ophthalmologic image captured by an ophthalmologic image capturing device;
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、画像解像度が前記基画像の画像解像度よりも高い目的画像を取得する目的画像取得ステップと、 a target image acquisition step of acquiring a target image having an image resolution higher than that of the base image by inputting the base image to a mathematical model trained by a machine learning algorithm;
を前記眼科画像処理装置に実行させ、 causing the ophthalmological image processing device to execute
前記数学モデルは、同一の組織の部位を撮影対象とし、且つ、同一の眼科画像撮影装置によって撮影された複数の眼科画像のセットのうち、少なくとも1つの眼科画像である低解像度訓練画像を入力用訓練データとし、前記低解像度訓練画像よりも画像解像度が高い眼科画像である高解像度訓練画像を出力用訓練データとして訓練されており、 The mathematical model is inputted with a low-resolution training image that is at least one ophthalmological image from a set of a plurality of ophthalmological images that target the same tissue site and are taken by the same ophthalmological image capturing device. training data, and a high-resolution training image that is an ophthalmological image having a higher image resolution than the low-resolution training image is trained as output training data,
前記目的画像および前記基画像のうち、表示装置に表示させる画像を、前記目的画像を表示させることが可能なタイミングに応じて予め設定しておくことが可能であり、 Of the target image and the base image, an image to be displayed on a display device can be set in advance according to a timing at which the target image can be displayed,
前記目的画像を表示させることが可能なタイミングが到来した際に、前記目的画像および前記基画像のうち、前記タイミングに応じて予め設定されている画像を前記表示装置に表示させるステップを前記眼科画像処理装置に実行させることを特徴とする眼科画像処理プログラム。 The ophthalmological image includes a step of displaying, on the display device, an image that is preset according to the timing, among the target image and the base image, when a timing at which the target image can be displayed has arrived. An ophthalmological image processing program that is executed by a processing device.
JP2022196733A 2018-06-29 2022-12-09 Ophthalmology image processing device and ophthalmology image processing program Active JP7388525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022196733A JP7388525B2 (en) 2018-06-29 2022-12-09 Ophthalmology image processing device and ophthalmology image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018124973A JP7183590B2 (en) 2018-06-29 2018-06-29 Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2022196733A JP7388525B2 (en) 2018-06-29 2022-12-09 Ophthalmology image processing device and ophthalmology image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018124973A Division JP7183590B2 (en) 2018-06-29 2018-06-29 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Publications (3)

Publication Number Publication Date
JP2023077425A JP2023077425A (en) 2023-06-05
JP2023077425A5 JP2023077425A5 (en) 2023-06-13
JP7388525B2 true JP7388525B2 (en) 2023-11-29

Family

ID=69097728

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018124973A Active JP7183590B2 (en) 2018-06-29 2018-06-29 Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2022196733A Active JP7388525B2 (en) 2018-06-29 2022-12-09 Ophthalmology image processing device and ophthalmology image processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018124973A Active JP7183590B2 (en) 2018-06-29 2018-06-29 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Country Status (1)

Country Link
JP (2) JP7183590B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7435067B2 (en) * 2020-03-12 2024-02-21 株式会社ニデック Ophthalmology image processing device and ophthalmology image processing program
JP2022068892A (en) * 2020-10-23 2022-05-11 株式会社トプコン Ophthalmological observation device, ophthalmological image processing device, ophthalmological image processing method, program and recording medium
CN112957005A (en) * 2021-02-01 2021-06-15 山西省眼科医院(山西省红十字防盲流动眼科医院、山西省眼科研究所) Automatic identification and laser photocoagulation region recommendation algorithm for fundus contrast image non-perfusion region
WO2023248968A1 (en) * 2022-06-21 2023-12-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image processing method, image processing device, and image processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211180A (en) 2008-02-29 2009-09-17 Canon Inc Device, method and program for deciding opening/closing degree of eye, and imaging apparatus
JP2012211797A (en) 2011-03-31 2012-11-01 Yoshida Dental Mfg Co Ltd Apparatus, method and program for controlling optical interference tomographic image generation device
JP2016120022A (en) 2014-12-24 2016-07-07 キヤノン株式会社 Image processing device, image processing method, and program
JP2018005841A (en) 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734558B2 (en) 2014-03-20 2017-08-15 Mitsubishi Electric Research Laboratories, Inc. Method for generating high-resolution images using regression patterns
JP6551081B2 (en) 2015-09-04 2019-07-31 株式会社ニデック Ophthalmic imaging apparatus and ophthalmologic imaging program
JP6809815B2 (en) 2016-05-30 2021-01-06 株式会社トプコン Ophthalmologic imaging equipment
JP7114358B2 (en) 2018-06-15 2022-08-08 キヤノン株式会社 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211180A (en) 2008-02-29 2009-09-17 Canon Inc Device, method and program for deciding opening/closing degree of eye, and imaging apparatus
JP2012211797A (en) 2011-03-31 2012-11-01 Yoshida Dental Mfg Co Ltd Apparatus, method and program for controlling optical interference tomographic image generation device
JP2016120022A (en) 2014-12-24 2016-07-07 キヤノン株式会社 Image processing device, image processing method, and program
JP2018005841A (en) 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device

Also Published As

Publication number Publication date
JP2020000678A (en) 2020-01-09
JP7183590B2 (en) 2022-12-06
JP2023077425A (en) 2023-06-05

Similar Documents

Publication Publication Date Title
JP7388525B2 (en) Ophthalmology image processing device and ophthalmology image processing program
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP5368765B2 (en) Imaging control device, imaging device, imaging control method, program, storage medium
JP2024040372A (en) Ophthalmology image processing program and ophthalmology image processing device
JP2024045441A (en) Ophthalmic image processing device and ophthalmic image processing program
JP6703319B1 (en) Ophthalmic image processing device and OCT device
JP7147888B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2019150532A (en) OCT data processing apparatus and OCT data processing program
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP7439990B2 (en) Medical image processing device, medical image processing program, and medical image processing method
WO2021020419A1 (en) Medical image processing device and medical image processing program
JP7435067B2 (en) Ophthalmology image processing device and ophthalmology image processing program
JP2019208851A (en) Fundus image processing device and fundus image processing program
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
WO2023281965A1 (en) Medical image processing device and medical image processing program
WO2021045019A1 (en) Ophthalmic image processing program and ophthalmic image processing device
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP7302184B2 (en) Ophthalmic image processing device and ophthalmic image processing program
WO2023037658A1 (en) Ophthalmological device, method for controlling ophthalmological device, method for processing eye image, program, and recording medium
JP2023024614A (en) Ophthalmologic image processing apparatus, oct apparatus, and ophthalmologic image processing program
JP2023050532A (en) Image processing method and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7388525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150