JP7344847B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7344847B2
JP7344847B2 JP2020113336A JP2020113336A JP7344847B2 JP 7344847 B2 JP7344847 B2 JP 7344847B2 JP 2020113336 A JP2020113336 A JP 2020113336A JP 2020113336 A JP2020113336 A JP 2020113336A JP 7344847 B2 JP7344847 B2 JP 7344847B2
Authority
JP
Japan
Prior art keywords
image
quality
subject
learning
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020113336A
Other languages
Japanese (ja)
Other versions
JP2022011912A (en
Inventor
学 山添
好彦 岩瀬
弘樹 内田
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020113336A priority Critical patent/JP7344847B2/en
Publication of JP2022011912A publication Critical patent/JP2022011912A/en
Application granted granted Critical
Publication of JP7344847B2 publication Critical patent/JP7344847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

被検体の断層画像を得るための装置として、光干渉断層撮影法(OCT:Optical Coherence Tomography)を用いた装置(OCT装置)が知られている。OCT装置などの医用断層画像撮影装置を用いることで、網膜層内部の状態を三次元的に観察することが可能であり、このような医用断層画像撮影装置は、例えばAMDのような眼科網膜疾患の診断に有用である。近年、臨床現場で用いられているOCTは、例えば、高速に画像を取得する方法として、SD-OCT(Spectral Domain OCT)、及びSS-OCT(Swept Source OCT)の2方式に大別される。SD-OCTでは、広帯域光源を用い、分光器でインターフェログラムを取得する。これに対し、SS-OCTでは、光源として高速波長掃引光源を用いることで、単一チャネル光検出器でスペクトル干渉を計測する。 As an apparatus for obtaining a tomographic image of a subject, an apparatus using optical coherence tomography (OCT) (OCT apparatus) is known. By using a medical tomographic imaging device such as an OCT device, it is possible to observe the internal state of the retinal layer three-dimensionally. useful for diagnosis. OCT, which has been used in clinical practice in recent years, is roughly divided into two methods, for example, SD-OCT (Spectral Domain OCT) and SS-OCT (Swept Source OCT), as a method for acquiring images at high speed. In SD-OCT, a broadband light source is used and an interferogram is obtained with a spectrometer. In contrast, SS-OCT uses a high-speed wavelength swept light source as a light source to measure spectral interference with a single-channel photodetector.

最近は、両方式のOCTにおいて、造影剤を用いないで血管を造影するOCT血管造影法(OCT Angiography:OCTA)が注目されてきた。OCTAでは、OCTにより取得したOCT画像からモーションコントラストデータを生成する。ここで、モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータであり、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算される。 Recently, among both types of OCT, OCT angiography (OCTA), which images blood vessels without using a contrast agent, has attracted attention. In OCTA, motion contrast data is generated from an OCT image obtained by OCT. Here, motion contrast data is data obtained by repeatedly photographing the same cross-section of a measurement object using OCT and detecting temporal changes in the measurement object between the images, such as the phase, vector, and intensity of a complex OCT signal. It is calculated from the difference, ratio, correlation, etc. over time.

また、OCTA画像は、表示に際して、取得された三次元OCT画像から算出された三次元モーションコントラストデータを二次元平面に投影することにより二次元化したOCTA正面画像として表示されることが通例となりつつある。これに関して、投影するモーションコントラストデータの深さ方向の範囲を指定することで二次元正面画像を生成する技術が特許文献1に開示されている。さらに、低解像度画像と高解像度画像を用いた機械学習により得られた人工知能エンジンで、低解像度画像から高解像度画像を生成する技術が特許文献2に開示されている。 Furthermore, when displaying an OCTA image, it is becoming common to display it as a two-dimensional OCTA frontal image by projecting three-dimensional motion contrast data calculated from the acquired three-dimensional OCT image onto a two-dimensional plane. be. In this regard, Patent Document 1 discloses a technique for generating a two-dimensional front image by specifying a range in the depth direction of motion contrast data to be projected. Further, Patent Document 2 discloses a technique for generating a high-resolution image from a low-resolution image using an artificial intelligence engine obtained by machine learning using low-resolution images and high-resolution images.

特開2017-6179号公報JP 2017-6179 Publication 特開2018-5841号公報Unexamined Japanese Patent Publication No. 2018-5841

しかしながら、OCTを用いて得られたデータ(OCTデータ)又はモーションコントラストデータの解析処理等については、種々の面で改善の余地があり得る。例えば、OCTデータ又はモーションコントラストデータの解析処理を行う上で、特に、人工知能エンジンを用いて画像を補正する場合、過補正が起きてしまうなどの可能性があった。 However, there may be room for improvement in various aspects regarding analysis processing of data obtained using OCT (OCT data) or motion contrast data. For example, when performing analysis processing of OCT data or motion contrast data, there is a possibility that over-correction may occur, especially when an artificial intelligence engine is used to correct an image.

そこで、本発明は、学習済モデルを用いた医用画像の画像処理による過補正を低減する画像処理装置、画像処理方法、及びプログラムを提供することを目的の一つとする。 Therefore, one of the objects of the present invention is to provide an image processing apparatus, an image processing method, and a program that reduce overcorrection caused by image processing of medical images using a trained model.

本発明の少なくとも1つの実施態様に係る画像処理装置は、被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得する高画質化部と、被検体の医用画像における対象領域を検出する検出部と、前記第2の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行う画像処理部と、被検体に関する画像を含む学習データを学習して得た学習済モデルの入力データとして被検体の医用画像を入力することにより得られた高画質画像をライブ動画像として表示部に表示させる表示制御部とを備え、前記表示制御部は、前記高画質画像として得られた正面画像であって、前記高画質画像として得られた断層画像の位置を示すラインが重畳表示された正面画像を前記ライブ動画像として前記表示部に表示させ、該正面画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させる
An image processing apparatus according to at least one embodiment of the present invention processes a first image that is a medical image of a subject using a trained model obtained by learning using a medical image of a subject as learning data. an image quality improvement unit that acquires a second image that is a medical image of the subject by performing image quality enhancement processing; a detection unit that detects a target area in the medical image of the subject; and a detection unit that detects a target area in the medical image of the subject; an image processing unit that performs image processing on the target region in such a way that the difference between the pixel value of the target region and the pixel value of a region other than the target region is widened and the pixel value of the target region is lowered; a display control unit that displays a high-quality image obtained by inputting a medical image of the subject as input data of a trained model obtained by learning training data including images related to the subject as a live video image on a display unit; The display control unit displays the front image obtained as the high-quality image on which a line indicating the position of the tomographic image obtained as the high-quality image is superimposed and displayed as the live video image. The tomographic image corresponding to the position of the line on the front image is displayed on the display section as the live moving image.

本発明の少なくとも1つの実施態様によれば、学習済モデルを用いた医用画像の画像処理による過補正を低減することができる。 According to at least one embodiment of the present invention, overcorrection due to image processing of medical images using a trained model can be reduced.

第1の実施形態に係るOCT装置の概略的な構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an OCT apparatus according to a first embodiment. 第1の実施形態に係る撮影装置の概略的な構成を説明する図である。FIG. 1 is a diagram illustrating a schematic configuration of an imaging device according to a first embodiment. 第1の実施形態に係る高画質化部の概略的な構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of an image quality improvement unit according to the first embodiment. 高画質化エンジンに関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network related to a high image quality engine is shown. 高画質化処理に関する学習データの一例を示す。An example of learning data regarding high image quality processing is shown. 高画質化処理に関する入力画像の一例を示す。An example of an input image related to high image quality processing is shown. 第1の実施形態に係る画像処理の概略的な流れを示すフロー図である。FIG. 2 is a flow diagram schematically showing the flow of image processing according to the first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of the flow of image processing according to the first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of the flow of image processing according to the first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of the flow of image processing according to the first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of the flow of image processing according to the first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of the flow of image processing according to the first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of the flow of image processing according to the first embodiment. 第2の実施形態に係る画像処理の概略的な流れを示すフロー図である。FIG. 7 is a flow diagram showing a schematic flow of image processing according to the second embodiment. 変形例8に係る機械学習モデルの一例を示す。An example of a machine learning model according to modification 8 is shown. 変形例8に係る機械学習モデルの一例を示す。An example of a machine learning model according to modification 8 is shown.

以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。また、以下において、眼軸方向をZ、眼底平面水平方向をX、眼底平面垂直方向をYと記述する。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of components, etc. described in the following embodiments are arbitrary and can be changed depending on the configuration of the device to which the present invention is applied or various conditions. Additionally, in the drawings, the same reference numerals are used between the drawings to indicate elements that are identical or functionally similar. In addition, hereinafter, the ocular axis direction will be described as Z, the fundus plane horizontal direction as X, and the fundus plane vertical direction as Y.

なお、以下において、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施形態及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。 Note that in the following, a machine learning model refers to a learning model using a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the Naive Bayes method, decision trees, and support vector machines. Another example is deep learning, which uses neural networks to generate feature quantities and connection weighting coefficients for learning by itself. Appropriately, any of the above algorithms that can be used can be applied to the following embodiments and modifications. Further, the teaching data refers to learning data, and is composed of a pair of input data and output data. In addition, correct data refers to output data of learning data (teacher data).

なお、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。 Note that a trained model is a machine learning model that follows any machine learning algorithm such as deep learning, and has been trained (learning) in advance using appropriate teaching data (learning data). . However, although a trained model is obtained in advance using appropriate training data, it does not mean that no further training is performed, and additional training can be performed. Additional learning can also occur after the device is installed at the site of use.

(第1の実施形態)
以下、図1乃至13を参照して、本発明の第1の実施形態に係る画像処理システムについて詳細に説明する。本実施形態では、画像処理システムの例として、OCTによって取得した被検体の断層画像に対して処理を行う画像処理装置を備えるOCT装置について説明する。
(First embodiment)
Hereinafter, an image processing system according to a first embodiment of the present invention will be described in detail with reference to FIGS. 1 to 13. In this embodiment, as an example of an image processing system, an OCT apparatus including an image processing apparatus that processes a tomographic image of a subject obtained by OCT will be described.

(画像処理装置の構成)
本実施形態に係る画像処理装置101の構成と他機器との接続について図1を参照して説明する。画像処理装置101は、撮影装置100、外部記憶装置102、出力部103、及び入力部104に接続されている。なお、これらの接続は、有線接続であってもよいし、無線接続であってもよい。また、これらの接続はネットワークを介した接続であってもよい。例えば、画像処理装置101はインターネット等のネットワークを介して撮影装置100に接続されてよい。また、例えば、外部記憶装置102をインターネット等のネットワーク上に置き、データを複数の画像処理装置で共有できるように構成してもよい。
(Configuration of image processing device)
The configuration of the image processing apparatus 101 and connections with other devices according to this embodiment will be described with reference to FIG. 1. The image processing device 101 is connected to a photographing device 100, an external storage device 102, an output section 103, and an input section 104. Note that these connections may be wired connections or wireless connections. Further, these connections may be connections via a network. For example, the image processing device 101 may be connected to the photographing device 100 via a network such as the Internet. Further, for example, the external storage device 102 may be placed on a network such as the Internet, and configured such that data can be shared by a plurality of image processing devices.

画像処理装置101には、機能ブロックである、取得部101-1、撮影制御部101-2、画像処理部101-4、及び表示制御部101-5、並びに記憶部101-3が設けられている。画像処理装置101は、プロセッサーやメモリ等を含む一般的なコンピュータを用いて構成することができるが、OCT装置の専用のコンピュータとして構成されてもよい。ここで、画像処理装置101は、OCT装置の内蔵(内部)のコンピュータであってもよいし、OCT装置が通信可能に接続された別体(外部)のコンピュータであってもよい。また、画像処理装置101は、例えば、パーソナルコンピュータであってもよく、デスクトップPCや、ノート型PC、タブレット型PC(携帯型の情報端末)が用いられてもよい。なお、プロセッサーは、CPU(Central Processing Unit)であってよい。また、プロセッサーは、例えば、MPU(Micro Processing Unit)、GPU(Graphical Processing Unit)やFPGA(Field-Programmable Gate Array)等であってもよい。 The image processing device 101 is provided with an acquisition section 101-1, an imaging control section 101-2, an image processing section 101-4, a display control section 101-5, and a storage section 101-3, which are functional blocks. There is. The image processing device 101 can be configured using a general computer including a processor, memory, etc., but may also be configured as a dedicated computer for the OCT device. Here, the image processing apparatus 101 may be a built-in (internal) computer of the OCT apparatus, or may be a separate (external) computer to which the OCT apparatus is communicably connected. Furthermore, the image processing device 101 may be, for example, a personal computer, such as a desktop PC, a notebook PC, or a tablet PC (portable information terminal). Note that the processor may be a CPU (Central Processing Unit). Further, the processor may be, for example, an MPU (Micro Processing Unit), a GPU (Graphical Processing Unit), or an FPGA (Field-Programmable Gate Array).

画像処理装置101の各機能は、CPUやMPU等のプロセッサーが記憶部101-3に記憶されたソフトウェアモジュールを実行することで実現されてよい。なお、プロセッサーは、例えば、GPUやFPGA等であってもよい。また、各機能は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。例えば、画像処理部101-4をASIC等の専用のハードウェアで実現してもよいし、表示制御部101-5をCPUとは異なるGPU等の専用のプロセッサーを用いて実現してもよい。記憶部101-3は、例えば、ハードディスク等の光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each function of the image processing device 101 may be realized by a processor such as a CPU or an MPU executing a software module stored in the storage unit 101-3. Note that the processor may be, for example, a GPU, FPGA, or the like. Furthermore, each function may be configured by a circuit, such as an ASIC, that performs a specific function. For example, the image processing unit 101-4 may be implemented using dedicated hardware such as an ASIC, and the display control unit 101-5 may be implemented using a dedicated processor such as a GPU that is different from the CPU. The storage unit 101-3 may be configured by any storage medium such as an optical disk such as a hard disk or a memory.

取得部101-1は、被検体を撮影装置100により撮影して得たSLO像や断層像、前眼部像等の信号データやSLO画像や断層画像、前眼観察画像等の画像、患者情報等を取得する機能ブロックである。また、取得部101-1は、取得した信号データを用いてSLO画像や断層画像、前眼観察画像等の画像を生成することができる。取得部101-1には、断層画像生成部101-11及びモーションコントラストデータ生成部101-12が設けられている。なお、取得部101-1は、画像処理装置101に接続されたサーバ等の不図示の外部装置から画像を含む各種データを取得してもよい。ここで、画像処理装置101と不図示の外部装置はインターネット等の任意のネットワークを介して接続されていてもよい。また、取得部101-1は、記憶部101-3に記憶された各種データを取得してもよい。 The acquisition unit 101-1 acquires signal data such as SLO images, tomographic images, and anterior eye segment images obtained by photographing the subject using the imaging device 100, images such as SLO images, tomographic images, and anterior eye observation images, and patient information. This is a functional block that obtains etc. Further, the acquisition unit 101-1 can generate images such as an SLO image, a tomographic image, and an anterior eye observation image using the acquired signal data. The acquisition unit 101-1 is provided with a tomographic image generation unit 101-11 and a motion contrast data generation unit 101-12. Note that the acquisition unit 101-1 may acquire various data including images from an external device (not shown) such as a server connected to the image processing device 101. Here, the image processing device 101 and an external device (not shown) may be connected via any network such as the Internet. Further, the acquisition unit 101-1 may acquire various data stored in the storage unit 101-3.

断層画像生成部101-11は、取得された断層像の信号データ(干渉信号)に信号処理を行って断層画像を生成し、生成した断層画像を記憶部101-3に記憶させる。なお、干渉信号から断層画像を生成する手法は、公知の任意の手法を用いてよい。 The tomographic image generation unit 101-11 performs signal processing on the acquired tomographic image signal data (interference signal) to generate a tomographic image, and stores the generated tomographic image in the storage unit 101-3. Note that any known method may be used to generate a tomographic image from the interference signal.

モーションコントラストデータ生成部101-12は、断層画像生成部101-11が生成した略同一位置(被検体における互いに対応する領域)の複数の断層画像に基づいて、モーションコントラストデータを生成する。以下、モーションコントラストデータの生成方法について説明する。 The motion contrast data generation unit 101-12 generates motion contrast data based on the plurality of tomographic images at approximately the same position (mutually corresponding regions of the subject) generated by the tomographic image generation unit 101-11. A method of generating motion contrast data will be described below.

まず、断層画像生成部101-11が、被検体の略同一位置を複数回撮影して取得した複数の干渉信号から、複数の断層画像を生成する。ここで、モーションコントラストデータを生成するために被検体の略同一位置を複数回撮影する際の測定光の走査群を1クラスタという。また、被検体の同一位置を複数回撮影して取得した複数の干渉信号に対応する複数の断層画像を1クラスタ(1群)分の断層画像という。より具体的には、断層画像生成部101-11は、取得部101-1が取得した複数の干渉信号に対して、波数変換、高速フーリエ変換(FFT:Fast Fourier Transform)、及び絶対値変換(振幅の取得)を行うことで、1クラスタ分の断層画像を生成する。なお、断層画像の生成方法はこれに限られず、その他の画像処理を行う公知の任意の手法を用いてもよい。 First, the tomographic image generation unit 101-11 generates a plurality of tomographic images from a plurality of interference signals obtained by photographing substantially the same position of the subject multiple times. Here, a scanning group of measurement light when photographing substantially the same position of a subject multiple times in order to generate motion contrast data is referred to as one cluster. Furthermore, a plurality of tomographic images corresponding to a plurality of interference signals obtained by photographing the same position of the subject multiple times are referred to as one cluster (one group) of tomographic images. More specifically, the tomographic image generation unit 101-11 performs wave number transformation, fast Fourier transform (FFT), and absolute value transformation ( By performing the amplitude acquisition), a tomographic image for one cluster is generated. Note that the method of generating a tomographic image is not limited to this, and any known method of performing other image processing may be used.

次に、後述する画像処理部101-4の位置合わせ部101-41は、同一クラスタに属する断層画像同士を位置合わせし、重ね合わせ処理を行う。その後、後述する画像処理部101-4の画像特徴取得部101-44が、該重ね合わせ断層画像から層境界データを取得する。本実施形態では層境界の取得法として可変形状モデルを用いるが、公知の任意の層境界取得手法を用いてもよい。なお、層境界の取得処理は必須ではなく、例えばモーションコントラスト画像の生成を三次元のみで行い、深度方向に投影した二次元のモーションコントラスト画像を生成しない場合には層境界の取得処理は省略できる。 Next, an alignment unit 101-41 of the image processing unit 101-4, which will be described later, aligns the tomographic images belonging to the same cluster and performs superimposition processing. Thereafter, an image feature acquisition unit 101-44 of the image processing unit 101-4, which will be described later, acquires layer boundary data from the superimposed tomographic image. In this embodiment, a variable shape model is used as a layer boundary acquisition method, but any known layer boundary acquisition method may be used. Note that the layer boundary acquisition process is not essential; for example, if a motion contrast image is generated only in three dimensions and a two-dimensional motion contrast image projected in the depth direction is not generated, the layer boundary acquisition process can be omitted. .

モーションコントラストデータ生成部101-12は、同一クラスタ内の隣接する断層画像間でモーションコントラストデータを算出する。本実施形態では、モーションコントラストデータ生成部101-12は、モーションコントラストデータとして脱相関値Mxzを以下の式(1)に基づき求める。

Figure 0007344847000001
The motion contrast data generation unit 101-12 calculates motion contrast data between adjacent tomographic images within the same cluster. In this embodiment, the motion contrast data generation unit 101-12 calculates a decorrelation value Mxz as motion contrast data based on the following equation (1).
Figure 0007344847000001

ここで、Axzは断層画像データAの位置(x,z)における(FFT処理後の複素数データの)振幅、Bxzは断層データBの同一位置(x,z)における振幅を示している。0≦Mxz≦1であり、両振幅値の差異が大きいほど1に近い値をとる。モーションコントラストデータ生成部101-12は、式(1)のような脱相関演算処理を(同一クラスタに属する)任意の時間的に隣接する断層画像間で行う。なお、脱相関演算処理を行う断層画像は所定の期間内の画像であれば、必ずしも時間的に隣接していなくてもよい。モーションコントラストデータ生成部101-12は、得られた(1クラスタあたりの断層画像数-1)個のモーションコントラストデータの値の平均を画素値として持つ画像を最終的なモーションコントラスト画像として生成する。 Here, Axz indicates the amplitude (of complex number data after FFT processing) at the position (x, z) of the tomographic image data A, and Bxz indicates the amplitude at the same position (x, z) of the tomographic data B. 0≦Mxz≦1, and the larger the difference between both amplitude values, the closer the value is to 1. The motion contrast data generation unit 101-12 performs a decorrelation calculation process as shown in equation (1) between arbitrary temporally adjacent tomographic images (belonging to the same cluster). Note that the tomographic images on which the decorrelation calculation process is performed do not necessarily have to be temporally adjacent as long as they are images within a predetermined period. The motion contrast data generation unit 101-12 generates, as a final motion contrast image, an image whose pixel value is the average of the values of the obtained (number of tomographic images per cluster - 1) pieces of motion contrast data.

なお、ここではFFT処理後の複素数データの振幅に基づいてモーションコントラストデータを計算したが、モーションコントラストデータの計算法は上記に限定されない。例えば、複素数データの位相情報に基づいてモーションコントラストデータを計算してもよいし、振幅と位相の両方の情報に基づいてモーションコントラストデータを計算してもよい。あるいは、複素数データの実部や虚部に基づいてモーションコントラストデータを計算してもよい。 Note that although the motion contrast data is calculated here based on the amplitude of the complex number data after FFT processing, the method of calculating the motion contrast data is not limited to the above. For example, motion contrast data may be calculated based on phase information of complex number data, or motion contrast data may be calculated based on both amplitude and phase information. Alternatively, motion contrast data may be calculated based on the real part or imaginary part of complex number data.

また、本実施形態ではモーションコントラストデータとして脱相関値を計算したが、モーションコントラストデータの計算法はこれに限定されず、公知の任意の計算法を用いてよい。例えば、二つの値の差分に基づいてモーションコントラストデータを計算してもよいし、二つの値の比に基づいてモーションコントラストデータを計算してもよい。また、モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることもできる。これらの算出方法は、公知の任意の方法を用いてよい。 Further, in this embodiment, a decorrelation value is calculated as motion contrast data, but the calculation method of motion contrast data is not limited to this, and any known calculation method may be used. For example, motion contrast data may be calculated based on the difference between two values, or may be calculated based on a ratio between two values. Further, the motion contrast data can also be obtained, for example, as a dispersion value between two tomographic images or their corresponding interference signals, or a value obtained by dividing the maximum value by the minimum value (maximum value/minimum value). Any known method may be used for these calculations.

また、略同一位置を測定光が複数回走査されるように走査手段を制御する際に、1つの走査(1つのBスキャン)と次の走査(次のBスキャン)との時間間隔(タイムインターバル)が変更(決定)されるように構成されてもよい。これにより、例えば、血管の状態によって血流速度が異なる場合があっても、血管領域を精度よく可視化することができる。 In addition, when controlling the scanning means so that the measurement light scans approximately the same position multiple times, the time interval (time interval) between one scan (one B scan) and the next scan (next B scan) ) may be changed (determined). Thereby, for example, even if the blood flow velocity varies depending on the condition of the blood vessel, the blood vessel region can be visualized with high accuracy.

このとき、例えば、操作者(検者)からの指示に応じて、上記時間間隔が変更可能に構成されてもよい。また、例えば、操作者からの指示に応じて、予め設定されている複数の時間間隔に対応する複数のモーションコントラスト画像から、いずれかのモーションコントラスト画像が選択可能に構成されてもよい。さらに、例えば、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータとを対応づけて記憶部101-3に記憶可能に構成されてもよい。また、例えば、表示制御部101-5が、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータに対応するモーションコントラスト画像とを出力部103に表示させてもよい。さらに、例えば、上記時間間隔が自動的に決定、あるいは上記時間間隔の少なくとも1つの候補が決定されるように構成されてもよい。このとき、例えば、機械学習モデルを用いて、モーションコントラスト画像から、上記時間間隔が決定(出力)されるように構成されてもよい。このような機械学習モデルは、例えば、複数の時間間隔に対応する複数のモーションコントラスト画像を入力データとし、該複数の時間間隔から所望のモーションコントラスト画像を取得した際の時間間隔までの差を正解データとする学習データを学習することにより得ることができる。 At this time, the time interval may be configured to be changeable, for example, according to an instruction from an operator (examiner). Further, for example, one of the motion contrast images may be selectable from a plurality of motion contrast images corresponding to a plurality of preset time intervals in response to an instruction from the operator. Further, for example, the storage unit 101-3 may be configured to be able to associate the time interval at which the motion contrast data is acquired with the motion contrast data and store it in the storage unit 101-3. Further, for example, the display control unit 101-5 may cause the output unit 103 to display the time interval at which the motion contrast data was acquired and the motion contrast image corresponding to the motion contrast data. Further, for example, the time interval may be automatically determined, or at least one candidate for the time interval may be determined. At this time, the time interval may be determined (output) from the motion contrast image using, for example, a machine learning model. Such a machine learning model, for example, uses multiple motion contrast images corresponding to multiple time intervals as input data, and calculates the difference between the multiple time intervals and the time interval when the desired motion contrast image was acquired as the correct answer. It can be obtained by learning learning data used as data.

さらに、ここでは、取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラスト画像の画素値を得ているが、最終的な画素値はこれに限定されない。例えば、取得された複数の脱相関値の中央値、又は最大値を画素値として持つ画像を最終的なモーションコントラスト画像として生成してもよい。 Further, here, the final pixel value of the motion contrast image is obtained by calculating the average value of the plurality of acquired decorrelation values, but the final pixel value is not limited to this. For example, an image having the median value or maximum value of the plurality of acquired decorrelation values as a pixel value may be generated as the final motion contrast image.

撮影制御部101-2は、撮影装置100に対する撮影制御を行う機能ブロックである。例えば、撮影制御部101-2は、撮影装置100に含まれる光源、走査部、及び焦点合わせ用のレンズの駆動装置等の駆動制御を行うことができる。撮影制御部101-2は、後述する撮影装置100のステージ部100-2等のアライメント動作の制御を行うことができる。さらに、撮影制御部101-2は、撮影装置100に対して撮影パラメータの設定に関して指示したり、撮影の開始又は終了に関して指示したりすることもできる。 The photographing control unit 101-2 is a functional block that performs photographing control on the photographing apparatus 100. For example, the photographing control section 101-2 can control the driving of a light source, a scanning section, a focusing lens drive device, etc. included in the photographing apparatus 100. The photographing control section 101-2 can control alignment operations of a stage section 100-2 of the photographing apparatus 100, which will be described later. Further, the photographing control unit 101-2 can also instruct the photographing apparatus 100 regarding the setting of photographing parameters, and the start or end of photographing.

記憶部101-3は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、及び後述する処理等を行うためのプログラムを含む各種アプリケーションソフトを実現するためのプログラムを記憶することができる。また、記憶部101-3は、取得部101-1によって取得された情報や、画像処理部101-4で処理された各種画像等を記憶することもできる。例えば、記憶部101-3は、取得部101-1により取得された断層画像等の医用画像を記憶したり、後述する高画質化部101-47で高画質化された画像を記憶したりすることができる。 The storage unit 101-3 can store programs for realizing various application software including an operating system (OS), device drivers for peripheral devices, and programs for performing processing, etc., which will be described later. Furthermore, the storage unit 101-3 can also store information acquired by the acquisition unit 101-1, various images processed by the image processing unit 101-4, and the like. For example, the storage unit 101-3 stores medical images such as tomographic images acquired by the acquisition unit 101-1, or stores images whose quality has been improved by an image quality improvement unit 101-47, which will be described later. be able to.

画像処理部101-4は、断層画像やモーションコントラスト画像、SLO画像、前眼観察画像等の各種画像について画像処理を行う機能ブロックである。画像処理部101-4には、位置合わせ部101-41、合成部101-42、補正部101-43、画像特徴取得部101-44、投影部101-45、解析部101-46、及び高画質化部101-47が設けられている。 The image processing unit 101-4 is a functional block that performs image processing on various images such as tomographic images, motion contrast images, SLO images, and anterior eye observation images. The image processing unit 101-4 includes an alignment unit 101-41, a composition unit 101-42, a correction unit 101-43, an image feature acquisition unit 101-44, a projection unit 101-45, an analysis unit 101-46, and a height adjustment unit 101-42. An image quality improvement section 101-47 is provided.

位置合わせ部101-41は、画像間の位置合わせ処理を行う機能ブロックである。例えば、位置合わせ部101-41は、同一クラスタに属する断層画像同士を位置合わせし、重ね合わせ処理を行うことができる。なお、位置合わせ処理や重ね合わせ処理は、公知の任意の手法を用いて行われてよい。 The alignment unit 101-41 is a functional block that performs alignment processing between images. For example, the alignment unit 101-41 can align tomographic images belonging to the same cluster and perform superimposition processing. Note that the alignment process and superimposition process may be performed using any known method.

合成部101-42は、各複数の二次元画像から1つの画像を合成する機能ブロックである。合成部101-42には、例えば、合成法指定部101-421、同一モダリティ画像合成部101-422、及び異種モダリティ画像合成部101-423が設けられている。 The composition unit 101-42 is a functional block that composes one image from each of a plurality of two-dimensional images. The synthesis section 101-42 includes, for example, a synthesis method specification section 101-421, a same modality image synthesis section 101-422, and a different modality image synthesis section 101-423.

合成法指定部101-421は、合成対象画像の種類(例えば、断層画像/モーションコントラスト画像/断層画像及びモーションコントラスト画像)と、合成処理法(例えば、重ね合わせ/貼り合わせ/並置表示)を指定する。同一モダリティ画像合成部101-422は、例えば、断層画像間、又はモーションコントラスト画像間の合成処理を行う。異種モダリティ画像合成部101-423は、例えば、断層画像とモーションコントラスト画像間等の異なる種類のモダリティで得られた画像間の合成処理を行う。 The synthesis method specification unit 101-421 specifies the type of images to be synthesized (for example, tomographic image/motion contrast image/tomographic image and motion contrast image) and the synthesis processing method (for example, superimposition/stitching/juxtaposed display). do. The same modality image synthesis unit 101-422 performs, for example, synthesis processing between tomographic images or between motion contrast images. The different modality image synthesis unit 101-423 performs synthesis processing between images obtained by different types of modalities, such as between a tomographic image and a motion contrast image, for example.

補正部101-43は、モーションコントラスト画像内に生じるプロジェクションアーチファクトを抑制する処理を行う機能ブロックである。ここで、プロジェクションアーチファクトは、網膜表層血管内のモーションコントラストが深層側(網膜深層や網膜外層、脈絡膜)に映り込み、実際には血管の存在しない深層側の領域に高い脱相関値が生じる現象を指す。例えば、補正部101-43は、生成されたモーションコントラストデータにおけるプロジェクションアーチファクトを低減する処理を行う。このため、補正部101-43は、生成されたモーションコントラストデータに対してプロジェクションアーチファクトを低減する処理を行う処理手段の一例に相当する。 The correction unit 101-43 is a functional block that performs processing to suppress projection artifacts occurring within a motion contrast image. Here, projection artifact is a phenomenon in which motion contrast within the superficial retinal blood vessels is reflected in the deep layers (deep retina, outer retina, and choroid), resulting in high decorrelation values in deep regions where no blood vessels actually exist. Point. For example, the correction unit 101-43 performs processing to reduce projection artifacts in the generated motion contrast data. Therefore, the correction unit 101-43 corresponds to an example of a processing unit that performs processing to reduce projection artifacts on the generated motion contrast data.

画像特徴取得部101-44は、断層画像やモーションコントラスト断層画像等から層境界データを取得する。具体的には、画像特徴取得部101-44は、断層画像等について画像セグメンテーション処理を行い、被検眼の断層における層構造を抽出し、境界位置等の層境界データを取得する。なお、画像セグメンテーション処理の手法は、公知の任意の手法を用いてよい。 The image feature acquisition unit 101-44 acquires layer boundary data from a tomographic image, a motion contrast tomographic image, or the like. Specifically, the image feature acquisition unit 101-44 performs image segmentation processing on tomographic images and the like, extracts the layer structure in the tomogram of the eye to be examined, and acquires layer boundary data such as boundary positions. Note that any known method may be used for the image segmentation process.

投影部101-45は、設定された深度範囲で断層画像又はモーションコントラスト画像を投影又は積算し、輝度正面画像(輝度En-Face画像)又はOCTA正面画像を生成する機能ブロックである。なお、深度範囲は、操作者の指示や画像特徴取得部101-44が取得した層境界データに基づく2つの基準面を用いて設定されることができる。設定される深度範囲は任意の深度範囲であってよい。例えば、網膜表層及び網膜外層の深度範囲を設定し、合成部101-42によって2種類の合成OCTA正面画像を生成することができる。 The projection unit 101-45 is a functional block that projects or integrates a tomographic image or a motion contrast image in a set depth range to generate a brightness front image (brightness En-Face image) or an OCTA front image. Note that the depth range can be set using two reference planes based on instructions from the operator or layer boundary data acquired by the image feature acquisition unit 101-44. The set depth range may be any depth range. For example, the depth ranges of the retinal surface layer and the retinal outer layer can be set, and two types of combined OCTA frontal images can be generated by the combining unit 101-42.

ここで、2つの基準面に基づいて設定された深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。具体的には、投影法として、例えば、最大値投影(MIP:Maximum Intensity Projection)又は平均値投影(AIP:Average Intensity Projection)等を選択することができる。 Here, as a method of projecting data corresponding to a depth range set based on two reference planes onto a two-dimensional plane, for example, the representative value of the data within the depth range is converted into a pixel value on a two-dimensional plane. A method can be used to The representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Specifically, as the projection method, for example, Maximum Intensity Projection (MIP) or Average Intensity Projection (AIP) can be selected.

また、正面画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En-Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。ここで、正面画像を生成するための深度範囲は、不図示の選択リスト等に表示された既定の深度範囲セットから操作者が選択することにより変更することができる。また、操作者は、投影範囲の指定に用いる層境界の種類とオフセット位置をユーザーインターフェース(UI)から変更したり、入力部104を操作して断層画像上に重畳された層境界データを移動させたりすることで、投影範囲を変更することもできる。 Further, the depth range related to the frontal image may be, for example, a range that includes a predetermined number of pixels in a deeper direction or a shallower direction with one of the two layer boundaries regarding the detected retinal layer as a reference. . Furthermore, the depth range related to the En-Face image may be, for example, a range changed (offset) from the range between the two layer boundaries regarding the detected retinal layers in accordance with the operator's instructions. good. Here, the depth range for generating the front image can be changed by the operator selecting from a predetermined depth range set displayed in a selection list (not shown) or the like. Additionally, the operator can change the type and offset position of the layer boundary used to specify the projection range from the user interface (UI), or move the layer boundary data superimposed on the tomographic image by operating the input unit 104. You can also change the projection range by

生成された輝度正面画像やOCTA正面画像は、出力部103によって出力されることができる。なお、出力部103に出力されるモーションコントラスト画像は、OCTA正面画像に限定されるものではなく、三次元的にレンダリングした三次元モーションコントラスト画像や断層画像に対応するモーションコントラスト断層画像であってもよい。なお、生成されたモーションコントラスト画像等が出力部103によって表示される場合、上述した投影法やプロジェクションアーチファクト抑制処理の有無を、例えばコンテキストメニューのようなUIから選択することにより変更してもよい。例えば、プロジェクションアーチファクト抑制処理後のモーションコントラスト画像を三次元画像として表示してもよい。 The generated brightness front image and OCTA front image can be output by the output unit 103. Note that the motion contrast image output to the output unit 103 is not limited to the OCTA frontal image, but may also be a three-dimensional motion contrast image rendered three-dimensionally or a motion contrast tomographic image corresponding to a tomographic image. good. Note that when the generated motion contrast image or the like is displayed by the output unit 103, the above-described projection method and the presence or absence of projection artifact suppression processing may be changed by selecting from a UI such as a context menu. For example, a motion contrast image after projection artifact suppression processing may be displayed as a three-dimensional image.

また、解析部101-46は、断層画像やモーションコントラスト画像等の各種画像の解析処理を行う機能ブロックである。解析部101-46には、強調部101-461、抽出部101-462、計測部101-463、及び比較部101-464が設けられている。 The analysis unit 101-46 is a functional block that performs analysis processing of various images such as tomographic images and motion contrast images. The analysis section 101-46 is provided with an emphasis section 101-461, an extraction section 101-462, a measurement section 101-463, and a comparison section 101-464.

強調部101-461は、例えば、操作者による指示に応じて、画像中の任意の領域のデータを強調する強調処理を行うことができる。抽出部101-462は、解析部101-46によって用いられる画像における特徴部や領域等を抽出することができる。例えば、抽出部101-462は、断層画像から網膜や脈絡膜の層境界、篩状板の前面や後面の境界、中心窩や視神経乳頭中心の位置等を取得することができる。また、抽出部101-462は、OCTA正面画像から血管領域を抽出することができる。計測部101-463は、例えば、各種画像から解析すべき計測値を算出する。例えば、計測部101-463は特定の層の厚さを算出したり、抽出された該血管領域や該血管領域を細線化することで取得した血管中心線データを用いて血管密度等の計測値を算出したりすることができる。また、比較部101-464は、複数の断層画像や複数のモーションコントラスト画像等の複数の画像を比較することができる。さらに、比較部101-464は、計測部101-463によって算出された計測値等の複数の画像の解析結果を比較することもできる。 The emphasizing unit 101-461 can perform an emphasizing process to emphasize data in an arbitrary area in an image, for example, in response to instructions from an operator. The extraction unit 101-462 can extract characteristic parts, regions, etc. from the image used by the analysis unit 101-46. For example, the extraction unit 101-462 can acquire the layer boundaries of the retina and choroid, the front and rear boundaries of the lamina cribrosa, the position of the fovea and the center of the optic disc, etc. from the tomographic image. Furthermore, the extraction unit 101-462 can extract a blood vessel region from the OCTA frontal image. The measurement unit 101-463 calculates measurement values to be analyzed from various images, for example. For example, the measurement unit 101-463 calculates the thickness of a specific layer, or uses the extracted blood vessel region or blood vessel center line data obtained by thinning the blood vessel region to obtain measured values such as blood vessel density. can be calculated. Furthermore, the comparison unit 101-464 can compare multiple images such as multiple tomographic images and multiple motion contrast images. Furthermore, the comparison unit 101-464 can also compare the analysis results of a plurality of images, such as measurement values calculated by the measurement unit 101-463.

高画質化部101-47は、各種画像を高画質化する機能ブロックである。このため、高画質化部101-47は、例えば、断層画像やOCTA正面画像等の医用画像を高画質化する高画質化部の一例である。なお、高画質化部101-47の構成及び機能の詳細については後述する。 The image quality enhancement unit 101-47 is a functional block that enhances the image quality of various images. Therefore, the image quality improvement unit 101-47 is an example of an image quality improvement unit that improves the image quality of medical images such as tomographic images and OCTA frontal images. Note that details of the configuration and functions of the image quality improvement section 101-47 will be described later.

表示制御部101-5は、画像処理装置101に接続された出力部103の表示を制御することができる。表示制御部101-5は、例えば、出力部103に被検眼の断層画像や患者の情報等の各種データ等を表示させることができる。 The display control unit 101-5 can control the display of the output unit 103 connected to the image processing device 101. The display control unit 101-5 can, for example, cause the output unit 103 to display various data such as a tomographic image of the eye to be examined and patient information.

外部記憶装置102は、断層撮影用のプログラムや患者情報、画像情報等を記憶することができる。例えば、外部記憶装置102は、患者情報(患者の氏名、年齢、及び性別等)や被検眼の情報(左眼、右眼、眼軸長等)と、撮影した画像(断層画像、SLO画像、及びOCTA画像等)や合成画像、撮影パラメータ、過去検査の画像データや計測データ、操作者が設定したパラメータなどとを関連付けて記憶することができる。 The external storage device 102 can store tomography programs, patient information, image information, and the like. For example, the external storage device 102 stores patient information (patient's name, age, gender, etc.), information about the eye to be examined (left eye, right eye, axial length, etc.), and captured images (tomographic image, SLO image, etc.). and OCTA images, etc.), composite images, imaging parameters, image data and measurement data of past examinations, parameters set by the operator, and the like can be stored in association with each other.

入力部104は、例えば、マウスやキーボード、タッチパネル等を含んで構成され、操作者は、入力部104を介して、画像処理装置101や撮影装置100へ指示を行うことができる。出力部103は、画像処理装置101で処理した各種画像等のデータを出力することができる。出力部103は、任意のディスプレイ等で構成されることができ、表示制御部101-5による制御に基づいて、例えば被検体に関する患者情報や各種画像等を表示することができる。この場合、出力部103は、各種画像や情報を表示する表示部の一例として機能することができる。なお、出力部103はタッチUI等を備えていてもよい。 The input unit 104 includes, for example, a mouse, a keyboard, a touch panel, etc., and allows the operator to issue instructions to the image processing device 101 and the photographing device 100 via the input unit 104. The output unit 103 can output data such as various images processed by the image processing device 101. The output unit 103 can be configured with any display or the like, and can display, for example, patient information regarding the subject, various images, etc. based on the control by the display control unit 101-5. In this case, the output unit 103 can function as an example of a display unit that displays various images and information. Note that the output unit 103 may include a touch UI or the like.

なお、OCT装置の一部の構成を別個の装置として構成してもよいし、一体的な装置として構成してもよい。例えば、出力部103をタッチパネル式のディスプレイとして入力部104と一体的に構成してもよい。 Note that a part of the configuration of the OCT device may be configured as a separate device, or may be configured as an integrated device. For example, the output unit 103 may be integrally configured with the input unit 104 as a touch panel display.

(撮影装置の構成)
撮影装置100は、被検眼の断層画像やSLO画像等を得るために被検眼を撮影する装置である。以下、本実施形態に係る撮影装置100における測定光学系及び分光器の構成について図1及び図2を参照して説明する。本実施形態においては、撮影装置100としてSD-OCT(Spectral Domain OCT)の光学系を含む撮影装置を用いるものとする。これに限らず、例えばSS-OCTやTD-OCT(Time Domain OCT)等の光学系を含む撮影装置を用いて構成してもよい。
(Configuration of imaging device)
The photographing device 100 is a device that photographs the eye to be examined in order to obtain a tomographic image, an SLO image, etc. of the eye to be examined. Hereinafter, the configuration of the measurement optical system and spectrometer in the imaging device 100 according to this embodiment will be described with reference to FIGS. 1 and 2. In this embodiment, it is assumed that an image capturing apparatus including an SD-OCT (Spectral Domain OCT) optical system is used as the image capturing apparatus 100. The present invention is not limited to this, and may be configured using, for example, an imaging device including an optical system such as SS-OCT or TD-OCT (Time Domain OCT).

図1に示されるように、撮影装置100には、測定光学系100-1、ステージ部100-2、及びベース部100-3が設けられている。測定光学系100-1は前眼部像、被検眼のSLO眼底像、及び断層像を取得するための光学系である。ステージ部100-2は、測定光学系100-1を前後左右に移動可能に保持し、撮影制御部101-2の制御に応じて測定光学系100-1を移動させることができる。ベース部100-3は、後述の分光器230を内蔵している。 As shown in FIG. 1, the imaging device 100 is provided with a measurement optical system 100-1, a stage section 100-2, and a base section 100-3. The measurement optical system 100-1 is an optical system for acquiring an anterior segment image, an SLO fundus image of the eye to be examined, and a tomographic image. The stage section 100-2 holds the measurement optical system 100-1 so as to be movable back and forth, right and left, and can move the measurement optical system 100-1 under the control of the imaging control section 101-2. The base portion 100-3 incorporates a spectrometer 230, which will be described later.

図2を参照して、測定光学系100-1の構成について説明する。測定光学系100-1では、被検眼200に対向して対物レンズ201が設置され、その光軸上に第1ダイクロイックミラー202及び第2ダイクロイックミラー203が配置されている。対物レンズ201からの光路は、これらのダイクロイックミラーによってOCT光学系用の光路250、SLO光学系と固視灯用の光路251、及び前眼観察用の光路252とに波長帯域ごとに分岐される。 The configuration of measurement optical system 100-1 will be described with reference to FIG. 2. In the measurement optical system 100-1, an objective lens 201 is installed facing the eye to be examined 200, and a first dichroic mirror 202 and a second dichroic mirror 203 are placed on its optical axis. The optical path from the objective lens 201 is branched by these dichroic mirrors into an optical path 250 for the OCT optical system, an optical path 251 for the SLO optical system and fixation lamp, and an optical path 252 for anterior ocular observation for each wavelength band. .

本実施形態では、第1ダイクロイックミラー202の反射方向に前眼観察用の光路252が配置され、第1ダイクロイックミラー202の透過方向にOCT光学系用の光路250及びSLO光学系と固視灯用の光路251が配置される。また、第2ダイクロイックミラー203の反射方向にOCT光学系用の光路250が配置され、第2ダイクロイックミラー203の透過方向にSLO光学系と固視灯用の光路251が配置される。ただし、ダイクロイックミラーに対する各光路の配置はそれぞれ逆であってもよい。 In this embodiment, an optical path 252 for anterior eye observation is arranged in the reflection direction of the first dichroic mirror 202, and an optical path 250 for the OCT optical system, an SLO optical system, and a fixation lamp are arranged in the transmission direction of the first dichroic mirror 202. An optical path 251 is arranged. Further, an optical path 250 for the OCT optical system is arranged in the reflection direction of the second dichroic mirror 203, and an optical path 251 for the SLO optical system and the fixation lamp is arranged in the transmission direction of the second dichroic mirror 203. However, the arrangement of each optical path with respect to the dichroic mirror may be reversed.

SLO光学系と固視灯用の光路251には、SLO走査部204、レンズ205,206、ミラー207、第3ダイクロイックミラー208、APD(Avalanche Photodiode)209、SLO光源210、及び固視灯211が設けられている。ミラー207は、穴あきミラーや中空のミラーが蒸着されたプリズムを用いて構成され、SLO光源210による照明光と、照明光の被検眼200からの戻り光とを分離する。第3ダイクロイックミラー208は、第3ダイクロイックミラー208からの光路をSLO光源210の光路と固視灯211の光路とに波長帯域ごとに分岐させる。なお、本実施形態では、第3ダイクロイックミラー208の反射方向にSLO光源210の光路が配置され、第3ダイクロイックミラー208の透過方向に固視灯211が配置されている。ただし、ダイクロイックミラーに対する各光路の配置はそれぞれ逆であってもよい。 The optical path 251 for the SLO optical system and fixation lamp includes an SLO scanning unit 204, lenses 205 and 206, a mirror 207, a third dichroic mirror 208, an APD (Avalanche Photodiode) 209, an SLO light source 210, and a fixation lamp 211. It is provided. The mirror 207 is configured using a prism in which a perforated mirror or a hollow mirror is vapor-deposited, and separates the illumination light from the SLO light source 210 and the return light of the illumination light from the eye 200 to be examined. The third dichroic mirror 208 branches the optical path from the third dichroic mirror 208 into an optical path of the SLO light source 210 and an optical path of the fixation lamp 211 for each wavelength band. In this embodiment, the optical path of the SLO light source 210 is arranged in the reflection direction of the third dichroic mirror 208, and the fixation lamp 211 is arranged in the transmission direction of the third dichroic mirror 208. However, the arrangement of each optical path with respect to the dichroic mirror may be reversed.

SLO走査部204は、SLO光源210から発せられた照明光を被検眼200上で走査するものであり、X方向に走査するXスキャナ、Y方向に走査するYスキャナから構成されている。SLO走査部204は、撮影制御部101-2によって制御される。本実施形態では、Xスキャナは高速走査を行うポリゴンミラーで、Yスキャナはガルバノミラーによって構成されている。ただし、SLO走査部204の構成はこれに限られず、Xスキャナ及びYスキャナは所望の構成に応じて任意の偏向ミラーを用いて構成されてよい。 The SLO scanning unit 204 scans the subject's eye 200 with illumination light emitted from the SLO light source 210, and includes an X scanner that scans in the X direction and a Y scanner that scans in the Y direction. The SLO scanning unit 204 is controlled by the imaging control unit 101-2. In this embodiment, the X scanner is a polygon mirror that performs high-speed scanning, and the Y scanner is a galvanometer mirror. However, the configuration of the SLO scanning unit 204 is not limited to this, and the X scanner and Y scanner may be configured using any deflection mirror depending on the desired configuration.

レンズ205は、SLO光学系及び固視灯211の焦点合わせのため、不図示のモータによって光軸方向に駆動される。なお、レンズ205を駆動させるためのモータは、撮影制御部101-2によって制御される。 The lens 205 is driven in the optical axis direction by a motor (not shown) in order to focus the SLO optical system and the fixation lamp 211. Note that the motor for driving the lens 205 is controlled by the photographing control section 101-2.

SLO光源210は、780nm付近の波長の光を発生する。APD209は、被検眼200からの戻り光を検出する。固視灯211は、可視光を発生して被検者の固視を促すものである。 SLO light source 210 generates light with a wavelength around 780 nm. APD 209 detects the return light from eye 200 to be examined. The fixation lamp 211 generates visible light to encourage the subject to fixate.

SLO光源210から発せられた照明光は、第3ダイクロイックミラー208で反射され、ミラー207を通過し、レンズ206,205を通ってSLO走査部204に至り、SLO走査部204によって被検眼200上で走査される。被検眼200からの戻り光は、照明光と同じ経路を戻った後、ミラー207によって反射され、APD209へと導かれる。 The illumination light emitted from the SLO light source 210 is reflected by the third dichroic mirror 208, passes through the mirror 207, passes through the lenses 206 and 205, and reaches the SLO scanning unit 204. scanned. After the return light from the eye 200 to be examined returns along the same path as the illumination light, it is reflected by the mirror 207 and guided to the APD 209 .

APD209は、戻り光に基づいてSLO眼底像の信号データを生成し、画像処理装置101に出力する。画像処理装置101の取得部101-1はAPD209から出力された信号データに基づいてSLO画像を生成する。なお、SLO光源210から発せられた照明光を、被検眼200の眼底上で走査することで被検眼200の眼底のSLO画像を取得することができる。これに対し、SLO光源210から発せられた照明光を、被検眼の前眼部を走査することで被検眼200の前眼部のSLO画像を取得することもできる。 The APD 209 generates signal data of the SLO fundus image based on the returned light and outputs it to the image processing device 101. The acquisition unit 101-1 of the image processing device 101 generates an SLO image based on the signal data output from the APD 209. Note that an SLO image of the fundus of the eye to be examined 200 can be acquired by scanning the fundus of the eye to be examined 200 with the illumination light emitted from the SLO light source 210. On the other hand, an SLO image of the anterior segment of the eye to be examined 200 can also be acquired by scanning the anterior segment of the eye to be examined with the illumination light emitted from the SLO light source 210.

固視灯211から発せられた光は、第3ダイクロイックミラー208、ミラー207を透過し、レンズ206,205を通り、SLO走査部204によって被検眼200上の任意の位置に所定の形状を作る。固視灯211から発せられた光を被検者に注視させることで、被検者の固視を促すことができる。 The light emitted from the fixation lamp 211 passes through the third dichroic mirror 208 and the mirror 207, passes through the lenses 206 and 205, and forms a predetermined shape at an arbitrary position on the eye 200 by the SLO scanning unit 204. By having the subject gaze at the light emitted from the fixation lamp 211, it is possible to encourage the subject to fixate.

前眼観察用の光路252には、レンズ212,213、スプリットプリズム214、及び赤外光を検知する前眼部観察用のCCD215が配置されている。CCD215は、不図示の前眼部観察用照射光の波長、具体的には970nm付近に感度を持つものである。CCD215から出力されたデータ信号は画像処理装置101へ出力され、画像処理装置101は入力された信号データに基づいて前眼部観察画像を生成することができる。 Lenses 212 and 213, a split prism 214, and a CCD 215 for anterior eye observation that detects infrared light are arranged in the optical path 252 for anterior eye observation. The CCD 215 is sensitive to the wavelength of irradiation light for anterior ocular segment observation (not shown), specifically around 970 nm. The data signal output from the CCD 215 is output to the image processing device 101, and the image processing device 101 can generate an anterior segment observation image based on the input signal data.

スプリットプリズム214は、被検眼200の瞳孔と共役な位置に配置されている。画像処理装置101は、スプリットプリズム214を通った光に基づく前眼部のスプリット像を用いて、被検眼200に対する測定光学系100-1のZ軸方向(光軸方向)の距離を検出できる。 The split prism 214 is arranged at a position conjugate with the pupil of the eye 200 to be examined. The image processing device 101 can detect the distance of the measuring optical system 100-1 in the Z-axis direction (optical axis direction) with respect to the eye 200 using the split image of the anterior segment based on the light that has passed through the split prism 214.

OCT光学系用の光路250にはOCT光学系が設けられており、OCT光学系は被検眼200の断層画像を撮影するために用いられる。より具体的には、OCT光学系は、断層画像を生成するための干渉信号を得るために用いられる。OCT光学系用の光路250には、XYスキャナ216、レンズ217,218、及び光ファイバー224が設けられている。 An OCT optical system is provided in the optical path 250 for the OCT optical system, and the OCT optical system is used to take a tomographic image of the eye 200 to be examined. More specifically, OCT optics are used to obtain interference signals for generating tomographic images. The optical path 250 for the OCT optical system is provided with an XY scanner 216, lenses 217 and 218, and an optical fiber 224.

XYスキャナ(OCT走査部)216は、測定光を被検眼200上で走査するためのものである。XYスキャナ216は、撮影制御部101-2によって制御される。XYスキャナ216は、図2では1枚のミラーとして図示されているが、実際はXY2軸方向の走査を行うガルバノミラーである。ただし、XYスキャナ216の構成はこれに限られず、所望の構成に応じて任意の偏向ミラーを用いて構成されてよい。例えば、XYスキャナ216は、1枚で2次元方向に測定光を走査可能なMEMSミラー等の任意の偏向手段を用いて構成されてよい。 The XY scanner (OCT scanning unit) 216 is used to scan the eye 200 to be examined with measurement light. The XY scanner 216 is controlled by the imaging control section 101-2. Although the XY scanner 216 is illustrated as a single mirror in FIG. 2, it is actually a galvanometer mirror that scans in two XY axis directions. However, the configuration of the XY scanner 216 is not limited to this, and may be configured using any deflection mirror depending on the desired configuration. For example, the XY scanner 216 may be configured using any deflection means such as a MEMS mirror that can scan measurement light in two-dimensional directions with one piece.

レンズ217は、光カプラー219に接続されている光ファイバー224から出射する測定光を、被検眼200に焦点合わせするために不図示のモータによって光軸方向に駆動される。この焦点合わせによって、測定光の被検眼200からの戻り光は同時に光ファイバー224の先端に、スポット状に結像されて入射されることとなる。なお、レンズ217を駆動させるためのモータは、撮影制御部101-2によって制御される。 The lens 217 is driven in the optical axis direction by a motor (not shown) in order to focus the measurement light emitted from the optical fiber 224 connected to the optical coupler 219 onto the eye 200 to be examined. By this focusing, the return light of the measurement light from the eye 200 to be examined is simultaneously formed into a spot image and incident on the tip of the optical fiber 224. Note that the motor for driving the lens 217 is controlled by the photographing control section 101-2.

次に、OCT光源220からの光路と参照光学系、分光器の構成について説明する。OCT光学系には、OCT光源220、参照ミラー221、分散補償ガラス222、レンズ223、光カプラー219、光カプラーに接続されて一体化しているシングルモードの光ファイバー224~227、分光器230が更に設けられている。OCT光学系は、これらの構成によってマイケルソン干渉計を構成している。 Next, the configuration of the optical path from the OCT light source 220, the reference optical system, and the spectrometer will be explained. The OCT optical system further includes an OCT light source 220, a reference mirror 221, a dispersion compensating glass 222, a lens 223, an optical coupler 219, single mode optical fibers 224 to 227 connected to and integrated with the optical coupler, and a spectrometer 230. It is being The OCT optical system constitutes a Michelson interferometer with these configurations.

OCT光源220は、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。中心波長は855nm、波長バンド幅は約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。光源の種類は、ここではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等を用いることができる。中心波長は眼を測定することを鑑みると近赤外光が適する。また、中心波長は得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることができる。本実施形態では、双方の理由からOCT光源220の中心波長を855nmとした。 The OCT light source 220 is an SLD (Super Luminescent Diode), which is a typical low coherent light source. The center wavelength is 855 nm, and the wavelength bandwidth is approximately 100 nm. Here, the bandwidth is an important parameter because it affects the resolution of the obtained tomographic image in the optical axis direction. As for the type of light source, SLD is selected here, but it is sufficient that it can emit low coherent light, and ASE (Amplified Spontaneous Emission) or the like may be used. Considering that the eye is to be measured, near-infrared light is suitable as the center wavelength. Furthermore, since the center wavelength affects the lateral resolution of the obtained tomographic image, it can be as short as possible. In this embodiment, the center wavelength of the OCT light source 220 is set to 855 nm for both reasons.

OCT光源220から出射された光は、光ファイバー225を通じ、光カプラー219を介して光ファイバー224側に入射される測定光と、光ファイバー226側に入射される参照光とに分割される。測定光は、OCT光学系用の光路250を通じて、観察対象である被検眼200に照射され、被検眼200による反射や散乱により同じ光路を通じて戻り光として光カプラー219に到達する。一方、参照光は光ファイバー226、レンズ223、及び測定光と参照光の波長分散を合わせるために挿入された分散補償ガラス222を介して参照ミラー221に到達し反射される。参照ミラー221で反射された参照光は同じ光路を戻り、光カプラー219に到達する。 The light emitted from the OCT light source 220 passes through the optical fiber 225 and is split into measurement light that enters the optical fiber 224 side via the optical coupler 219 and reference light that enters the optical fiber 226 side. The measurement light is irradiated onto the eye 200 to be observed, which is the object to be observed, through the optical path 250 for the OCT optical system, and reaches the optical coupler 219 as return light through the same optical path due to reflection and scattering by the eye 200 to be examined. On the other hand, the reference light reaches the reference mirror 221 and is reflected through the optical fiber 226, the lens 223, and the dispersion compensating glass 222 inserted to match the wavelength dispersion of the measurement light and the reference light. The reference light reflected by the reference mirror 221 returns along the same optical path and reaches the optical coupler 219.

測定光と参照光は、光カプラー219によって合波され干渉光となる。ここで、測定光と参照光は、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。参照ミラー221は、撮影制御部101-2により制御される不図示のモータ及び駆動機構によって光軸方向に調整可能に保持され、測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー227を介して分光器230に導かれる。 The measurement light and the reference light are combined by an optical coupler 219 to become interference light. Here, the measurement light and the reference light cause interference when the optical path length of the measurement light and the reference light become almost the same. The reference mirror 221 is held so as to be adjustable in the optical axis direction by a motor and drive mechanism (not shown) that are controlled by the imaging control unit 101-2, and is capable of matching the optical path length of the reference light to the optical path length of the measurement light. be. The interference light is guided to a spectrometer 230 via an optical fiber 227.

また、光ファイバー224,226中には偏光調整部228,229が設けられている。偏光調整部228,229は、それぞれ測定光及び参照光の偏光調整を行う。偏光調整部228,229は、光ファイバーをループ状に引きまわした部分を幾つか持っている。偏光調整部228,229では、このループ状の部分を光ファイバーの長手方向を中心として回転させることで光ファイバーに捩じりを加え、測定光と参照光の偏光状態を各々調整して合わせることができる。 Further, polarization adjusting sections 228 and 229 are provided in the optical fibers 224 and 226. Polarization adjustment units 228 and 229 adjust the polarization of the measurement light and the reference light, respectively. The polarization adjustment units 228 and 229 have several portions in which optical fibers are routed around in a loop. In the polarization adjustment units 228 and 229, by rotating this loop-shaped portion around the longitudinal direction of the optical fiber, the optical fiber is twisted, and the polarization states of the measurement light and the reference light can be adjusted and matched. .

分光器230には、レンズ232,234、回折格子233、及びラインセンサ231が設けられている。光ファイバー227から出射された干渉光は、レンズ234を介して平行光となった後、回折格子233で分光され、レンズ232によってラインセンサ231に結像される。 The spectrometer 230 is provided with lenses 232 and 234, a diffraction grating 233, and a line sensor 231. The interference light emitted from the optical fiber 227 becomes parallel light through the lens 234 , is separated by the diffraction grating 233 , and is imaged onto the line sensor 231 by the lens 232 .

干渉光は、ラインセンサ231によって、波長毎の強度情報として計測される。ラインセンサ231によって計測された波長毎の強度情報は、画像処理装置101に断層像の信号データ(干渉信号)として出力される。画像処理装置101は、受け取った信号データを用いて被検眼200の断層画像を生成することができる。 The interference light is measured by the line sensor 231 as intensity information for each wavelength. Intensity information for each wavelength measured by the line sensor 231 is output to the image processing device 101 as tomographic image signal data (interference signal). The image processing device 101 can generate a tomographic image of the eye 200 using the received signal data.

本実施形態では、干渉計としてマイケルソン干渉計を用いたが、マッハツェンダー干渉計を用いてもよい。例えば、測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉計を、光量差が比較的小さい場合にはマイケルソン干渉計を用いることができる。 In this embodiment, a Michelson interferometer is used as the interferometer, but a Mach-Zehnder interferometer may also be used. For example, depending on the difference in light amount between the measurement light and the reference light, a Mach-Zehnder interferometer can be used when the difference in light amount is large, and a Michelson interferometer can be used when the difference in light amount is relatively small.

(高画質化処理)
以下、具体的にOCTで取得したモーションコントラストデータを対象とする高画質化処理について説明するが、実施形態の説明の中で使用する用語について簡単に定義しておく。まず、干渉信号やこれに基づく輝度の断層画像に関する三次元ボリュームデータの情報をOCTデータ、モーションコントラストに関する三次元ボリュームデータの情報をOCTAデータと表記する。また、干渉信号やこれに基づく輝度の断層画像に関する三次元ボリュームデータから取り出せる二次元情報をOCT画像、モーションコントラストに関する三次元ボリュームデータから取り出せる二次元情報をOCTA画像とする。特に、指定した深さ方向の範囲で、干渉信号やこれに基づく輝度の断層画像に関する三次元ボリュームデータを投影又は積算して生成した画像をOCT正面画像(輝度En-Face)と表記する。また、モーションコントラストに関する三次元ボリュームデータを投影又は積算して生成した画像をOCTA正面画像と表記する。さらに、深さ方向のデータを含む二次元画像を断層画像と表記する。
(High image quality processing)
Hereinafter, high image quality processing for motion contrast data acquired by OCT will be specifically described, but the terms used in the description of the embodiments will be briefly defined. First, three-dimensional volume data information regarding interference signals and brightness tomographic images based thereon will be referred to as OCT data, and three-dimensional volume data information regarding motion contrast will be referred to as OCTA data. Further, two-dimensional information that can be extracted from three-dimensional volume data regarding interference signals and tomographic images of brightness based thereon is referred to as an OCT image, and two-dimensional information that can be extracted from three-dimensional volume data regarding motion contrast is referred to as an OCTA image. In particular, an image generated by projecting or integrating three-dimensional volume data regarding an interference signal and a brightness tomographic image based on the interference signal in a specified depth direction range is referred to as an OCT front image (brightness En-Face). Further, an image generated by projecting or integrating three-dimensional volume data regarding motion contrast is referred to as an OCTA frontal image. Furthermore, a two-dimensional image including data in the depth direction is referred to as a tomographic image.

(高画質化部)
図3は、高画質化部101-47のより詳細な構成を示すブロック図である。高画質化部101-47には、高画質化処理部301、領域検出部302、ROI設定部303、ブレンド処理部304、及びBC調整部305が設けられている。
(High image quality department)
FIG. 3 is a block diagram showing a more detailed configuration of the image quality improvement section 101-47. The image quality improvement section 101-47 is provided with an image quality improvement processing section 301, a region detection section 302, an ROI setting section 303, a blend processing section 304, and a BC adjustment section 305.

高画質化処理部301は、取得部101-1によって取得された医用画像について、後述する高画質化用の学習済モデル(高画質化エンジン、高画質化モデル)を用いて高画質化処理を行い、高画質画像を生成する。高画質化処理部301は、被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、被検体の医用画像(第1の画像)に対して高画質化処理を行い、被検体の高画質画像(第2の画像)を取得する高画質化部の一例として機能することができる。なお、高画質化処理する医用画像は、OCT画像、OCTA画像、断層画像、OCT正面画像、OCTA正面画像、SLO画像、及び前眼観察画像及びこれら画像を解析して得た解析マップ等の画像であってよい。 The image quality improvement processing unit 301 performs image quality improvement processing on the medical image acquired by the acquisition unit 101-1 using a trained model for image quality improvement (image quality improvement engine, image quality improvement model), which will be described later. and generate high-quality images. The image quality improvement processing unit 301 performs image quality improvement processing on the medical image of the subject (first image) using a trained model obtained by learning using the medical image of the subject as learning data. It can function as an example of a high-quality image unit that acquires a high-quality image (second image) of the subject. The medical images to be processed for high image quality include OCT images, OCTA images, tomographic images, OCT frontal images, OCTA frontal images, SLO images, anterior ocular observation images, and analysis maps obtained by analyzing these images. It may be.

領域検出部302は、後述する領域検出用の学習済モデル(領域検出エンジン、領域検出モデル)を用いて医用画像又は高画質化された医用画像に対して領域検出処理を行い、少なくとも1つの領域(例えば、対象領域)を検出する。例えば、領域検出部302は、対象領域及び対象領域以外の領域を検出することができる。領域検出部302は、被検体の医用画像又は高画質画像における対象領域を検出する検出部の一例として機能することができる。例えば、領域検出部302は、領域検出エンジンを用いてOCTA正面画像から灌流領域と無灌流領域を検出する。眼底の診断においては、灌流領域と無灌流領域を特定することで、血管があるべきところに血流がない、あるいは血管がないはずのところに何らかの血流が認められるか(新生血管など)を判断することができる。なお、対象領域は、灌流領域及び無灌流領域に限られず、高画質化エンジンにより過補正が生じる領域を含んだものであればよい。例えば、対象領域は、灌流領域及び無灌流領域のほかに中心窩無血管領域や視神経乳頭部等を含んでもよい。 The region detection unit 302 performs region detection processing on a medical image or a high-quality medical image using a trained model for region detection (region detection engine, region detection model) to be described later, and detects at least one region. (for example, a target area). For example, the area detection unit 302 can detect the target area and areas other than the target area. The area detection unit 302 can function as an example of a detection unit that detects a target area in a medical image or a high-quality image of a subject. For example, the region detection unit 302 detects perfusion regions and non-perfusion regions from the OCTA frontal image using a region detection engine. When diagnosing the fundus, by identifying perfused and non-perfused areas, it is possible to detect whether there is no blood flow where there should be blood vessels, or whether some kind of blood flow is observed where there should be no blood vessels (such as new blood vessels). can be judged. Note that the target area is not limited to the perfusion area and the non-perfusion area, but may include any area where over-correction occurs by the image quality engine. For example, the target region may include the foveal avascular region, the optic nerve head, etc. in addition to the perfused region and non-perfused region.

なお、領域の分類は、それぞれの領域を示す属性情報(ラベル)で管理すればよい。例えば、領域検出部302は、医用画像の各画素位置に対応する画素値として属性情報を有するラベル画像を生成してもよい。また、属性情報に加えて、領域検出エンジンから出力されたそれぞれの属性情報に関する確からしさ(信頼度、確率)を示す値を医用画像の各画素に対応付けて保持してもよい。 Note that the classification of regions may be managed using attribute information (labels) indicating each region. For example, the area detection unit 302 may generate a label image having attribute information as a pixel value corresponding to each pixel position of the medical image. In addition to the attribute information, a value indicating the likelihood (reliability, probability) of each attribute information output from the region detection engine may be stored in association with each pixel of the medical image.

ROI設定部303は、領域検出部302で検出された領域に基づいてROI(Region Of Interest)を設定する。なお、ROIは、領域検出部302で検出された領域(対象領域)のうちの少なくとも1つの領域とすることができる。なお、ROIは、領域検出部302によって所定の属性情報を有する領域として自動的に設定されてもよく、この場合にはROI設定部303は省略されてよい。 The ROI setting unit 303 sets a ROI (Region of Interest) based on the region detected by the region detection unit 302. Note that the ROI can be at least one of the regions (target regions) detected by the region detection unit 302. Note that the ROI may be automatically set as a region having predetermined attribute information by the region detection section 302, and in this case, the ROI setting section 303 may be omitted.

ブレンド処理部304は、例えば、所定の属性情報を有する領域である設定されたROIに対して、医用画像及び医用画像の高画質画像を用いて画像処理の一種であるブレンド処理を行う。ブレンド処理としては、例えば、αブレンド処理等の公知の任意の処理を用いてよい。ブレンド処理部304は、医用画像又は高画質画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行う画像処理部の一例として機能することができる。 For example, the blend processing unit 304 performs blend processing, which is a type of image processing, on the set ROI, which is a region having predetermined attribute information, using a medical image and a high-quality image of the medical image. As the blending process, for example, any known process such as α blending process may be used. The blending processing unit 304 performs a process for a target region in a medical image or a high-quality image so that the difference between the pixel value of the target region and the pixel value of a region other than the target region is widened, and the pixel value of the target region is lowered. It can function as an example of an image processing unit that performs image processing.

BC調整部305は、例えば、所定の属性情報を有する領域である設定されたROIに対して、明るさ及びコントラストの少なくとも一方の補正処理であるBC(Brightness,Contrast)調整処理を行う。ここで、コントラストの補正処理とは、公知の任意のコントラスト補正処理を含んでよく、例えば、トーンカーブ又はガンマカーブを用いた補正やレベル補正を含んでよい。BC調整部305も、医用画像又は高画質画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行う画像処理部の一例として機能することができる。 The BC adjustment unit 305 performs, for example, a BC (Brightness, Contrast) adjustment process, which is a correction process for at least one of brightness and contrast, on the set ROI, which is a region having predetermined attribute information. Here, the contrast correction processing may include any known contrast correction processing, and may include, for example, correction using a tone curve or gamma curve, and level correction. The BC adjustment unit 305 also adjusts the target area in a medical image or a high-quality image so that the difference between the pixel value of the target area and the pixel value of an area other than the target area increases and the pixel value of the target area becomes lower. It can function as an example of an image processing unit that performs image processing.

なお、ブレンド処理部304及びBC調整部305はいずれか一方のみが設けられてもよい。また、ブレンド処理部304及びBC調整部305の両方が設けられる場合には、画像処理装置101は、操作者による指示に応じて、実行するべき画像処理としてブレンド処理及びBC調整処理のいずれか又は両方を選択できるように構成されてもよい。なお、ブレンド処理及びBC調整処理の両方を実行する場合には、画像処理装置101は、それぞれの画像処理を施した画像をUI等の操作に応じて切り替えて又は並べて出力部103に表示させるように構成されてもよい。 Note that only one of the blend processing section 304 and the BC adjustment section 305 may be provided. Further, when both the blend processing unit 304 and the BC adjustment unit 305 are provided, the image processing device 101 performs either blend processing or BC adjustment processing as the image processing to be performed in accordance with instructions from the operator. The configuration may be such that both can be selected. Note that when performing both the blending process and the BC adjustment process, the image processing apparatus 101 displays the images subjected to each image process on the output unit 103 by switching or arranging them according to operations on the UI, etc. may be configured.

(医用画像の高画質化エンジン)
以下、高画質化処理部301が用いる高画質化エンジンについて図4乃至図7を参照して説明する。なお、本実施形態では高画質化エンジンは記憶部101-3に記憶される構成とするが、高画質化エンジンは、画像処理装置101に接続される外部装置に設けられてもよい。この場合、高画質化処理部301は、外部装置に設けられた高画質化エンジンを用いて高画質化処理を行うことができる。
(High-quality medical image engine)
The image quality improvement engine used by the image quality improvement processing unit 301 will be described below with reference to FIGS. 4 to 7. In this embodiment, the image quality improvement engine is stored in the storage unit 101-3, but the image quality improvement engine may be provided in an external device connected to the image processing apparatus 101. In this case, the image quality improvement processing unit 301 can perform image quality improvement processing using an image quality improvement engine provided in an external device.

本実施形態に係る高画質化エンジンは、機械学習アルゴリズムに係るトレーニング(学習)を行って得た学習済モデルである。本実施形態では、機械学習アルゴリズムに係る機械学習モデルのトレーニングに、処理対象として想定される特定の撮影条件を持つ低画質画像である入力データと、入力データに対応する高画質画像である出力データのペア群で構成された学習データを用いる。なお、特定の撮影条件には、具体的には、予め決定された撮影部位、撮影方式、撮影画角、及び画像サイズ等が含まれる。 The image quality improvement engine according to this embodiment is a learned model obtained by performing training (learning) on a machine learning algorithm. In this embodiment, for training a machine learning model related to a machine learning algorithm, input data is a low-quality image with specific shooting conditions assumed to be processed, and output data is a high-quality image corresponding to the input data. We use training data consisting of a group of pairs. Note that the specific imaging conditions specifically include a predetermined imaging site, imaging method, imaging angle of view, image size, and the like.

ここで、一般的な学習済モデルについて簡単に説明する。学習済モデルとは、任意の機械学習アルゴリズムに対して、事前に適切な学習データを用いてトレーニング(学習)を行った機械学習モデルである。学習データは、一つ以上の、入力データと出力データ(正解データ)とのペア群で構成される。なお、学習データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。 Here, a general trained model will be briefly explained. A trained model is a machine learning model that has been trained (learning) in advance using appropriate learning data for any machine learning algorithm. The learning data consists of one or more pairs of input data and output data (correct data). Note that the formats and combinations of the input data and output data of the pair groups that make up the learning data may be such that one is an image and the other is a numerical value, one is composed of multiple image groups and the other is a character string, or both. may be an image, etc., which is suitable for the desired configuration.

具体的には、例えば、OCTによって取得された画像と、該画像に対応する撮影部位ラベルとのペア群によって構成された学習データ(以下、第1の学習データ)が挙げられる。なお、撮影部位ラベルは部位を表すユニークな数値や文字列である。また、その他の学習データの例として、OCTの通常撮影によって取得されたノイズの多い低画質画像と、OCTにより複数回撮影して高画質化処理した高画質画像とのペア群によって構成されている学習データ(以下、第2の学習データ)等が挙げられる。 Specifically, for example, learning data (hereinafter referred to as first learning data) configured by a group of pairs of an image acquired by OCT and a radiographed part label corresponding to the image may be mentioned. Note that the imaging site label is a unique numerical value or character string that represents the site. In addition, as an example of other learning data, it is made up of a pair group of a noisy low-quality image obtained by normal OCT imaging and a high-quality image obtained by capturing multiple times using OCT and processing it to improve the image quality. Examples include learning data (hereinafter referred to as second learning data).

このとき、学習済モデルに入力データを入力すると、該学習済モデルの設計に従った出力データが出力される。学習済モデルは、例えば、学習データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、学習済モデルは、例えば、学習データを用いてトレーニングされた傾向に従って、出力データの種類のそれぞれについて、入力データに対応する確からしさ(信頼度、確率)を数値として出力する等を行うことができる。 At this time, when input data is input to the learned model, output data according to the design of the learned model is output. A trained model outputs output data that is likely to correspond to input data, for example, according to a tendency trained using learning data. In addition, the trained model can, for example, output the likelihood (reliability, probability) corresponding to the input data as a numerical value for each type of output data, according to the tendency trained using the learning data. I can do it.

具体的には、例えば、第1の学習データでトレーニングされた機械学習モデルにOCTによって取得された画像を入力すると、機械学習モデルは、該画像に撮影されている撮影部位の撮影部位ラベルを出力したり、撮影部位ラベル毎の確率を出力したりする。また、例えば、第2の学習データでトレーニングされた機械学習モデルにOCTの通常撮影によって取得されたノイズの多い低画質画像を入力すると、機械学習モデルは、OCTにより複数回撮影して高画質化処理された画像相当の高画質画像を出力する。なお、機械学習モデルについては、品質保持の観点から、自身が出力した出力データを学習データとして用いないように構成することもできる。 Specifically, for example, when an image acquired by OCT is input to a machine learning model trained with the first learning data, the machine learning model outputs the imaged region label of the imaged region captured in the image. or output the probability for each imaging site label. Also, for example, if a noisy, low-quality image obtained by normal OCT imaging is input to a machine learning model trained with the second learning data, the machine learning model will acquire high image quality by capturing multiple times using OCT. Outputs a high-quality image equivalent to the processed image. Note that, from the viewpoint of quality maintenance, the machine learning model can also be configured so that its own output data is not used as learning data.

また、機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、学習データを用いてトレーニングされた傾向を出力データに再現可能な程度が異なる場合がある。例えば、第1の学習データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、正しい撮影部位ラベルを出力する確率がより高くなる場合がある。また、例えば、第2の学習データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、より高画質な画像を出力できる場合がある。 Further, the machine learning algorithm includes a method related to deep learning such as a convolutional neural network (CNN). In methods related to deep learning, if the parameter settings for the layers and nodes that make up the neural network differ, the extent to which trends trained using learning data can be reproduced in output data may vary. For example, in a deep learning machine learning model using the first learning data, if more appropriate parameters are set, the probability of outputting a correct imaging site label may become higher. Further, for example, in a deep learning machine learning model using the second learning data, if more appropriate parameters are set, a higher quality image may be output.

具体的には、CNNにおけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、学習データに基づいて、学習済モデルの利用形態に好ましい値に設定することができる。例えば、学習データに基づいて、正しい撮影部位ラベルをより高い確率で出力したり、より高画質な画像を出力したりできるパラメータ群やエポック数を設定することができる。 Specifically, parameters in CNN include, for example, the kernel size of the filter, the number of filters, the stride value, and the dilation value set for the convolutional layer, as well as the number of output nodes of the fully connected layer. etc. can be included. Note that the parameter group and the number of training epochs can be set to values preferable for the usage pattern of the learned model based on the learning data. For example, based on the learning data, it is possible to set a parameter group and the number of epochs that can output correct imaging site labels with a higher probability or output higher quality images.

このようなパラメータ群やエポック数の決定方法の一つを例示する。まず、学習データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用としてランダムに設定する。次に、トレーニング用のペア群を用いて機械学習モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の機械学習モデルに入力したときの出力と、入力データに対応する出力データとを損失関数によって評価した値群の平均値である。最後に、最もトレーニング評価値が小さくなったときのパラメータ群及びエポック数を、当該機械学習モデルのパラメータ群やエポック数として決定する。なお、このように、学習データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、機械学習モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。 An example of a method for determining such a parameter group and the number of epochs will be described. First, 70% of the pairs forming the learning data are used for training, and the remaining 30% are randomly set for evaluation. Next, a machine learning model is trained using the training pair group, and at the end of each epoch of training, a training evaluation value is calculated using the evaluation pair group. The training evaluation value is, for example, the average value of a group of values obtained by evaluating the output when the input data forming each pair is input to the machine learning model being trained and the output data corresponding to the input data using a loss function. be. Finally, the parameter group and epoch number when the training evaluation value becomes the smallest are determined as the parameter group and epoch number of the machine learning model. Note that by dividing the pairs that make up the learning data into those for training and evaluation and determining the number of epochs in this way, the machine learning model may overfit the pairs for training. can be prevented.

ここで、本実施形態に係る高画質化エンジンは、入力された低画質画像を高画質化した高画質画像を出力するモジュールとして構成される。ここで、本明細書における高画質化とは、入力された画像を画像診断により適した画質の画像に変換することをいい、高画質画像とは、画像診断により適した画質の画像に変換された画像をいう。また、低画質画像とは、例えば、X線撮影、CT、MRI、OCT、PET、若しくはSPECT等により取得された二次元画像や三次元画像、又は連続撮影したCTの三次元動画像等の特に高画質になるような設定をされずに撮影されたものである。具体的には、低画質画像は、例えば、X線撮影装置やCTによる低線量での撮影や、造影剤を使用しないMRIによる撮影、OCTの短時間撮影等によって取得される画像、及び少ない撮影回数で取得されたOCTA画像等を含む。 Here, the image quality improvement engine according to the present embodiment is configured as a module that outputs a high quality image obtained by enhancing the quality of an input low quality image. Here, high image quality in this specification refers to converting an input image into an image with a quality more suitable for image diagnosis. refers to an image that In addition, low-quality images include, for example, two-dimensional images or three-dimensional images obtained by X-ray photography, CT, MRI, OCT, PET, or SPECT, or three-dimensional moving images of continuously captured CT, etc. This photo was taken without any high-quality settings. Specifically, low-quality images include, for example, images obtained by low-dose imaging using an X-ray imaging device or CT, imaging by MRI that does not use a contrast agent, short-time imaging with OCT, etc. Contains OCTA images etc. acquired several times.

また、ノイズが少なかったり、高コントラストであったりする高画質画像を、OCTA等の画像の血管解析処理や、CTやOCT等の画像の領域セグメンテーション処理等の画像解析に利用すると、低画質画像を利用するよりも精度よく解析が行えることが多い。そのため、高画質化エンジンによって出力された高画質画像は、画像診断だけでなく、画像解析にも有用である場合がある。 In addition, when high-quality images with low noise or high contrast are used for image analysis such as blood vessel analysis processing of images such as OCTA, and region segmentation processing of images such as CT and OCT, low-quality images can be used. In many cases, analysis can be performed more accurately than when using Therefore, high-quality images output by the high-quality engine may be useful not only for image diagnosis but also for image analysis.

また、画像診断に適した画質の内容は、各種の画像診断で何を診断したいのかということに依存する。そのため一概には言えないが、例えば、画像診断に適した画質は、ノイズが少なかったり、高コントラストであったり、撮影対象を観察しやすい色や階調で示していたり、画像サイズが大きかったり、高解像度であったりする画質を含む。また、画像生成の過程で描画されてしまった実際には存在しないオブジェクトやグラデーションが画像から除去されているような画質を含むことができる。 Further, the content of image quality suitable for image diagnosis depends on what is desired to be diagnosed by various image diagnoses. Therefore, it is difficult to make a general statement, but for example, image quality suitable for image diagnosis is one that has little noise, high contrast, shows the photographed subject in colors and gradations that are easy to observe, and has a large image size. Including image quality such as high resolution. Furthermore, the image quality can include images in which non-existent objects and gradations that were drawn during the image generation process have been removed from the image.

本実施形態における高画質化処理部301による高画質化手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像処理手法では、機械学習アルゴリズムを用いた処理に加えて、各種画像フィルタ処理、類似画像に対応する高画質画像のデータベースを用いたマッチング処理、及び知識ベース画像処理等の既存の任意の処理を行ってもよい。 In the image processing method constituting the image quality improvement method by the image quality improvement processing unit 301 in this embodiment, processing using various machine learning algorithms such as deep learning is performed. In addition to processing using machine learning algorithms, this image processing method uses existing arbitrary methods such as various image filter processing, matching processing using a database of high-quality images corresponding to similar images, and knowledge-based image processing. You may also perform the following processing.

以下、図4を参照して、本実施形態に係る高画質化エンジンに係るCNNの構成例を説明する。図4は、高画質化エンジンの構成の一例を示している。図4で示す構成は、入力値群を加工して出力する処理を担う、複数の層群によって構成される。なお、当該構成に含まれる層の種類としては、図4に示すように、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。 Hereinafter, with reference to FIG. 4, a configuration example of the CNN related to the high image quality engine according to the present embodiment will be described. FIG. 4 shows an example of the configuration of the image quality improvement engine. The configuration shown in FIG. 4 is composed of a plurality of layer groups that perform processing to process and output a group of input values. Note that, as shown in FIG. 4, the types of layers included in the configuration include a convolution layer, a downsampling layer, an upsampling layer, and a merging layer.

畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。具体的には、例えば、Max Pooling処理がある。アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The convolution layer is a layer that performs convolution processing on a group of input values according to set parameters such as the kernel size of the filter, the number of filters, the stride value, and the dilation value. Note that the number of dimensions of the kernel size of the filter may also be changed depending on the number of dimensions of the input image. The downsampling layer is a process of thinning out or combining input value groups to make the number of output value groups smaller than the number of input value groups. Specifically, for example, there is Max Pooling processing. The upsampling layer is a process of making the number of output value groups larger than the number of input value groups by duplicating the input value group or adding a value interpolated from the input value group. Specifically, for example, there is linear interpolation processing. The compositing layer is a layer that receives a group of values, such as a group of output values of a certain layer or a group of pixel values constituting an image, from a plurality of sources, and performs a process of combining them by concatenating or adding them.

このような構成では、入力された画像Im410を構成する画素値群が畳み込み処理ブロックを経て出力された値群と、入力された画像Im410を構成する画素値群が、合成層で合成される。その後、合成された画素値群は最後の畳み込み層で高画質画像Im420に成形される。なお、図示はしないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。 In such a configuration, the group of pixel values forming the input image Im410 is outputted through the convolution processing block and the group of pixel values forming the input image Im410 are combined in the synthesis layer. Thereafter, the combined pixel value group is formed into a high-quality image Im420 in the final convolution layer. Although not shown, examples of changes to the CNN configuration include incorporating a batch normalization layer or an activation layer using a rectifier linear unit after the convolution layer. You may.

ここで、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本実施形態では、学習部の一例である画像処理部101-4による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理では、CPU又はGPUのみにより演算が行われてもよい。また、高画質化処理部301についても、学習部と同様にGPUを用いて実現してもよい。 Here, the GPU can perform efficient calculations by processing more data in parallel. For this reason, when learning is performed multiple times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in this embodiment, a GPU is used in addition to a CPU for processing by the image processing unit 101-4, which is an example of a learning unit. Specifically, when a learning program including a learning model is executed, learning is performed by the CPU and GPU working together to perform calculations. Note that in the processing of the learning section, calculations may be performed only by the CPU or GPU. Further, the image quality improvement processing section 301 may also be implemented using a GPU, similar to the learning section.

また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Further, the learning section may include an error detection section and an updating section (not shown). The error detection unit obtains an error between output data output from the output layer of the neural network and correct data according to input data input to the input layer. The error detection unit may use a loss function to calculate the error between the output data from the neural network and the correct data. Furthermore, the updating section updates the connection weighting coefficients between the nodes of the neural network, etc., based on the error obtained by the error detection section, so that the error becomes smaller. This updating unit updates the connection weighting coefficients and the like using, for example, an error backpropagation method. The error backpropagation method is a method of adjusting connection weighting coefficients between nodes of each neural network so that the above-mentioned error is reduced.

なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、高画質画像の周辺部が十分に高画質化されない問題等の対策のため、入力する低画質画像と出力する高画質画像とで異なる画像サイズを要する場合があることに留意すべきである。 Note that when using some image processing techniques, such as image processing using CNN, it is necessary to be careful about the image size. Specifically, in order to prevent problems such as the peripheral areas of high-quality images not being sufficiently high-quality, it should be noted that different image sizes may be required for input low-quality images and output high-quality images. Should.

明瞭な説明のため、本実施形態において明記はしないが、高画質化エンジンに入力される画像と出力される画像とで異なる画像サイズを要する高画質化エンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、機械学習モデルをトレーニングするための学習データに用いる画像や、高画質化エンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に高画質化できるように高画質化手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 Although not specified in this embodiment for the sake of clear explanation, if a high image quality engine is adopted that requires different image sizes for the input image to the high image quality engine and the output image, the image size may be changed as appropriate. It is assumed that the Specifically, we perform padding on input images, such as images used as learning data for training machine learning models and images input to high-quality engines, and image capturing areas around the input images. Adjust the image size by merging. Note that the area to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror padded, depending on the characteristics of the image quality improvement method, so that the image quality can be effectively improved.

また、高画質化処理部301による高画質化手法は、一つの画像処理手法だけで実施されてもよいし、二つ以上の画像処理手法を組み合わせて実施されてもよい。また、複数の高画質化手法群を並列に実施し、複数の高画質画像群を生成した上で、最も高画質な高画質画像を最終的に高画質画像として選択してもよい。なお、最も高画質な高画質画像の選択は、画質評価指数を用いて自動的に行われてもよいし、出力部103等に備えられたUIに複数の高画質画像群を表示して、検者(操作者)の指示に応じて行われてもよい。 Further, the image quality improvement method by the image quality improvement processing unit 301 may be performed using only one image processing method, or may be performed by combining two or more image processing methods. Alternatively, a plurality of image quality improvement method groups may be implemented in parallel to generate a plurality of high quality image groups, and then the highest quality image may be finally selected as the high image quality image. Note that the selection of the highest quality image may be automatically performed using an image quality evaluation index, or by displaying a plurality of high quality image groups on a UI provided in the output unit 103 or the like. It may be performed according to instructions from the examiner (operator).

なお、高画質化していない入力画像の方が、画像診断に適している場合もあるので、最終的な画像の選択の対象には入力画像を加えてよい。また、高画質化エンジンに対して、低画質画像とともにパラメータを入力してもよい。高画質化エンジンに対して、入力画像とともに、例えば、高画質化を行う程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを入力してもよい。 Note that input images that have not been improved in quality may be more suitable for image diagnosis, and therefore may be added to the final image selection target. Furthermore, parameters may be input to the high-quality image together with the low-quality image. For example, a parameter specifying the degree of image quality enhancement or a parameter specifying the image filter size used in the image processing method may be input to the image quality enhancement engine together with the input image.

ここで、本実施形態に係る高画質化エンジンの学習データの入力データは、撮影装置100と同じ機種、撮影装置100と同じ設定により取得された低画質画像である。また、高画質化エンジンの学習データの出力データは、同じ機種が備えるより工数の多い撮影条件に関する設定や画像処理により取得された高画質画像である。具体的には、出力データは、例えば、複数回撮影することにより取得した画像(元画像)群に対して加算平均等の重ね合わせ処理を行うことにより得られる高画質画像(重ね合わせ画像)とすることができる。 Here, the input data of the learning data of the image quality improvement engine according to the present embodiment is a low image quality image acquired with the same model as the image capturing apparatus 100 and the same settings as the image capturing apparatus 100. Further, the output data of the learning data of the high image quality engine is a high quality image obtained through settings and image processing related to shooting conditions that require more man-hours than those provided by the same model. Specifically, the output data is, for example, a high-quality image (superimposed image) obtained by performing superposition processing such as averaging on a group of images (original images) obtained by shooting multiple times. can do.

ここで、高画質画像と低画質画像についてOCTAのモーションコントラストデータを例として説明する。モーションコントラストデータとは、OCTA等で用いられる、撮影対象の同一箇所を繰り返し撮影し、その撮影間における撮影対象の時間的な変化を検出したデータである。また、上述のように、算出したモーションコントラストデータ(三次元の医用画像データの一例)のうち、撮影対象の深さ方向における所望の範囲のデータを用いて正面画像を生成することで、OCTAのEn-Face画像(OCTA正面画像)を生成することができる。なお、以下では略同一位置(略同一箇所)におけるOCTデータを繰り返し撮影する回数のことをNOR(Number Of Repeat)と呼ぶ。 Here, high-quality images and low-quality images will be explained using OCTA motion contrast data as an example. Motion contrast data is data used in OCTA and the like, which is obtained by repeatedly photographing the same part of a photographic subject and detecting temporal changes in the photographic subject between the photographing sessions. In addition, as mentioned above, by generating a frontal image using data in a desired range in the depth direction of the imaging target out of the calculated motion contrast data (an example of three-dimensional medical image data), OCTA En-Face images (OCTA frontal images) can be generated. Note that, hereinafter, the number of times OCT data at substantially the same position (substantially the same location) is repeatedly imaged will be referred to as NOR (Number of Repeats).

本実施形態に係る学習データに関して、重ね合わせ処理による高画質画像と低画質画像の生成例として異なる2種類の方法について図5(a)及び図5(b)を参照して説明する。なお、高画質画像と低画質画像の生成方法はこれらに限られず、公知の任意の生成方法を用いてよい。 Regarding the learning data according to the present embodiment, two different methods will be described as examples of generating high-quality images and low-quality images by superposition processing with reference to FIGS. 5(a) and 5(b). Note that the method of generating high-quality images and low-quality images is not limited to these, and any known generation method may be used.

高画質画像と低画質画像の生成例に係る第1の方法について図5(a)を参照して説明する。当該第1の方法では、高画質画像の例として、撮影対象の略同一位置を繰り返し撮影したOCTデータから生成するモーションコントラスト画像を用いる。図5(a)において、モーションコントラスト画像Im510は、三次元のモーションコントラスト画像(三次元のモーションコントラストデータ)を示す。また、モーションコントラスト画像Im511は、三次元のモーションコントラスト画像を構成する二次元のモーションコントラスト画像(二次元のモーションコントラストデータ)を示す。 A first method related to an example of generating high-quality images and low-quality images will be described with reference to FIG. 5(a). In the first method, as an example of a high-quality image, a motion contrast image generated from OCT data obtained by repeatedly photographing substantially the same position of a photographic target is used. In FIG. 5A, a motion contrast image Im510 shows a three-dimensional motion contrast image (three-dimensional motion contrast data). Further, the motion contrast image Im511 indicates a two-dimensional motion contrast image (two-dimensional motion contrast data) that constitutes a three-dimensional motion contrast image.

断層画像Im501-1~Im501-3は、モーションコントラスト画像Im511を生成するためのOCT断層画像(Bスキャン画像)を示している。ここで、NORは、図5(a)においては、断層画像Im501-1~Im501-3におけるOCT断層画像の数に対応し、図の例においてNORは3である。断層画像Im501-1~Im501-3は所定の時間間隔(Δt)で撮影される。なお、略同一位置とは被検眼の正面方向(XY)において、1ラインのことを示し、図5(a)においては、モーションコントラスト画像Im511の位置に相当する。なお、正面方向は、深さ方向に対して交差する方向の一例である。 The tomographic images Im501-1 to Im501-3 indicate OCT tomographic images (B-scan images) for generating the motion contrast image Im511. Here, in FIG. 5A, NOR corresponds to the number of OCT tomographic images in tomographic images Im501-1 to Im501-3, and in the example shown in the figure, NOR is 3. The tomographic images Im501-1 to Im501-3 are taken at predetermined time intervals (Δt). Note that the substantially same position refers to one line in the front direction (XY) of the subject's eye, and corresponds to the position of the motion contrast image Im511 in FIG. 5(a). Note that the front direction is an example of a direction intersecting the depth direction.

モーションコントラストデータは時間的な変化を検出したデータであるため、このデータを生成するためには、少なくともNORは2回とする必要がある。例えば、NORが2の場合には、1つのモーションコントラストデータが生成される。NORが3の場合には、隣接する時間間隔(1回目と2回目、2回目と3回目)のOCTデータのみを用いてモーションコントラストデータを生成すると、2つのモーションコントラストデータが生成される。離れた時間間隔(1回目と3回目)のOCTデータも用いてモーションコントラストデータを生成する場合には、合計3つのモーションコントラストデータが生成される。すなわち、NORを3回、4回、・・・と増やしていくと、略同一位置におけるモーションコントラストのデータ数も増加する。略同一位置を繰り返し撮影して取得した複数のモーションコントラスト画像を位置合わせして加算平均等の重ね合わせ処理をすることで、高画質なモーションコントラスト画像を生成することができる。そのため、高画質なモーションコントラスト画像を生成するために、NORを少なくとも3回以上とし、より高画質なモーションコントラスト画像を得るためには例えばNORを5回以上とすることができる。 Since motion contrast data is data that detects temporal changes, NOR must be performed at least twice in order to generate this data. For example, if NOR is 2, one motion contrast data is generated. When NOR is 3, when motion contrast data is generated using only OCT data of adjacent time intervals (first and second, second and third), two motion contrast data are generated. When motion contrast data is generated using OCT data obtained at separate time intervals (first and third times), a total of three motion contrast data are generated. That is, as the NOR is increased 3 times, 4 times, etc., the number of motion contrast data at substantially the same position also increases. A high-quality motion contrast image can be generated by aligning a plurality of motion contrast images obtained by repeatedly photographing substantially the same position and performing superimposition processing such as averaging. Therefore, in order to generate a high quality motion contrast image, NOR can be performed at least three times or more, and to obtain a higher quality motion contrast image, for example, NOR can be performed five times or more.

一方、これに対応する低画質画像の例としては、加算平均等の重ね合わせ処理を行う前のモーションコントラスト画像を用いることができる。この場合、低画質画像は、例えば、高画質画像を生成するための加算平均等の重ね合わせ処理を行う際の基準画像とすることができる。重ね合わせ処理を行う際に、基準画像に対して対象画像の位置や形状を変形して位置合わせを行っておけば、基準画像と重ね合わせ処理後の画像とでは空間的な位置ずれがほとんどない。そのため、容易に低画質画像と高画質画像のペアとすることができる。なお、基準画像ではなく位置合わせの画像変形処理を行った対象画像を低画質画像としてもよい。 On the other hand, as an example of a low-quality image corresponding to this, a motion contrast image before being subjected to overlapping processing such as averaging can be used. In this case, the low-quality image can be used, for example, as a reference image when performing superposition processing such as averaging to generate a high-quality image. When performing superimposition processing, if the position and shape of the target image are transformed and aligned with respect to the reference image, there will be almost no spatial misalignment between the reference image and the image after superposition processing. . Therefore, it is possible to easily create a pair of a low-quality image and a high-quality image. Note that the target image subjected to image deformation processing for alignment may be used as a low-quality image instead of the reference image.

元画像群(基準画像と対象画像)のそれぞれを入力データ、対応する重ね合わせ画像を出力データとすることで、複数のペア群を生成することができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合、元画像群のうちの一つ目の元画像と重ね合わせ画像とのペア、元画像群のうちの二つ目の元画像と重ね合わせ画像とのペアを生成することができる。このように、15の元画像群から1の重ね合わせ画像を得る場合には、元画像群のうちの一つの画像と重ね合わせ画像による15のペア群が生成可能である。なお、主走査(X)方向に略同一位置を繰り返し撮影し、それを副走査(Y)方向にずらしながらスキャンをすることで三次元の高画質データを生成することができる。 By using each of the original image groups (reference image and target image) as input data and the corresponding superimposed image as output data, a plurality of pair groups can be generated. For example, when obtaining one superimposed image from a group of 15 original images, a pair of the first original image of the original image group and the superimposed image, a pair of the second original image of the original image group, Pairs with superimposed images can be generated. In this way, when one superimposed image is obtained from a group of 15 original images, it is possible to generate 15 pairs of one image from the original image group and the superimposed image. Note that three-dimensional high-quality image data can be generated by repeatedly photographing substantially the same position in the main scanning (X) direction and scanning while shifting it in the sub-scanning (Y) direction.

次に、高画質画像と低画質画像の生成例に係る第2の方法について図5(b)を参照して説明する。当該第2の方法では、撮影対象の略同一領域を複数回撮影したモーションコントラスト画像を重ね合わせ処理することで高画質画像を生成する。なお、略同一領域とは被検眼の正面方向(X-Y)において、3×3mmや10×10mmのような領域のことを示し、撮影対象の略同一領域を複数回撮影することで、断層画像の深さ方向を含めて三次元のモーションコントラスト画像(三次元のモーションコントラストデータ)を取得することができる。同一領域を複数回撮影して重ね合わせ処理を行う際には、1回あたりの撮影を短くするため、NORは2回か3回とすることができる。 Next, a second method related to an example of generating high-quality images and low-quality images will be described with reference to FIG. 5(b). In the second method, a high-quality image is generated by superimposing motion contrast images obtained by photographing substantially the same area of the photographing target multiple times. Note that approximately the same area refers to an area such as 3 x 3 mm or 10 x 10 mm in the front direction (XY) of the eye to be examined, and by photographing the approximately same area of the subject multiple times, A three-dimensional motion contrast image (three-dimensional motion contrast data) including the depth direction of the image can be obtained. When the same area is photographed multiple times and superimposed processing is performed, NOR can be set to two or three times in order to shorten the number of times each photograph is taken.

また、高画質な3次元モーションコントラストデータを生成するために、同一領域の3次元データを少なくとも2つ以上取得する。図5(b)では、複数の三次元モーションコントラスト画像の例を示している。モーションコントラスト画像Im520~Im540は、図5(a)で説明したモーションコントラスト画像Im510と同様に、三次元のモーションコントラスト画像である。これら2つ以上の三次元モーションコントラスト画像を用いて、正面方向(X-Y)と深度方向(Z)の位置合わせ処理を行い、それぞれのデータにおいてアーチファクトとなるデータを除外した後に、平均化処理を行う。これにより、アーチファクトの除外された1つの高画質な三次元モーションコントラスト画像を生成することができる。 Furthermore, in order to generate high-quality three-dimensional motion contrast data, at least two pieces of three-dimensional data of the same area are acquired. FIG. 5(b) shows an example of a plurality of three-dimensional motion contrast images. The motion contrast images Im520 to Im540 are three-dimensional motion contrast images, similar to the motion contrast image Im510 described with reference to FIG. 5(a). Using these two or more three-dimensional motion contrast images, alignment processing is performed in the frontal direction (X-Y) and depth direction (Z), and after removing artifact data from each data, averaging processing is performed. I do. Thereby, it is possible to generate one high-quality three-dimensional motion contrast image from which artifacts are removed.

一方、これに対応する低画質画像は、加算平均等の重ね合わせ処理を行う際の基準データとすることができる。第1の方法で説明したように、基準画像と加算平均後の画像とでは空間的な位置ずれがほとんどないため、容易に低画質画像と高画質画像のペアとすることができる。なお、基準データではなく位置合わせの画像変形処理を行った対象データから生成した任意の三次元モーションコントラスト画像を低画質画像としてもよい。 On the other hand, the corresponding low-quality image can be used as reference data when performing overlay processing such as averaging. As explained in the first method, since there is almost no spatial positional shift between the reference image and the image after averaging, they can easily be paired as a low-quality image and a high-quality image. Note that an arbitrary three-dimensional motion contrast image generated from target data subjected to image deformation processing for alignment instead of reference data may be used as a low-quality image.

第1の方法では、撮影自体が1回で終了するため被検者の負担は少ない。しかし、NORの回数を増やすほど1回の撮影時間が長くなってしまう。また、撮影途中に目の混濁や睫毛などのアーチファクトが入った場合には必ずしも良い画像が得られるとは限らない。第2の方法では、複数回撮影を行うため被検者の負担は少し増えてしまう。しかし、1回の撮影時間が短く済むのと、1回の撮影でアーチファクトが入ったとしても、別の撮影でアーチファクトが写らなければ最終的にはアーチファクトの少ないきれいな画像を得ることができる。これらの特徴を鑑みて、データを集める際には被検者の状況に合わせて任意の方法を選択することができる。 In the first method, the imaging itself is completed in one time, so there is less burden on the subject. However, as the number of NOR operations increases, the time required for one imaging session becomes longer. Furthermore, if artifacts such as cloudy eyes or eyelashes are introduced during photography, a good image may not necessarily be obtained. In the second method, the burden on the subject increases slightly because imaging is performed multiple times. However, it takes less time to take one shot, and even if an artifact appears in one shot, as long as the artifact does not appear in another shot, you can ultimately obtain a clear image with fewer artifacts. In view of these characteristics, when collecting data, any method can be selected depending on the situation of the subject.

本実施形態では、学習データとして用いる低画質画像と高画質画像としてモーションコントラスト画像を例に説明したが、学習データとして用いる画像はこれに限らない。モーションコントラストデータを生成するためにOCTデータを取得しているため、OCTデータを用いて同様に低画質画像と高画質画像を生成することが可能である。さらに、本実施形態ではトラッキング処理について説明を省略したが、被検眼の略同一位置や略同一領域を撮影するため、被検眼のトラッキングを行いながら撮影を行うこともできる。トラッキング処理は公知の任意の方法によって行われてよい。 In this embodiment, a motion contrast image is used as an example of a low-quality image and a high-quality image used as learning data, but the images used as learning data are not limited to this. Since OCT data is acquired to generate motion contrast data, it is possible to similarly generate low-quality images and high-quality images using OCT data. Furthermore, although the description of the tracking process has been omitted in this embodiment, since substantially the same position or area of the eye to be examined is photographed, it is also possible to perform imaging while tracking the eye to be examined. Tracking processing may be performed by any known method.

三次元の高画質データと低画質データのペアを取得できた場合には、これらから任意の二次元画像のペアを生成することができる。例えば、生成した高画質な三次元モーションコントラスト画像について、所望の深度範囲で投影又は積算を行い、任意のOCTA正面画像を生成することで、高画質なOCTA平面画像を生成することができる。また、これに対応する低画質画像は、加算平均等の重ね合わせ処理を行う際の基準データから生成する任意のOCTA正面画像とすることができる。この場合にも、基準画像と加算平均後の画像とでは空間的な位置ずれがほとんどないため、容易に低画質画像と高画質画像のペアとすることができる。なお、基準データではなく位置合わせの画像変形処理を行った対象データから生成した任意のモーションコントラスト正面画像を低画質画像としてもよい。 If a pair of three-dimensional high-quality image data and low-quality image data can be obtained, an arbitrary pair of two-dimensional images can be generated from them. For example, a high-quality OCTA plane image can be generated by projecting or integrating the generated high-quality three-dimensional motion contrast image in a desired depth range to generate an arbitrary OCTA front image. Further, the corresponding low-quality image can be any OCTA front image generated from reference data when performing overlay processing such as averaging. In this case as well, since there is almost no spatial positional shift between the reference image and the image after averaging, it is possible to easily create a pair of a low-quality image and a high-quality image. Note that an arbitrary motion contrast front image generated from target data subjected to image deformation processing for alignment instead of reference data may be used as a low-quality image.

このような学習データとして用いる二次元画像のペアの例について、図6(a)及び図6(b)を参照してより詳細に説明する。例えば、学習データに用いる画像をOCTA正面画像とする場合、上述のように、モーションコントラストに係る三次元ボリュームデータについて所望の深度範囲で投影又は積算を行うことで、OCTA正面画像を生成することができる。ここで、深度範囲とは、図5(a)及び図5(b)に示すZ方向における範囲である。 An example of a pair of two-dimensional images used as such learning data will be described in more detail with reference to FIGS. 6(a) and 6(b). For example, if the image used as the learning data is an OCTA frontal image, the OCTA frontal image can be generated by projecting or integrating three-dimensional volume data related to motion contrast in a desired depth range, as described above. can. Here, the depth range is a range in the Z direction shown in FIGS. 5(a) and 5(b).

図6(a)はOCTA正面画像の例を示す。学習データに用いるOCTA正面画像としては、表層(画像Im610)、深層(画像Im620)、外層(画像Im630)、及び脈絡膜血管網(画像Im640)など、異なる深度範囲で生成したOCTA正面画像を用いることができる。なお、OCTA正面画像の種類はこれに限られず、基準となる層とオフセットの値を変えて異なる深度範囲を設定したOCTA正面画像を生成して種類を増やしてもよい。学習を行う際には、異なる深さのOCTA正面画像毎に別々に学習をしてもよいし、異なる深度範囲の画像を複数組み合わせて(例えば、表層側と深層側で分けて)学習してもよいし、全ての深度範囲のOCTA正面画像を一緒に学習させるようにしてもよい。OCTデータから生成する輝度のEn-Face画像を学習データに用いる場合も、OCTA正面画像と同様に、任意の深度範囲から生成した複数のEn-Face画像を用いることができる。 FIG. 6(a) shows an example of an OCTA frontal image. As the OCTA frontal images used for the learning data, use OCTA frontal images generated in different depth ranges, such as the superficial layer (image Im610), deep layer (image Im620), outer layer (image Im630), and choroidal vascular network (image Im640). I can do it. Note that the types of OCTA front images are not limited to these, and the number of types may be increased by generating OCTA front images in which different depth ranges are set by changing the reference layer and offset values. When performing learning, you can train each OCTA front image at different depths separately, or you can train by combining multiple images with different depth ranges (for example, separately for the superficial side and deep side). Alternatively, OCTA front images of all depth ranges may be learned together. When using luminance En-Face images generated from OCT data as learning data, a plurality of En-Face images generated from any depth range can be used similarly to the OCTA front image.

例えば、高画質化エンジンが、被検眼の異なる深度範囲に対応する複数のOCTA正面画像を含む学習データを用いて得た学習済モデルを含む場合を考える。このとき、取得部101-1は、異なる深度範囲を含む長い深度範囲のうち一部の深度範囲に対応するOCTA正面画像を第1の画像として取得することができる。すなわち、学習データに含まれる複数のOCTA正面画像に対応する複数の深度範囲とは異なる深度範囲に対応するOCTA正面画像を、高画質化処理時の入力画像とすることができる。もちろん、学習時と同じ深度範囲のOCTA正面画像を、高画質化処理時の入力画像としてもよい。また、一部の深度範囲は、操作者がUI上の任意のボタンを押す等に応じて設定されてもよいし、自動的に設定されてもよい。なお、上述した内容は、OCTA正面画像に限るものではなく、例えば、輝度のEn-Face画像に対しても適用することができる。 For example, consider a case where the image quality improvement engine includes a trained model obtained using training data including a plurality of OCTA frontal images corresponding to different depth ranges of the eye to be examined. At this time, the acquisition unit 101-1 can acquire, as the first image, an OCTA front image corresponding to a part of a long depth range including different depth ranges. That is, an OCTA front image corresponding to a depth range different from a plurality of depth ranges corresponding to a plurality of OCTA front images included in the learning data can be used as an input image during image quality enhancement processing. Of course, an OCTA front image having the same depth range as that during learning may be used as an input image during image quality enhancement processing. Further, some of the depth ranges may be set in response to an operator pressing an arbitrary button on the UI, or may be set automatically. Note that the above-mentioned content is not limited to OCTA front images, but can also be applied to, for example, brightness En-Face images.

なお、学習済モデルの処理対象の画像が断層画像である場合、Bスキャン画像であるOCT断層画像やモーションコントラストデータの断層画像を学習データとして用いて学習を行う。これに関して、図6(b)を参照して説明する。図6(b)において、画像Im651~画像Im653はOCT断層画像(輝度の断層画像)である。図6(b)において画像が異なるのは、副走査(Y)方向の位置が異なる場所の断層画像を示しているからである。断層画像においては、副走査方向の位置の違いを気にせずに一緒に学習するようにしてもよい。ただし、撮影部位(例えば、黄斑部中心や視神経乳頭部中心)が異なる場所を撮影した画像の場合には、部位ごとに別々に学習するようにしてもよいし、撮影部位を気にせずに一緒に学習するようにしてもよい。なお、OCT断層画像と、モーションコントラストデータの断層画像においては画像特徴量が大きく異なるので別々に学習を行う方がよい。 Note that when the image to be processed by the trained model is a tomographic image, learning is performed using an OCT tomographic image that is a B-scan image or a tomographic image of motion contrast data as learning data. This will be explained with reference to FIG. 6(b). In FIG. 6(b), images Im651 to Im653 are OCT tomographic images (brightness tomographic images). The images in FIG. 6B are different because the tomographic images are shown at different positions in the sub-scanning (Y) direction. For tomographic images, learning may be performed together without worrying about the difference in position in the sub-scanning direction. However, if the images were taken at different locations (for example, the center of the macula or the center of the optic disc), you may choose to learn each location separately, or you can learn the images together without worrying about the location. It may also be possible to learn from Note that since the image feature amounts are significantly different between an OCT tomographic image and a tomographic image of motion contrast data, it is better to perform learning separately.

学習データの出力データとして用いられる高画質画像としては、例えば、上述のように重ね合わせ画像を用いることができる。重ね合わせ処理を行った重ね合わせ画像は、元画像群で共通して描出された画素が強調されるため、画像診断に適した高画質画像になる。この場合には、生成される高画質画像は、共通して描出された画素が強調された結果、低輝度領域と高輝度領域との違いがはっきりした高コントラストな画像になる。また、例えば、重ね合わせ画像では、撮影毎に発生するランダムノイズが低減されたり、ある時点の元画像ではうまく描出されなかった領域が他の元画像群によって補間されたりすることができる。 As the high-quality image used as the output data of the learning data, for example, a superimposed image as described above can be used. In the superimposed image that has been subjected to the superimposition process, pixels that are commonly depicted in the original image group are emphasized, resulting in a high-quality image suitable for image diagnosis. In this case, the generated high-quality image is a high-contrast image with clear differences between low-brightness areas and high-brightness areas, as a result of highlighting commonly drawn pixels. Furthermore, for example, in the superimposed images, random noise that occurs every time a photograph is taken can be reduced, and an area that was not well depicted in the original image at a certain point in time can be interpolated with another group of original images.

さらに、重ね合わせ画像を学習データの出力データとする場合、重ね合わせ画像から学習データの入力データとして用いる低画質画像を生成することもできる。この場合には、例えば、重ね合わせ画像を一度ダウンサンプリングで低解像化し、低解像度化した画像を既知の方法(ニアレストネイバー法、バイリニア法など)でアップサンプリングを行ったものを学習データの入力データとすることができる。このような画像のペア群を学習データとして用いて学習を行うことで解像感を向上する高画質化エンジンを構成することも可能である。 Furthermore, when the superimposed image is used as output data for learning data, it is also possible to generate a low-quality image from the superimposed image to be used as input data for learning data. In this case, for example, the superimposed images are first downsampled to lower their resolution, and then the lowered resolution images are upsampled using a known method (nearest neighbor method, bilinear method, etc.), and then the training data is It can be input data. It is also possible to configure a high image quality engine that improves the sense of resolution by performing learning using such a group of image pairs as learning data.

また、機械学習モデルの入力データを複数の画像で構成する必要がある場合には、元画像群から必要な数の元画像群を選択し、入力データとすることができる。例えば、15枚の元画像群から1枚の重ね合わせ画像を得る場合において、機械学習モデルの入力データとして2枚の画像が必要であれば、105(15C2=105)のペア群を生成可能である。 Furthermore, if input data for a machine learning model needs to be composed of a plurality of images, a necessary number of original image groups can be selected from the original image group and used as input data. For example, when obtaining one superimposed image from a group of 15 original images, if two images are required as input data for a machine learning model, it is possible to generate a group of 105 (15C2 = 105) pairs. be.

なお、学習データを構成するペア群のうち、高画質化に寄与しないペアは学習データから取り除くことができる。例えば、学習データのペアを構成する出力データである高画質画像が画像診断に適さない画質である場合には、当該学習データを用いて学習した高画質化エンジンが出力する画像も画像診断に適さない画質になってしまう可能性がある。そのため、出力データが画像診断に適さない画質であるペアを学習データから取り除くことで、高画質化エンジンが画像診断に適さない画質の画像を生成する可能性を低減させることができる。 It should be noted that among the group of pairs constituting the learning data, pairs that do not contribute to higher image quality can be removed from the learning data. For example, if a high-quality image that is the output data that makes up a pair of training data has an image quality that is not suitable for image diagnosis, the image that is output by the high-quality engine that trained using the training data is also not suitable for image diagnosis. This may result in poor image quality. Therefore, by removing pairs whose output data has an image quality unsuitable for image diagnosis from the learning data, it is possible to reduce the possibility that the image quality improvement engine generates an image with an image quality unsuitable for image diagnosis.

また、ペアである画像群の平均輝度や輝度分布が大きく異なる場合には、当該学習データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる輝度分布を持つ画像診断に適さない画像を出力する可能性がある。このため、平均輝度や輝度分布が大きく異なる入力データと出力データのペアを学習データから取り除くこともできる。 In addition, if the average brightness or brightness distribution of a group of images in a pair is significantly different, the image quality improvement engine trained using the training data will detect images that are not suitable for image diagnosis and have brightness distributions that are significantly different from those of low-quality images. may be output. Therefore, pairs of input data and output data that have significantly different average brightness or brightness distribution can be removed from the learning data.

さらに、ペアである画像群に描画される撮影対象の構造や位置が大きく異なる場合には、当該学習データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる構造や位置に撮影対象を描画した画像診断に適さない画像を出力する可能性がある。このため、描画される撮影対象の構造や位置が大きく異なる入力データと出力データのペアを学習データから取り除くこともできる。また、高画質化エンジンについて、品質保持の観点から、自身が出力する高画質画像を学習データとして用いないように構成することができる。 Furthermore, if the structure or position of the photographed object drawn in a pair of images is significantly different, the high image quality engine trained using the training data will There is a possibility of outputting an image that is not suitable for image diagnosis. Therefore, pairs of input data and output data that differ greatly in the structure or position of the imaged object to be drawn can be removed from the learning data. Further, from the viewpoint of quality maintenance, the high-quality image engine can be configured not to use the high-quality images that it outputs as learning data.

このように学習を行った高画質化エンジンを用いることで、高画質化処理部301は、一回の撮影で取得された医用画像が入力された場合に、重ね合わせ処理によって高コントラスト化やノイズ低減等が行われたような高画質画像を出力することができる。このため、高画質化処理部301は、入力画像である低画質画像に基づいて、画像診断に適した高画質画像を生成することができる。 By using the high image quality engine that has been trained in this way, the high image quality processing unit 301 can improve contrast and reduce noise through superimposition processing when medical images acquired in one shot are input. It is possible to output a high-quality image that has undergone reduction or the like. Therefore, the high-quality image processing unit 301 can generate a high-quality image suitable for image diagnosis based on the low-quality image that is the input image.

なお、ここでは学習データの出力データとして重ね合わせ画像を用いる例について説明したが、高画質化エンジンの学習データの出力データはこれに限られない。学習データの出力データは、入力データに対応する高画質画像であればよく、例えば、診断に適するようにノイズ低減された画像や、コントラスト補正を行った画像、高解像度化した画像、より工数の多い撮影条件で撮影した画像等であってもよい。また、入力データとして用いる低画質画像に最大事後確率推定(MAP推定)処理などの統計処理を用いた画像処理を施した画像を、学習データの出力データとして用いることもできる。なお、高画質画像の生成方法は、公知の任意の手法を用いてよい。 Although an example in which a superimposed image is used as the output data of the learning data has been described here, the output data of the learning data of the image quality improvement engine is not limited to this. The output data of the learning data may be any high-quality image that corresponds to the input data, such as images with noise reduction suitable for diagnosis, images with contrast correction, images with high resolution, or images that require more man-hours. The image may be an image taken under many shooting conditions. Furthermore, an image obtained by performing image processing using statistical processing such as maximum a posteriori probability estimation (MAP estimation) processing on a low-quality image used as input data can also be used as output data of learning data. Note that any known method may be used to generate the high-quality image.

また、高画質化エンジンとしては、ノイズ低減やコントラスト補正、さらに高解像度化など種々の高画質化処理をそれぞれ単独で行う複数の高画質化エンジンを用意してもよい。また、少なくとも2つの高画質化処理を行うひとつの高画質化エンジンを用意してもよい。なお、これらの場合には、学習データの出力データとしては、所望の処理に応じた高画質化画像を用いればよい。例えば、個々の処理を行う高画質化エンジンに関しては、ノイズ低減処理等の個々の処理を施した高画質画像を学習データの出力データとすればよい。また、複数の高画質化処理を行う高画質化エンジンに関しては、例えば、ノイズ低減処理及びコントラスト補正処理等を施した高画質画像を学習データの出力データとすればよい。 Further, as the image quality improvement engine, a plurality of image quality improvement engines may be prepared, each of which independently performs various image quality improvement processes such as noise reduction, contrast correction, and resolution enhancement. Alternatively, one image quality enhancement engine that performs at least two image quality enhancement processes may be provided. Note that in these cases, high-quality images according to the desired processing may be used as the output data of the learning data. For example, regarding a high-quality image that performs individual processing, high-quality images that have been subjected to individual processing such as noise reduction processing may be used as output data of learning data. Further, regarding the image quality improvement engine that performs a plurality of image quality improvement processes, for example, a high quality image that has been subjected to noise reduction processing, contrast correction processing, etc. may be used as the output data of the learning data.

(医用画像の領域検出エンジン)
次に、領域検出部302が用いる医用画像の領域検出エンジンについて、コントラスト正面画像を例にして説明する。本実施形態に係る領域検出部302は、コントラスト正面画像において、例えば、血流の有無を確認するため、灌流領域と無灌流領域に分類して領域を検出する。以後、無灌流領域をNPA(Non Perfusion Area)と表記する。また、本実施形態に係る領域検出部302は、例えば、中心窩無血管領域(FAZ:Foveal Avascular Zone)や視神経乳頭部(ONH:Optic Nerve Head)を領域として検出してもよい。検出した領域の情報としては、当該領域のラベルを画像内の画素に関連付けることができる。このように画像内の全画素にラベルを関連付ける深層学習は、セマンティックセグメンテーションと呼ばれる。
(Region detection engine for medical images)
Next, the area detection engine for medical images used by the area detection unit 302 will be described using a contrast front image as an example. The region detection unit 302 according to the present embodiment detects regions by classifying them into perfusion regions and non-perfusion regions in the contrast frontal image, for example, in order to confirm the presence or absence of blood flow. Hereinafter, the non-perfusion area will be referred to as NPA (Non Perfusion Area). Further, the region detection unit 302 according to the present embodiment may detect, for example, a foveal avascular zone (FAZ) or an optic nerve head (ONH) as the region. As information about the detected area, a label of the area can be associated with a pixel in the image. Deep learning that associates labels with all pixels in an image in this way is called semantic segmentation.

一般に深層学習において、学習データの出力データ(正解データ)を作成する作業をアノテーションと呼ぶ。領域検出用の学習済モデルに係る学習データに関しては、アノテーションによって、入力データ又は対応する画像の各画素位置に対して分類する領域を示すラベルを与えることで出力データを作成していくことができる。このようにして生成した各領域のラベルを示す情報を画素値として有する画像を領域ラベル画像という。アノテーション作業は、すべてを手動で行ってもよいし、一部を自動で行ってもよい。一定の作業が終わった時点で深層学習を随時行っていき、途中段階の領域検出エンジンによるセグメンテーション結果を参考にしながらラベルを修正することで、アノテーション作業の効率をあげることもできる。なお、領域ラベル画像を作成する場合には、入力データだけでなく他の情報を用いてもよい。例えば、入力データを高画質画像とした学習データの出力データとなる領域ラベル画像を作成する際に、高画質化される前の画像等を用いて、例えば参照して領域ラベル画像を作成してもよい。 Generally, in deep learning, the work of creating output data (correct data) of learning data is called annotation. Regarding the training data related to the trained model for region detection, output data can be created by giving a label indicating the region to be classified for each pixel position of the input data or the corresponding image using annotation. . An image having information indicating the label of each region generated in this way as a pixel value is called a region label image. All of the annotation work may be performed manually, or some of the annotation work may be performed automatically. It is also possible to increase the efficiency of annotation work by performing deep learning as needed after a certain amount of work is completed, and by correcting labels while referring to the segmentation results from the region detection engine in the interim. Note that when creating a region label image, not only the input data but also other information may be used. For example, when creating a region label image that will be the output data of training data with input data as a high-quality image, you can create the region label image by referring to the image before the high-quality image, etc. Good too.

このように所定枚数の医用画像である入力データと、医用画像に対応する領域ラベル画像である出力データのペア群とする学習データを用いて機械学習を行った学習済モデルを領域検出エンジンとして用いることができる。なお、このように学習を行った領域検出エンジンでは、各画素についての領域のラベルについての確からしさ(信頼度、確率)を出力することができる。そのため、領域検出部302は、領域検出エンジンから出力されたラベルの確率について、例えば各ラベルの中で、他のラベルよりも高い確率のラベルを領域の検出結果として出力することができる。また、各ラベルのうち閾値よりも高い確率のラベルを検出結果として出力することができる。このとき、閾値よりも高い確率のラベルが複数ある場合には、それらすべてを出力してもよいし、そのうちの他のラベルよりも高い確率のラベルを検出結果として出力してもよい。さらに、領域検出部302は、学習済モデルを用いて得た各ラベルの確率から、機械学習モデルを用いて、検出結果を決定してもよい。この場合に用いる機械学習アルゴリズムは、ラベルの確率の取得に用いられた機械学習アルゴリズムとは異なる種類の機械学習アルゴリズムであってもよく、例えば、ニューラルネットワーク、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等であってよい。 In this way, a trained model that has been subjected to machine learning using training data that is a group of pairs of input data, which is a predetermined number of medical images, and output data, which is region label images corresponding to the medical images, is used as a region detection engine. be able to. Note that the region detection engine trained in this manner can output the likelihood (reliability, probability) of the region label for each pixel. Therefore, regarding the probability of the labels output from the region detection engine, the region detection unit 302 can output, for example, a label with a higher probability than other labels as the region detection result. Further, among the labels, a label with a probability higher than a threshold value can be output as a detection result. At this time, if there are multiple labels with a probability higher than the threshold, all of them may be output, or one of them with a probability higher than the other labels may be output as a detection result. Furthermore, the area detection unit 302 may determine the detection result using a machine learning model from the probability of each label obtained using the learned model. The machine learning algorithm used in this case may be a different type of machine learning algorithm than the machine learning algorithm used to obtain the label probabilities, such as a neural network, support vector machine, AdaBoost, Bayesian network, or It may be a random forest or the like.

なお、高画質化エンジンと領域検出エンジンとして、共通のモデルを使ってもよい。この場合には、例えば、既知のU-Netモデルなどが利用でき、高画質化エンジンと領域検出エンジンを同じにすることで、パラメータの差し替えだけでそれぞれの推論処理を行うことができる。 Note that a common model may be used as the image quality improvement engine and the area detection engine. In this case, for example, a known U-Net model can be used, and by using the same image quality improvement engine and area detection engine, each inference process can be performed simply by replacing parameters.

さらに、領域検出を行う入力データとしては、前述した高画質画像(重ね合わせ画像)を用いてもよいし、入力される医用画像に対して高画質化エンジンを適用した高画質画像を入力データとして用いてもよい。このように、入力データに応じた学習を行うことで、それぞれの入力データに最適な領域検出エンジンを構成することができる。 Furthermore, as the input data for region detection, the high-quality image (overlaid image) described above may be used, or a high-quality image obtained by applying a high-quality engine to the input medical image may be used as input data. May be used. In this way, by performing learning according to the input data, it is possible to configure a region detection engine that is optimal for each input data.

なお、領域検出エンジンは、必ずしも機械学習による人工知能エンジンである必要はなく、従来の各種フィルタ処理等を含めた、被検眼の構造等に基づくルールベースのアルゴリズム等を用いて構成されてもよい。そのため、領域検出部302が用いる領域検出エンジンは、例えば、既知のガウスフィルタ等のフィルタ処理を組み合わせてFAZやNPA領域を抽出してもよいし、GUI等を介した操作者による指示に応じて領域を抽出してもよい。また、領域検出エンジンは、例えば、モーションコントラスト画像において、被検眼の構造や所定の閾値を用いた閾値処理により、灌流領域と無灌流領域に分類して領域を検出してもよい。 Note that the region detection engine does not necessarily need to be an artificial intelligence engine based on machine learning, and may be configured using a rule-based algorithm based on the structure of the eye to be examined, etc., including various conventional filter processes. . Therefore, the area detection engine used by the area detection unit 302 may extract the FAZ and NPA areas by combining filter processing such as a known Gaussian filter, or may extract the FAZ and NPA areas in response to instructions from an operator via a GUI or the like. Areas may also be extracted. Further, the region detection engine may detect regions in the motion contrast image by classifying the regions into perfusion regions and non-perfusion regions, for example, by threshold processing using the structure of the subject's eye and a predetermined threshold.

(医用画像の画像処理手順)
次に、図7を参照して本実施形態に係る画像処理装置101による一連の画像処理の手順について説明する。図7は、本実施形態に係る画像処理の概略的な流れを示すフロー図である。
(Image processing procedure for medical images)
Next, a series of image processing procedures by the image processing apparatus 101 according to the present embodiment will be described with reference to FIG. FIG. 7 is a flow diagram schematically showing the flow of image processing according to this embodiment.

本実施形態に係る画像処理が開始されると、ステップS701において、取得部101-1が医用画像を取得する。取得部101-1は、撮影装置100や外部装置から医用画像を取得してもよいし、これらから取得した信号データを用いて生成された医用画像を取得してもよい。本実施形態では、取得部101-1は、医用画像として例えばコントラスト正面画像を取得する。なお、医用画像はこれに限られず、断層画像や輝度のEn-Face画像、SLO画像、被検体の医用画像を解析して得た解析画像(解析マップ)等であってもよい。 When the image processing according to this embodiment is started, the acquisition unit 101-1 acquires a medical image in step S701. The acquisition unit 101-1 may acquire a medical image from the imaging device 100 or an external device, or may acquire a medical image generated using signal data acquired from these. In this embodiment, the acquisition unit 101-1 acquires, for example, a contrast front image as a medical image. Note that the medical image is not limited to this, and may be a tomographic image, a luminance En-Face image, an SLO image, an analysis image (analysis map) obtained by analyzing a medical image of a subject, or the like.

ステップS702においては、高画質化処理部301が、取得された医用画像に対して、前述した少なくとも1つの高画質化エンジンを用いて、第1の画像処理である高画質化処理を適用し高画質化された医用画像を取得する。本実施形態に係る高画質化処理部301は、高画質化エンジンを用いて、OCTA正面画像から高画質化されたOCTA正面画像を取得する。 In step S702, the image quality improvement processing unit 301 applies image quality improvement processing, which is first image processing, to the acquired medical image using at least one image quality improvement engine described above. Obtain quality medical images. The image quality improvement processing unit 301 according to the present embodiment uses an image quality improvement engine to obtain a high quality OCTA front image from an OCTA front image.

次に、ステップS703において、領域検出部302がステップS701で取得された医用画像又はステップS702で取得された高画質化された医用画像に対して、前述した領域検出エンジンを用いて領域検出処理を適用する。領域検出部302は、当該領域検出処理により、医用画像又は高画質化された医用画像における少なくとも2つの領域を検出し、各領域を示す情報を取得する。例えば、領域検出部302は、検出した領域に関してそれぞれの領域を示すラベルを各画素の情報とした領域ラベル画像を取得してもよいし、医用画像について各画素の情報にそれぞれの領域を示すラベルを加えてもよい。なお、領域検出部302は、検出した領域を示す情報を出力できればよく、検出した領域を示す情報は上述した形式に限られない。例えば、領域検出部302は、医用画像の画素情報に対応付けられたラベルの情報等であってよい。また、前述のように、領域検出エンジンから出力されたそれぞれの属性に関する確からしさ(信頼度、確率)を示す値を医用画像の各画素に対応付けて画素の情報に加えてもよい。本実施形態では、領域検出エンジンを用いて、OCTA正面画像又は高画質化されたOCTA正面画像における灌流領域と無灌流領域(NPA)を検出する。なお、医用画像又は高画質化された医用画像における検出された領域の画素位置は、医用画像及び高画質化された医用画像において対応しているものとすることができる。 Next, in step S703, the area detection unit 302 performs area detection processing on the medical image acquired in step S701 or the high-quality medical image acquired in step S702 using the area detection engine described above. Apply. The region detection unit 302 detects at least two regions in the medical image or the high-quality medical image through the region detection processing, and acquires information indicating each region. For example, the region detection unit 302 may obtain a region label image in which each pixel is labeled with a label indicating each region for a detected region, or a region label image in which each pixel information is labeled with a label indicating each region in a medical image. may be added. Note that the area detection unit 302 only needs to be able to output information indicating the detected area, and the information indicating the detected area is not limited to the format described above. For example, the area detection unit 302 may be information on a label associated with pixel information of a medical image. Furthermore, as described above, values indicating the likelihood (reliability, probability) of each attribute outputted from the area detection engine may be associated with each pixel of the medical image and added to the pixel information. In this embodiment, a region detection engine is used to detect a perfusion region and a non-perfusion region (NPA) in an OCTA frontal image or a high-quality OCTA frontal image. Note that the pixel positions of the detected areas in the medical image or the high-quality medical image may correspond to each other in the medical image and the high-quality medical image.

領域検出部302が検出した領域を示す情報を出力すると、ROI設定部303が、当該出力された情報に基づいて、高画質化された医用画像におけるROIを設定する。なお、ROIは、領域検出部302によって検出された領域のうちの少なくとも1つの領域について設定されてよい。本実施形態においては、ROI設定部303は、高画質化されたOCTA正面画像におけるNPAについてROIを設定する。なお、上述のように、ROIの設定は領域検出部302によって行われてもよい。 When the region detection unit 302 outputs information indicating the detected region, the ROI setting unit 303 sets an ROI in the high-quality medical image based on the output information. Note that the ROI may be set for at least one of the regions detected by the region detection unit 302. In this embodiment, the ROI setting unit 303 sets the ROI for the NPA in the high-quality OCTA frontal image. Note that, as described above, the ROI may be set by the region detection unit 302.

最後に、ステップS704において、ブレンド処理部304又はBC調整部305によって、高画質化された医用画像におけるROIに対して、ROIの画素値とROI以外の領域の画素値との差が広がるように第2の画像処理を適用する。このとき、ブレンド処理部304又はBC調整部305は、高画質化された医用画像におけるROIに対して、ROIの画素値が第2の画像処理前のROIの画素値より低くなるように、第2の画像処理を適用する。例えば、ブレンド処理部304は、高画質化された医用画像におけるROIに対して、第2の画像処理として、ステップS701で取得された医用画像及びステップS702で取得された高画質化された医用画像のブレンド処理を行う。ブレンド処理は公知の任意の手法を用いて行われてよく、ブレンド比率は所定の比率であってもよいし、操作者の指示に応じて設定されてもよい。当該ブレンド処理が行われることで、学習済モデルを用いた高画質化処理による過補正が生じている領域について、過補正が生じる前の画像と過補正が生じている画像がブレンドされ、過補正が生じている領域の画素値とそれ以外の領域の画素値との差が広がる。言い換えると、当該ブレンド処理が行われることで、過補正が生じている領域の画素値が低くなる。このような処理では、画像全体の画素値を低くすることなく、過補正が生じている領域のみ画素値を低くすることができる。このため、例えば、NPAやFAZ等の領域における過補正を抑制することができる。 Finally, in step S704, the blend processing unit 304 or the BC adjustment unit 305 increases the difference between the pixel value of the ROI and the pixel value of the area other than the ROI for the ROI in the high-quality medical image. Apply second image processing. At this time, the blend processing unit 304 or the BC adjustment unit 305 adjusts the ROI in the high-quality medical image so that the pixel value of the ROI is lower than the pixel value of the ROI before the second image processing. Apply image processing in step 2. For example, the blend processing unit 304 performs second image processing on the ROI in the high-quality medical image and the medical image acquired in step S701 and the high-quality medical image acquired in step S702. Performs blending processing. The blending process may be performed using any known method, and the blending ratio may be a predetermined ratio or may be set according to an operator's instruction. By performing the blending process, the image before over-correction and the image with over-correction are blended for the area where over-correction has occurred due to high image quality processing using the trained model, and the over-correction is removed. The difference between pixel values in the area where this occurs and pixel values in other areas increases. In other words, by performing the blending process, the pixel value of the area where over-correction has occurred becomes lower. With such processing, the pixel values can be reduced only in the area where overcorrection has occurred, without reducing the pixel values of the entire image. Therefore, for example, overcorrection in areas such as NPA and FAZ can be suppressed.

また、BC調整部305は、高画質化された医用画像におけるROIに対して、第2の画像処理としてBC調整処理を行う。BC調整処理は、公知の任意の手法を用いて行われてよく、例えば、ROIにおける明るさを所定の値に設定したり、所定の値だけ増減させたりしてよい。また、ROIにおいて、例えばトーンカーブやガンマカーブ等を用いてコントラストの調整を行ってもよい。さらに、BC調整処理は、ROIにおける明るさ及びコントラストの少なくとも一方を操作者の指示に応じた値に設定したり、当該値だけ増減させたりしてもよい。例えば、BC調整部305は、操作者の指示に応じて、明るさの補正値を決定したり、コントラスト調整に用いるトーンカーブ等の設定値を決定したりしてもよい。当該BC調整処理が行われることで、学習済モデルを用いた高画質化処理による過補正が生じている領域について、過補正が生じている領域の画素値とそれ以外の領域の画素値との差が広がるように、明るさ及びコントラストの少なくとも一方が調整される。言い換えると、当該BC調整処理が行われることで、過補正が生じている領域の画素値が低くなる。このような処理では、画像全体の画素値を低くすることなく、過補正が生じている領域のみ画素値を低くすることができる。このため、例えば、NPAやFAZ等の領域における過補正を抑制することができる。 Furthermore, the BC adjustment unit 305 performs BC adjustment processing as second image processing on the ROI in the high-quality medical image. The BC adjustment process may be performed using any known method; for example, the brightness in the ROI may be set to a predetermined value, or may be increased or decreased by a predetermined value. Further, in the ROI, contrast may be adjusted using, for example, a tone curve or a gamma curve. Further, in the BC adjustment process, at least one of brightness and contrast in the ROI may be set to a value according to an instruction from an operator, or may be increased or decreased by the value. For example, the BC adjustment unit 305 may determine a brightness correction value or a setting value of a tone curve or the like used for contrast adjustment in response to an operator's instruction. By performing the BC adjustment process, the pixel values of the over-corrected area and the pixel values of other areas are calculated for the area where over-correction has occurred due to the high image quality processing using the learned model. At least one of brightness and contrast is adjusted to widen the difference. In other words, by performing the BC adjustment processing, the pixel value of the area where overcorrection occurs becomes lower. With such processing, the pixel values can be reduced only in the area where overcorrection has occurred, without reducing the pixel values of the entire image. Therefore, for example, overcorrection in areas such as NPA and FAZ can be suppressed.

本実施形態では、ブレンド処理部304は、高画質化されたOCTA正面画像におけるROIとして設定されたNPAに対して、OCTA正面画像及び高画質化されたOCTA正面画像のブレンド処理を行う。また、BC調整部305は、高画質化されたOCTA正面画像におけるROIとして設定されたNPAに対して、高画質化されたOCTA正面画像のBC調整処理を行う。なお、前述のように、ブレンド処理部304による処理及びBC調整部305による処理はいずれか一方のみ行われてもよいし、両方行われてもよい。ブレンド処理部304やBC調整部305によって第2の画像処理が施された高画質画像は、表示制御部101-5によって出力部103に表示されたり、出力部103によって外部装置等に出力されたり、記憶部101-3や外部記憶装置102に記憶されてよい。 In this embodiment, the blend processing unit 304 performs blending processing of the OCTA front image and the high quality OCTA front image on the NPA set as the ROI in the high quality OCTA front image. Furthermore, the BC adjustment unit 305 performs BC adjustment processing on the high-quality OCTA front image with respect to the NPA set as the ROI in the high-quality OCTA front image. Note that, as described above, either one of the processing by the blend processing unit 304 and the processing by the BC adjustment unit 305 may be performed, or both may be performed. The high-quality image subjected to the second image processing by the blend processing unit 304 and the BC adjustment unit 305 is displayed on the output unit 103 by the display control unit 101-5, or outputted by the output unit 103 to an external device, etc. , may be stored in the storage unit 101-3 or the external storage device 102.

このように本実施形態に係る画像処理を行うことで、学習済モデルを用いた医用画像の画像処理による過補正が生じる領域を検出し、検出された領域に対して当該過補正を低減する画像処理を施すことができる。例えば、OCTA正面画像におけるNPAを検出し、学習済モデルを用いて取得された高画質なOCTA正面画像におけるNPAについて過補正を低減するブレンド処理やBC調整処理を施すことができる。 By performing the image processing according to this embodiment in this way, an area where over-correction occurs due to image processing of a medical image using a trained model is detected, and an image in which the over-correction is reduced for the detected area is created. can be processed. For example, it is possible to detect NPA in an OCTA frontal image and perform blending processing or BC adjustment processing to reduce overcorrection of the NPA in a high-quality OCTA frontal image acquired using a trained model.

前述のように、眼底画像を診断する上でNPAは特に重要である。NPAを特定することで、血管があるべきところに血流がない、あるいは血管がないはずのところに何らかの血流が認められるか(新生血管など)を判断することができる。特にFAZやNPAに関しては、高画質化前の元の状態をある程度残すことで、画像診断において、ノイズか血管かの区別に関する操作者(検者)の判断を支援することができる。 As mentioned above, NPA is particularly important in diagnosing fundus images. By identifying NPA, it is possible to determine whether there is no blood flow where there should be a blood vessel, or whether some kind of blood flow is observed where there should be no blood vessel (such as a new blood vessel). In particular, with regard to FAZ and NPA, by leaving some of the original state before high image quality, it is possible to support the operator's (examiner) judgment regarding the distinction between noise and blood vessels in image diagnosis.

一方で、NPAに対して、明るさやコントラストを所望の状態にしてノイズなどを積極的に除去することで、よりNPAらしくすることで視認性を向上させることもできる。この場合にも、画像診断において、ノイズか血管かの区別に関する操作者の判断を支援することができる。 On the other hand, visibility can also be improved by setting the brightness and contrast to a desired state and actively removing noise and the like to make the NPA look more like an NPA. In this case as well, it is possible to support the operator's judgment regarding the distinction between noise and blood vessels in image diagnosis.

なお、一般的には、他の検査も含めて複合的に診断が行われるため、第2の画像処理方法は予め設定してもよいし、適宜選択できるようにしてもよい。また、分類する領域によって第2の画像処理方法を変更できるようにしてもよい。さらに、被検眼によって設定を変更することも可能である。また、OCTA正面画像の深さ、すなわち浅層と深層で設定を変更できるようにしてもよい。これらの設定は、ユーザー又は被検者ごとに設定を記憶しておいてもよい。 Note that since diagnosis is generally performed in a complex manner including other tests, the second image processing method may be set in advance or may be selected as appropriate. Further, the second image processing method may be changed depending on the area to be classified. Furthermore, it is also possible to change the settings depending on the eye to be examined. Further, the settings may be changed depending on the depth of the OCTA front image, that is, the shallow layer and the deep layer. These settings may be stored for each user or subject.

上記のように、本実施形態に係る画像処理装置101は、高画質化処理部301と、領域検出部302と、ブレンド処理部304と、BC調整部305とを備える。高画質化処理部301は、被検体の医用画像を学習データとした学習により得た高画質化モデル(高画質化エンジン)を用いて、被検体の医用画像の第1の画像に対して高画質化処理を行い、被検体の医用画像の高画質な第2の画像を取得する。領域検出部302は、被検体の医用画像(第1の画像又は第2の画像)における対象領域を検出する。ブレンド処理部304及びBC調整部305の少なくとも一方は、第2の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように、且つ対象領域の画素値が画像処理前の対象領域の画素値より低くなるように画像処理を行う。 As described above, the image processing apparatus 101 according to the present embodiment includes the image quality improvement processing section 301, the area detection section 302, the blend processing section 304, and the BC adjustment section 305. The image quality improvement processing unit 301 uses an image quality improvement model (image quality improvement engine) obtained through learning using the subject's medical images as learning data to enhance the first image of the subject's medical images. Image quality processing is performed to obtain a high-quality second image of the medical image of the subject. The region detection unit 302 detects a target region in a medical image (first image or second image) of the subject. At least one of the blend processing unit 304 and the BC adjustment unit 305 adjusts the target area in the second image so that the difference between the pixel value of the target area and the pixel value of the area other than the target area increases. Image processing is performed so that the pixel value of is lower than the pixel value of the target area before image processing.

ブレンド処理部304は、画像処理として、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように第1の画像と第2の画像とをブレンドするブレンド処理を行う。また、BC調整部305は、画像処理として、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように明るさ及びコントラストの少なくとも一方を補正するBC調整処理を行う。なお、被検体の医用画像は、例えば被検眼のモーションコントラスト画像とし、対象領域は例えば無灌流領域、中心窩血管領域、及び視神経乳頭領域の少なくとも1つを含むことができる。また、領域検出部302は、被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、対象領域を検出することができる。 As image processing, the blend processing unit 304 blends the first image and the second image so that the difference between the pixel value of the target area and the pixel value of the area other than the target area increases, and the pixel value of the target area becomes lower. Performs blending processing to blend with the image. In addition, as image processing, the BC adjustment unit 305 adjusts the brightness and contrast so that the difference between the pixel value of the target area and the pixel value of the area other than the target area increases and the pixel value of the target area becomes lower. BC adjustment processing is performed to correct at least one of them. Note that the medical image of the subject may be, for example, a motion contrast image of the subject's eye, and the target area may include, for example, at least one of a non-perfused area, a foveal blood vessel area, and an optic disc area. Further, the region detection unit 302 can detect a target region using a trained model obtained by learning using a medical image of a subject as learning data.

このような構成により、本実施形態に係る画像処理装置は、学習済モデルを用いた医用画像の画像処理による過補正が生じるNPA等の領域を検出し、検出された領域に対して当該過補正を低減する画像処理を施すことができる。このような処理では、画像全体の画素値を低くすることなく、過補正が生じている領域のみ画素値を低くすることができる。このため、学習済モデルを用いた医用画像の画像処理による過補正を低減することができる。これにより、画像診断において、ノイズか血管かの区別に関する操作者の判断を支援することができる。 With such a configuration, the image processing apparatus according to the present embodiment detects a region such as NPA where over-correction occurs due to image processing of a medical image using a trained model, and performs the over-correction on the detected region. It is possible to perform image processing to reduce the With such processing, the pixel values can be reduced only in the area where overcorrection has occurred, without reducing the pixel values of the entire image. Therefore, over-correction due to image processing of medical images using the learned model can be reduced. Thereby, in image diagnosis, it is possible to support the operator's judgment regarding the distinction between noise and blood vessels.

ここで、本実施形態に係る一連の画像処理に関しては、種々の変形が可能である。以下、図8乃至図13を参照して、本実施形態に係る一連の画像処理の具体的な例について詳細に説明する。なお、各例について、図7に示す前述した画像処理と同様の処理に関しては説明を省略する。 Here, various modifications are possible regarding the series of image processing according to this embodiment. Hereinafter, a specific example of a series of image processing according to this embodiment will be described in detail with reference to FIGS. 8 to 13. Note that for each example, description of processes similar to the above-described image processing shown in FIG. 7 will be omitted.

<画像処理方法の第1の例>
画像処理方法の第1の例について、図8を参照して説明する。本例ではFAZやNPAに対する高画質化エンジンによる過補正を抑制するための画像処理方法について説明する。
<First example of image processing method>
A first example of the image processing method will be described with reference to FIG. 8. In this example, an image processing method for suppressing overcorrection by the image quality engine for FAZ and NPA will be described.

ステップS801及びステップS802における処理は、ステップS701及びステップS702と同様であるため、説明を省略する。ステップS802において高画質化された医用画像が取得されると処理はステップS803に移行する。 The processing in step S801 and step S802 is the same as that in step S701 and step S702, so a description thereof will be omitted. When a high-quality medical image is acquired in step S802, the process moves to step S803.

ステップS803では、領域検出部302が、領域検出エンジンを用いて、ステップS801で取得した医用画像(入力画像)におけるFAZ及びNPAの領域を検出する。FAZ及びNPAはそれぞれ区別して検出してもよいし、1つの領域としてまとめて検出してもよい。また、いずれか一方の領域だけを検出してもよいし、FAZ及びNPA以外の領域は灌流領域として検出してもよい。領域検出部302が検出した領域を示す情報を出力したら、ROI設定部303が、当該出力された情報に基づいて、ステップS802において高画質化された医用画像におけるROIを設定する。なお、医用画像における検出された領域の画素位置は、医用画像及び高画質化された医用画像において対応しているものとすることができる。 In step S803, the area detection unit 302 uses the area detection engine to detect the FAZ and NPA areas in the medical image (input image) acquired in step S801. FAZ and NPA may be detected separately or may be detected together as one area. Further, only one of the regions may be detected, or regions other than the FAZ and NPA may be detected as perfusion regions. After the region detection unit 302 outputs information indicating the detected region, the ROI setting unit 303 sets an ROI in the medical image that has been improved in image quality in step S802 based on the output information. Note that the pixel positions of the detected areas in the medical image can be assumed to correspond in the medical image and the high-quality medical image.

最後にステップS804において、ブレンド処理部304が、入力画像とステップS802で取得された高画質化された医用画像を用いて、高画質化された医用画像における検出された領域に対してブレンド処理を行う。ここで、ブレンド処理は既知のαブレンド処理などを用いればよい。また、ブレンド比率は、固定値でもよいし、領域検出エンジンが出力した属性情報に関する信頼度(確からしさ、確率)に応じて、ブレンド処理部304が各画素におけるブレンド比率を変更してもよい。具体的には、無灌流領域の属性情報を持つ画素に対しては、信頼度が高いほど入力画像のブレンド比率が高くなるようにαブレンド比率を設定することができる。 Finally, in step S804, the blend processing unit 304 uses the input image and the high-quality medical image acquired in step S802 to perform a blending process on the detected region in the high-quality medical image. conduct. Here, the blending process may be performed using a known α blending process or the like. Further, the blending ratio may be a fixed value, or the blending processing unit 304 may change the blending ratio for each pixel according to the reliability (likelihood, probability) regarding the attribute information output by the area detection engine. Specifically, for a pixel having attribute information of a non-perfused area, the α blend ratio can be set such that the higher the reliability, the higher the blend ratio of the input image.

また、FAZ及びNPA等の属性情報を区別して検出している場合には、区別されている属性情報に応じてそれぞれのブレンド比率を変えてもよい。さらに、FAZ及びNPA以外の領域、例えば、FAZやNPA等の対象領域の周辺の画素に対しても、入力画像を適度に合成してもよい。これによって、領域境界での急峻な変化を緩和することができる。 Further, when attribute information such as FAZ and NPA is detected separately, the blending ratio of each may be changed depending on the differentiated attribute information. Furthermore, the input image may be suitably combined with pixels in areas other than the FAZ and NPA, for example, surrounding pixels of the target area such as the FAZ and NPA. This makes it possible to reduce sharp changes at area boundaries.

なお、ブレンド比率に関しては、UIを介して操作者が指示できるようにしてもよい。例えば、スライドバーなどのGUIを用いて過補正の抑制強度に対応するブレンド比率を設定できるようにしてもよい。 Note that the blend ratio may be configured so that the operator can instruct it via the UI. For example, a GUI such as a slide bar may be used to set a blend ratio corresponding to the overcorrection suppression strength.

本例によれば、FAZやNPAに関しては、高画質化前の元の状態をある程度残すことできる。そのため、画像診断において、ノイズか血管かの区別に関する操作者の判断を支援することができる。 According to this example, regarding FAZ and NPA, the original state before the image quality improvement can be maintained to some extent. Therefore, in image diagnosis, it is possible to support the operator's judgment regarding the distinction between noise and blood vessels.

なお、入力画像である医用画像(第1の画像)における対象領域を検出する場合には、領域検出部302は、領域検出エンジンとして、学習済モデルにより構成された領域検出エンジンを用いることができる。この場合、領域検出エンジンの学習データとしては、入力画像である医用画像を入力データとし、入力画像である医用画像における各領域のラベルを示す情報を画素値として有する領域ラベル画像を出力データとすることができる。また、領域検出部302は、被検体の構造に基づくルールベースのアルゴリズム等を用いて構成された領域検出エンジンを用いることもできる。この場合にも、領域検出部302は、学習済モデルを用いた高画質化が行われていない、言い換えると、過補正が生じていない医用画像における特徴部から、FAZ及びNPA等の対象領域を検出することができる。 Note that when detecting a target region in a medical image (first image) that is an input image, the region detection unit 302 can use a region detection engine configured by a trained model as the region detection engine. . In this case, as learning data for the region detection engine, the input data is a medical image that is the input image, and the output data is a region label image that has information indicating the label of each region in the medical image that is the input image as a pixel value. be able to. Further, the region detection unit 302 can also use a region detection engine configured using a rule-based algorithm based on the structure of the subject. In this case as well, the region detection unit 302 detects target regions such as FAZ and NPA from characteristic parts in medical images that have not been subjected to high image quality using a learned model, in other words, that have not been overcorrected. can be detected.

<画像処理方法の第2の例>
画像処理方法の第2の例について、図9を参照して説明する。本例では、NPAに対する高画質化処理を強調するための画像処理方法について説明する。
<Second example of image processing method>
A second example of the image processing method will be described with reference to FIG. 9. In this example, an image processing method for emphasizing high image quality processing for NPA will be described.

領域検出エンジンの性能が高い場合には、領域検出部302は、FAZやNPA等の領域をより適切には検出することができる。例えば、FAZ及びNPAでは、本来血管がないのが正しい。そのため、領域検出エンジンの性能が高い場合には、これらの領域に対しては、高画質化エンジンで処理された後に、さらにBC調整でより暗くすることでより診断に適した画像が得られる。このような画像処理を用いてより診断に適した画像を得ることができる本例の処理を以下でより詳細に説明する。 When the performance of the area detection engine is high, the area detection unit 302 can more appropriately detect areas such as FAZ and NPA. For example, in FAZ and NPA, it is true that there are no blood vessels in nature. Therefore, when the performance of the region detection engine is high, images more suitable for diagnosis can be obtained by further darkening these regions by BC adjustment after processing with the high image quality engine. The processing of this example, which can obtain images more suitable for diagnosis using such image processing, will be described in more detail below.

ステップS901及びステップS902における処理は、ステップS701及びステップS702と同様であるため、説明を省略する。ステップS902において高画質化された医用画像が取得されると処理はステップS903に移行する。 The processing in step S901 and step S902 is the same as that in step S701 and step S702, so the explanation will be omitted. When a high-quality medical image is acquired in step S902, the process moves to step S903.

ステップS903では、領域検出部302が、領域検出エンジンを用いて、ステップS901で取得した医用画像(入力画像)におけるFAZ及びNPAの領域を検出する。FAZ及びNPAはそれぞれ区別して検出してもよいし、1つの領域としてまとめても検出してもよい。また、いずれか一方の領域だけを検出してもよいし、FAZ及びNPA以外の領域を灌流領域として検出してもよい。領域検出部302が検出した領域を示す情報を出力したら、ROI設定部303が、当該出力された情報に基づいて、ステップS902において高画質化された医用画像におけるROIを設定する。なお、医用画像における検出された領域の画素位置は、医用画像及び高画質化された医用画像において対応しているものとすることができる。 In step S903, the area detection unit 302 uses the area detection engine to detect the FAZ and NPA areas in the medical image (input image) acquired in step S901. FAZ and NPA may be detected separately, or may be detected together as one area. Further, only one of the regions may be detected, or a region other than the FAZ and NPA may be detected as the perfusion region. After the region detection unit 302 outputs information indicating the detected region, the ROI setting unit 303 sets an ROI in the medical image that has been improved in image quality in step S902 based on the output information. Note that the pixel positions of the detected areas in the medical image can be assumed to correspond in the medical image and the high-quality medical image.

最後にステップS904において、BC調整部305が、ステップS902で高画質化エンジンを用いて取得された高画質化された医用画像における検出された領域(FAZ及びNPAの領域)の画素についてBC調整処理を行う。BC調整は、画素値に関する輝度値(明るさ)をより暗くするように補正すればよい。例えば、単純に輝度値を下げてもよいし、ゼロにしてもよい。また、ガンマ補正のような、元の画素値に応じた画像処理を適用してもよい。なお、補正の強さはFAZとNPAでそれぞれ変更してもよいし、検出した領域を示す情報として属性と信頼度が保持されていれば、信頼度に応じてBC調整を行ってもよい。 Finally, in step S904, the BC adjustment unit 305 performs BC adjustment processing on pixels in the detected areas (FAZ and NPA areas) in the high-quality medical image acquired using the high-quality image engine in step S902. I do. The BC adjustment may be performed by correcting the luminance value (brightness) related to the pixel value to make it darker. For example, the brightness value may be simply lowered or set to zero. Further, image processing such as gamma correction may be applied depending on the original pixel value. Note that the strength of correction may be changed for each of FAZ and NPA, and if the attribute and reliability are held as information indicating the detected area, BC adjustment may be performed according to the reliability.

なお、BC調整の方法及び強度は、UIを介して操作者が指示できるようにしてもよい。例えば、ラジオボタンなどのGUIで方法を選択できるようにし、また、スライドバーなどのGUIで強度を指定してもよい。 Note that the operator may be able to instruct the BC adjustment method and intensity via the UI. For example, the method may be selected using a GUI such as radio buttons, or the strength may be specified using a GUI such as a slide bar.

本例によれば、NPA及びFAZ等の領域の視認性を向上させることもできる。この場合にも、画像診断において、ノイズか血管かの区別に関する医師の判断を支援することができる。さらに、第1の例で示した抑制処理と第2の例で示した強調処理を領域の属性ごとに選択できるようにしてもよい。例えば、FAZは強調処理、NPAは抑制処理としてもよい。この場合、各領域に応じたより診断に適した画像を生成することができ、医師の判断を支援することができる。 According to this example, it is also possible to improve the visibility of areas such as the NPA and FAZ. In this case as well, it is possible to support the doctor's judgment regarding the distinction between noise and blood vessels in image diagnosis. Furthermore, the suppression process shown in the first example and the emphasis process shown in the second example may be selected for each region attribute. For example, FAZ may be an emphasis process, and NPA may be a suppression process. In this case, it is possible to generate an image more suitable for diagnosis according to each region, and it is possible to support the doctor's judgment.

<画像処理方法の第3の例>
画像処理方法の第3の例について、図10を参照して説明する。本例では、高画質化エンジンを用いて高画質化した医用画像から、領域検出エンジンを用いてFAZ及びNPA等の領域として検出し、それらの領域における過補正を抑制する画像処理について説明する。
<Third example of image processing method>
A third example of the image processing method will be described with reference to FIG. 10. In this example, image processing will be described in which an area detection engine is used to detect areas such as FAZ and NPA from a medical image whose image quality has been improved using an image quality improvement engine, and over-correction in these areas is suppressed.

ステップS1001及びステップS1002における処理は、ステップS701及びステップS702と同様であるため、説明を省略する。ステップS1002において高画質化された医用画像が取得されると処理はステップS1003に移行する。 The processing in step S1001 and step S1002 is the same as step S701 and step S702, so a description thereof will be omitted. When a high-quality medical image is acquired in step S1002, the process moves to step S1003.

ステップS1003では、領域検出部302が、領域検出エンジンを用いて、S1002で高画質化された医用画像におけるFAZ及びNPAの領域を検出する。FAZ及びNPAはそれぞれ区別して検出してもよいし、1つの領域としてまとめて検出してもよい。また、いずれか一方の領域だけを検出してもよいし、FAZ及びNPA以外の領域は灌流領域として検出してもよい。領域検出部302が検出した領域を示す情報を出力したら、ROI設定部303が、当該出力された情報に基づいて、ステップS1002において高画質化された医用画像におけるROIを設定する。 In step S1003, the region detection unit 302 uses the region detection engine to detect the FAZ and NPA regions in the medical image whose image quality has been improved in step S1002. FAZ and NPA may be detected separately or may be detected together as one area. Further, only one of the regions may be detected, or regions other than the FAZ and NPA may be detected as perfusion regions. After the region detection unit 302 outputs the information indicating the detected region, the ROI setting unit 303 sets the ROI in the medical image that has been improved in image quality in step S1002 based on the output information.

最後にステップS1004において、ブレンド処理部304が、高画質化された医用画像とステップS1001で取得された医用画像を用いて、高画質化された医用画像における検出された領域に対してブレンド処理を行う。ブレンド処理に関しては、第1の例で説明した処理と同様の処理であってよい。 Finally, in step S1004, the blending processing unit 304 performs a blending process on the detected region in the high-quality medical image using the high-quality medical image and the medical image acquired in step S1001. conduct. The blending process may be similar to the process described in the first example.

本例の場合も、第1の例と同様に、FAZやNPAに関しては、高画質化前の元の状態をある程度残すことできる。そのため、画像診断において、ノイズか血管かの区別に関する操作者の判断を支援することができる。 In the case of this example as well, as in the first example, regarding FAZ and NPA, the original state before image quality improvement can be maintained to some extent. Therefore, in image diagnosis, it is possible to support the operator's judgment regarding the distinction between noise and blood vessels.

なお、高画質化された医用画像における対象領域を検出する場合には、領域検出部302は、学習済モデルにより構成された領域検出エンジンを用いることができる。この場合、領域検出エンジンの学習データとしては、高画質化された医用画像(第2の画像)を入力データとし、入力画像である医用画像(第1の画像)における各領域のラベルを示す情報を画素値として有する領域ラベル画像を出力データとすることができる。ここで、入力データとなる高画質化された医用画像は、高画質化エンジンを用いて高画質化された医用画像であり、NPA等の対象領域において過補正が生じている高画質画像とすることができる。これに対して、出力データとなる領域ラベル画像は、高画質化エンジンを用いて高画質化される前の医用画像についてラベル付けを行って得た画像であってよい。この場合には、学習済モデルにより構成された領域検出エンジンは学習の傾向に従って、入力された高画質画像から、過補正が生じている対象領域のラベルを含む領域ラベル画像を出力することができる。なお、高画質画像を入力として用いることで、学習済モデルにより構成された領域検出エンジンは、より適切に画像内の特徴を抽出することができ、より精度の高い領域ラベル画像を出力できると期待される。 Note that when detecting a target region in a high-quality medical image, the region detection unit 302 can use a region detection engine configured by a trained model. In this case, the learning data for the region detection engine is a high-quality medical image (second image) as input data, and information indicating the label of each region in the medical image (first image) that is the input image. A region label image having pixel values as pixel values can be used as output data. Here, the high-quality medical image serving as input data is a medical image that has been high-quality using a high-quality engine, and is a high-quality image in which over-correction has occurred in target areas such as NPA. be able to. On the other hand, the region label image serving as the output data may be an image obtained by labeling a medical image before the image quality is improved using an image quality improvement engine. In this case, the region detection engine configured by the trained model can output a region label image containing the label of the target region where over-correction has occurred from the input high-quality image according to the learning trend. . Furthermore, by using high-quality images as input, the region detection engine configured with the trained model will be able to more appropriately extract features within the image, and it is expected that it will be able to output more accurate region label images. be done.

<画像処理方法の第4の例>
画像処理方法の第4の例について、図11を参照して説明する。本例では、高画質化エンジンを用いて高画質化した医用画像から、領域検出エンジンを用いてFAZ及びNPA等の領域を検出し、それらの領域の高画質化処理を強調する画像処理について説明する。
<Fourth example of image processing method>
A fourth example of the image processing method will be described with reference to FIG. 11. In this example, we will explain image processing that uses an area detection engine to detect areas such as FAZ and NPA from a medical image whose image quality has been improved using a high image quality engine, and emphasizes the image quality improvement processing for these areas. do.

ステップS1101及びステップS1102における処理は、ステップS701及びステップS702と同様であるため、説明を省略する。ステップS1102において高画質化された医用画像が取得されると処理はステップS1103に移行する。 The processing in step S1101 and step S1102 is the same as step S701 and step S702, so a description thereof will be omitted. When a high-quality medical image is acquired in step S1102, the process moves to step S1103.

ステップS1103では、領域検出部302が、領域検出エンジンを用いて、ステップS1102で高画質化された医用画像におけるFAZ及びNPAの領域を検出する。FAZ及びNPAはそれぞれ区別して検出してもよいし、1つの領域としてまとめて検出してもよい。また、いずれか一方の領域だけを検出してもよいし、FAZ及びNPA以外の領域は灌流領域として検出してもよい。領域検出部302が検出した領域を示す情報を出力したら、ROI設定部303が、当該出力された情報に基づいて、ステップS1102において高画質化された医用画像におけるROIを設定する。 In step S1103, the area detection unit 302 uses the area detection engine to detect the FAZ and NPA areas in the medical image whose image quality has been improved in step S1102. FAZ and NPA may be detected separately or may be detected together as one area. Further, only one of the regions may be detected, or regions other than the FAZ and NPA may be detected as perfusion regions. After the region detection unit 302 outputs the information indicating the detected region, the ROI setting unit 303 sets the ROI in the medical image that has been improved in image quality in step S1102 based on the output information.

最後にステップS1104において、BC調整部305が、高画質化された医用画像における検出された領域(FAZやNPAの領域)の画素についてBC調整処理を行う。BC調整処理は、第2の例で説明した処理と同様の処理であってよい。 Finally, in step S1104, the BC adjustment unit 305 performs BC adjustment processing on pixels in the detected area (FAZ or NPA area) in the high-quality medical image. The BC adjustment process may be similar to the process described in the second example.

本例の場合も、第2の例と同様に、NPA及びFAZ等の領域の視認性を向上させることもできる。この場合にも、画像診断において、ノイズか血管かの区別に関する医師の判断を支援することができる。さらに、第1の例や第3の例で示した抑制処理と第4の例で示した強調処理を領域の属性ごとに選択できるようにしてもよい。例えば、FAZは強調処理、NPAは抑制処理としてもよい。この場合、各領域に応じたより診断に適した画像を生成することができ、医師の判断を支援することができる。 In this example, as in the second example, it is also possible to improve the visibility of areas such as the NPA and FAZ. In this case as well, it is possible to support a doctor's judgment regarding the distinction between noise and blood vessels in image diagnosis. Furthermore, the suppression processing shown in the first example or the third example and the emphasis processing shown in the fourth example may be selected for each region attribute. For example, FAZ may be an emphasis process, and NPA may be a suppression process. In this case, it is possible to generate an image more suitable for diagnosis according to each region, and it is possible to support a doctor's judgment.

<画像処理方法の第5の例>
画像処理方法の第5の例について、図12を参照して説明する。本例では、高画質化する前の医用画像について領域検出エンジンを用いてFAZ及びNPA等の領域を検出し、それらの領域に対してBC調整を行った上で、高画質化エンジンを用いた高画質化処理を適用する画像処理について説明する。
<Fifth example of image processing method>
A fifth example of the image processing method will be described with reference to FIG. 12. In this example, we use an area detection engine to detect areas such as FAZ and NPA on a medical image before image quality enhancement, perform BC adjustment on these areas, and then use the image quality enhancement engine to detect areas such as FAZ and NPA. Image processing that applies image quality enhancement processing will be described.

ステップS1201における処理は、ステップS701と同様であるため、説明を省略する。ステップS1202では、領域検出部302が、領域検出エンジンを用いて、ステップS1201で取得された医用画像(入力画像)におけるFAZ及びNPAの領域を検出する。領域検出部302が検出した領域を示す情報を出力したら、ROI設定部303が、当該出力された情報に基づいて、入力画像におけるROIを設定する。 The processing in step S1201 is the same as step S701, so a description thereof will be omitted. In step S1202, the area detection unit 302 uses the area detection engine to detect the FAZ and NPA areas in the medical image (input image) acquired in step S1201. After the region detection unit 302 outputs information indicating the detected region, the ROI setting unit 303 sets the ROI in the input image based on the output information.

次に、ステップS1203において、BC調整部305が、入力画像における検出された領域(FAZやNPAの領域)の画素についてBC調整処理を行う。なお、BC調整処理は、第2の例で説明した処理と同様の処理であってよい。 Next, in step S1203, the BC adjustment unit 305 performs BC adjustment processing on pixels in the detected area (FAZ or NPA area) in the input image. Note that the BC adjustment process may be similar to the process described in the second example.

最後にステップS1204において、高画質化処理部301が、高画質化エンジンを用いて、ステップS1203においてBC調整処理が行われた医用画像に対して高画質化処理を実行し、高画質化された医用画像を取得する。なお、高画質化処理部301による高画質化処理後の医用画像に対して、検出された領域に基づくブレンド処理やBC調整処理をさらに加えてもよい。ブレンド処理やBC調整処理はそれぞれ第1の例及び第2の例で説明した処理と同様の処理であってよい。 Finally, in step S1204, the image quality improvement processing unit 301 uses the image quality improvement engine to perform image quality improvement processing on the medical image on which the BC adjustment process was performed in step S1203, and the image quality is improved. Acquire medical images. Note that blending processing and BC adjustment processing based on the detected area may be further applied to the medical image after the image quality enhancement processing by the image quality enhancement processing unit 301. The blending process and the BC adjustment process may be similar to the processes described in the first example and the second example, respectively.

上記のように、本例では、領域検出部302は、被検体の医用画像の第1の画像における対象領域を検出する。また、BC調整部305は、被検体の医用画像の第1の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がBC調整処理前の対象領域の画素値より低くなるようにBC調整処理を行う。さらに、高画質化処理部301は、被検体の医用画像を学習データとした学習により得た高画質化モデルを用いて、BC調整処理が行われた第1の画像に対して高画質化処理を行い、被検体の医用画像の高画質な第2の画像を取得する。 As described above, in this example, the region detection unit 302 detects the target region in the first image of the medical image of the subject. In addition, the BC adjustment unit 305 adjusts the target area in the first image of the medical image of the subject so that the difference between the pixel value of the target area and the pixel value of the area other than the target area widens. BC adjustment processing is performed so that the pixel value is lower than the pixel value of the target area before BC adjustment processing. Further, the image quality improvement processing unit 301 performs image quality improvement processing on the first image that has undergone the BC adjustment process, using the image quality improvement model obtained through learning using the medical image of the subject as learning data. and obtain a high-quality second image of the medical image of the subject.

本例の場合には、BC調整処理が行われることで、過補正が生じる領域の画素値がより低くされた医用画像について、高画質化処理が行われる。このような処理では、画像全体の画素値を低くすることなく、過補正が生じる領域のみ画素値を低くすることができる。このため、例えば、NPAやFAZ等の領域における過補正を抑制することができ、NPA及びFAZ等の領域の視認性を向上させることもできる。この場合にも、画像診断において、ノイズか血管かの区別に関する医師の判断を支援することができる。 In the case of this example, image quality enhancement processing is performed on the medical image in which the pixel values in the area where overcorrection occurs are lowered by performing the BC adjustment processing. With such processing, the pixel values can be lowered only in the area where overcorrection occurs, without lowering the pixel values of the entire image. Therefore, for example, overcorrection in areas such as NPA and FAZ can be suppressed, and visibility of areas such as NPA and FAZ can also be improved. In this case as well, it is possible to support the doctor's judgment regarding the distinction between noise and blood vessels in image diagnosis.

<画像処理方法の第6の例>
画像処理方法の第6の例について、図13を参照して説明する。本例では、高画質化エンジンを用いて高画質化された医用画像に対して、領域検出エンジンを用いて領域検出を行う。その後、高画質化される前の医用画像について、前述の領域検出によって検出された領域に基づくBC調整を行った上で、さらに高画質化エンジンを用いた高画質化処理を適用する画像処理について説明する。
<Sixth example of image processing method>
A sixth example of the image processing method will be described with reference to FIG. 13. In this example, an area detection engine is used to perform area detection on a medical image whose image quality has been enhanced using an image quality improvement engine. After that, for the medical image before the image quality is improved, BC adjustment is performed based on the area detected by the above-mentioned area detection, and then image processing is performed in which image quality improvement processing is applied using the image quality improvement engine. explain.

ステップS1301及びステップS1302における処理は、ステップS701及びステップS702と同様であるため、説明を省略する。ステップS1302において高画質化された医用画像が取得されると処理はステップS1303に移行する。 The processing in step S1301 and step S1302 is the same as step S701 and step S702, so a description thereof will be omitted. When the high-quality medical image is acquired in step S1302, the process moves to step S1303.

ステップS1303では、領域検出部302が、領域検出エンジンを用いて、ステップS1302で高画質化された画像に対して領域検出処理を行う。なお、検出される領域は、第1~第5の例と同様に、FAZ及びNPA等であってよい。このように、高画質化された医用画像に対して領域検出エンジンを適用することで、検出性能を向上できると期待できる。領域検出部302が検出した領域を示す情報を出力したら、ROI設定部303が、当該出力された情報に基づいて、入力画像におけるROIを設定する。なお、高画質化された医用画像における検出された領域の画素位置は、医用画像及び高画質化された医用画像において対応しているものとすることができる。 In step S1303, the area detection unit 302 uses the area detection engine to perform area detection processing on the image whose image quality has been improved in step S1302. Note that the detected area may be FAZ, NPA, etc., as in the first to fifth examples. In this way, by applying the region detection engine to medical images of high quality, it is expected that detection performance can be improved. After the region detection unit 302 outputs information indicating the detected region, the ROI setting unit 303 sets an ROI in the input image based on the output information. Note that the pixel positions of the detected areas in the high-quality medical image can be assumed to correspond in the medical image and the high-quality medical image.

次に、ステップS1304において、BC調整部305は、ステップS1301で取得した医用画像(入力画像)に対して、ステップS1303で検出した領域に基づくBC調整処理を行う。なお、BC調整処理は、第2の例で説明した処理と同様の処理であってよい。 Next, in step S1304, the BC adjustment unit 305 performs BC adjustment processing on the medical image (input image) acquired in step S1301 based on the area detected in step S1303. Note that the BC adjustment process may be similar to the process described in the second example.

最後に、ステップS1305において、高画質化処理部301が、高画質化エンジンを用いて、ステップS1303においてBC調整処理が行われた医用画像に対して高画質化処理を実行し、高画質化された医用画像を取得する。なお、ステップS1305における高画質化処理部301による高画質化処理後の画像に対して、領域の分類に基づくブレンド処理やBC調整をさらに加えてもよい。ブレンド処理やBC調整はそれぞれ第1の例及び第2の例で説明した処理と同様の処理であってよい。 Finally, in step S1305, the image quality improvement processing unit 301 uses the image quality improvement engine to perform image quality improvement processing on the medical image on which the BC adjustment processing was performed in step S1303, and the image quality is improved. Acquire medical images. Note that blending processing or BC adjustment based on region classification may be further applied to the image after the image quality enhancement processing by the image quality enhancement processing unit 301 in step S1305. The blending process and BC adjustment may be the same processes as those described in the first example and the second example, respectively.

上記のように、本例では、本例では、高画質化処理部301は、被検体の医用画像を学習データとした学習により得た高画質化モデルを用いて、被検体の医用画像の第1の画像から被検体の医用画像の第1の画像を高画質化した画像を取得する。領域検出部302は、被検体の医用画像の第1の画像を高画質化した画像における対象領域を検出する。BC調整部305は、被検体の医用画像の第1の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がBC調整処理前の対象領域の画素値より低くなるようにBC調整処理を行う。さらに、高画質化処理部301は、高画質化モデルを用いて、BC調整処理が行われた第1の画像に対して高画質化処理を行い、被検体の医用画像の高画質な第2の画像を取得する。なお、領域検出部302は、BC調整部305によりBC調整が行われていない被検体の医用画像の第1の画像を高画質化した画像を用いて対象領域を検出する。 As described above, in this example, the image quality improvement processing unit 301 uses the image quality improvement model obtained by learning using the medical image of the subject as learning data to improve the image quality of the medical image of the subject. An image obtained by increasing the quality of the first medical image of the subject is obtained from the first image. The region detection unit 302 detects a target region in an image obtained by enhancing the quality of the first image of the medical image of the subject. The BC adjustment unit 305 adjusts the pixel value of the target area so that the difference between the pixel value of the target area and the pixel value of the area other than the target area increases with respect to the target area in the first image of the medical image of the subject. The BC adjustment process is performed so that the pixel value of the target area is lower than the pixel value of the target area before the BC adjustment process. Furthermore, the image quality improvement processing unit 301 uses the image quality improvement model to perform image quality improvement processing on the first image on which the BC adjustment processing has been performed, and improves the quality of the second image of the medical image of the subject. Get the image of. Note that the area detection unit 302 detects the target area using an image obtained by increasing the quality of the first image of the medical image of the subject on which the BC adjustment has not been performed by the BC adjustment unit 305.

本例の場合には、BC調整処理が行われることで、過補正が生じる領域の画素値がより低くされた医用画像について、高画質化処理が行われる。このような処理では、画像全体の画素値を低くすることなく、過補正が生じる領域のみ画素値を低くすることができる。このため、例えば、NPAやFAZ等の領域における過補正を抑制することができ、NPA及びFAZ等の領域の視認性を向上させることもできる。この場合にも、画像診断において、ノイズか血管かの区別に関する医師の判断を支援することができる。 In the case of this example, image quality enhancement processing is performed on the medical image in which the pixel values in the area where overcorrection occurs are lowered by performing the BC adjustment processing. With such processing, the pixel values can be lowered only in the area where overcorrection occurs, without lowering the pixel values of the entire image. Therefore, for example, overcorrection in areas such as NPA and FAZ can be suppressed, and visibility of areas such as NPA and FAZ can also be improved. In this case as well, it is possible to support the doctor's judgment regarding the distinction between noise and blood vessels in image diagnosis.

以上、説明したように、高画質化エンジンと領域検出エンジンを用いた画像処理としては種々の変形が可能である。これらの説明した例は、多数の変形が可能なものであって、本開示を限定して解釈するためのものではない。例えば、医用画像の経過観察を行う場合など、検出した領域に基づくブレンド処理やBC調整処理を同じ条件に合わせる、又はこれらの条件は被検者ごとに記憶して管理してもよい。 As described above, various modifications are possible as image processing using the image quality improvement engine and the area detection engine. These illustrated examples are susceptible to many variations and are not intended to be construed as limiting the disclosure. For example, when performing follow-up observation of medical images, blend processing and BC adjustment processing based on detected regions may be performed under the same conditions, or these conditions may be stored and managed for each subject.

[第2の実施形態]
本発明の第2の実施形態に係る画像処理装置を備える画像処理システムについて図14を参照しながら詳細に説明する。図14は、本実施形態に係る一連の画像処理の流れを示すフロー図である。なお、本実施形態に係る画像処理システムの構成は、第1の実施形態に係る画像処理システムの構成と同様であるため、同一の参照番号を用いて説明を省略する。ただし、本実施形態に係る高画質化部においては、領域検出部302、ROI設定部303、ブレンド処理部304及びBC調整部305は設けられなくてよい。以下、本実施形態に係る画像処理システムについて、第1の実施形態に係る画像処理システムとの違いを中心として説明する。
[Second embodiment]
An image processing system including an image processing apparatus according to a second embodiment of the present invention will be described in detail with reference to FIG. 14. FIG. 14 is a flow diagram showing the flow of a series of image processing according to this embodiment. Note that the configuration of the image processing system according to this embodiment is similar to the configuration of the image processing system according to the first embodiment, so the same reference numerals will be used and the description will be omitted. However, in the image quality improvement unit according to this embodiment, the region detection unit 302, ROI setting unit 303, blend processing unit 304, and BC adjustment unit 305 may not be provided. The image processing system according to this embodiment will be described below, focusing on the differences from the image processing system according to the first embodiment.

第1の実施形態では、深層学習を用いた高画質化エンジンと領域検出エンジンを組み合わせて、部分的に追加の画像補正を行うことで、より好適な高画質画像を得るための方法について説明した。これに対して、本実施形態では、これらの方法を応用して構築した高画質化エンジンを用いて高画質化処理を行う構成について説明する。 In the first embodiment, a method was described for obtaining a more suitable high-quality image by combining a high-quality image engine using deep learning and a region detection engine and performing additional partial image correction. . In contrast, in this embodiment, a configuration will be described in which image quality improvement processing is performed using an image quality improvement engine constructed by applying these methods.

本実施形態に係る高画質化エンジンの機械学習アルゴリズムは、第1の実施形態に係る高画質化エンジンの機械学習アルゴリズムと同様のものであってよい。ただし、本実施形態に係る高画質化エンジンの学習データの出力データには、第1の実施形態で説明したいずれかの方法により最終的に生成した高画質画像を用いる。所定枚数の医用画像に対して、これらの処理フローを適用して高画質画像を出力し、それぞれをペアとして学習データセットを構築する。このような学習データを用いて学習を行って得た高画質化エンジンは、学習の傾向に従い、過補正が抑制された高画質画像を生成できることが期待できる。また、部分的に補正した結果を含めて一括で機械学習を行うことで、推論時の画像処理負荷が低減できると期待できる。 The machine learning algorithm of the image quality improvement engine according to this embodiment may be the same as the machine learning algorithm of the image quality improvement engine according to the first embodiment. However, the high-quality image finally generated by any of the methods described in the first embodiment is used as the output data of the learning data of the high-quality image engine according to the present embodiment. These processing flows are applied to a predetermined number of medical images to output high-quality images, and a learning data set is constructed by pairing each image. It can be expected that a high-quality image obtained by learning using such learning data can generate high-quality images in which over-correction is suppressed, following the learning tendency. Additionally, by performing machine learning all at once, including partially corrected results, it is expected that the image processing load during inference can be reduced.

図14を参照して本実施形態の画像処理装置101の処理手順について説明する。まず、ステップS1401において取得部101-1は医用画像を取得する。ステップS1401の処理はステップS701の処理と同様の処理であってよい。 The processing procedure of the image processing apparatus 101 of this embodiment will be described with reference to FIG. 14. First, in step S1401, the acquisition unit 101-1 acquires a medical image. The process in step S1401 may be similar to the process in step S701.

次に、ステップS1402において、高画質化処理部301は、前述のような学習データを用いた学習により得た高画質化エンジンを用いて、ステップS1401で取得された医用画像に対して高画質化処理を行い、高画質画像を取得する。このように取得された高画質画像は、高画質化エンジンの学習の傾向に従って、過補正が抑制された高画質画像となる。 Next, in step S1402, the image quality enhancement processing unit 301 uses the image quality enhancement engine obtained through learning using the learning data as described above to enhance the image quality of the medical image acquired in step S1401. Perform processing and obtain high-quality images. The high-quality image acquired in this manner becomes a high-quality image in which over-correction is suppressed in accordance with the learning tendency of the high-quality image engine.

上記のように、本実施形態に係る画像処理装置は、取得部101-1と、高画質化処理部301とを備える。取得部101-1は、被検体の医用画像の第1の画像を取得する。高画質化処理部301は、被検体の医用画像を学習データとする学習により得た第1の学習済モデルを用いた高画質化処理と、被検体の医用画像の対象領域におけるブレンド処理又は明るさ及びコントラストの少なくとも一方の補正処理とが行われた被検体の医用画像を学習データとする学習により得た第2の学習済モデルを用いて、第1の画像に対して高画質化処理を行い被検体の医用画像の第2の画像を取得する。この場合にも、過補正が抑制された高画質画像を生成できる。 As described above, the image processing apparatus according to this embodiment includes the acquisition section 101-1 and the image quality improvement processing section 301. The acquisition unit 101-1 acquires a first image of the medical images of the subject. The image quality improvement processing unit 301 performs image quality improvement processing using a first trained model obtained by learning using a medical image of a subject as learning data, and blending processing or brightening processing in a target area of a medical image of a subject. Image quality enhancement processing is performed on the first image using a second trained model obtained through learning using, as training data, a medical image of the subject that has been subjected to correction processing of at least one of image quality and contrast. and acquire a second image of the medical images of the subject. In this case as well, a high-quality image with suppressed overcorrection can be generated.

なお、第1の実施形態及び第2の実施形態に係るいずれかの方法によって高画質化した医用画像を用いて各種の画像解析を行うことで、より確度の高い解析を行うことができる。また、人工知能エンジンによる疾病スクリーニングについても、高画質化した画像を入力画像として利用することができ、より精度の高い処理ができると期待できる。 Note that by performing various types of image analysis using medical images whose image quality has been improved by one of the methods according to the first embodiment and the second embodiment, more accurate analysis can be performed. Furthermore, for disease screening using an artificial intelligence engine, high-quality images can be used as input images, and it is expected that more accurate processing will be possible.

[変形例1]
第1の実施形態において、領域検出部302が学習済モデルを用いて対象領域を検出する場合の学習データとしては、複数の深度範囲に対応する複数の正面画像を用いることができる。例えば、学習済モデルを用いた領域検出エンジンの学習データの入力データとして、複数の深度範囲に対応する複数のOCTA正面画像を用いることができる。なお、学習データの出力データとしては、入力データとして用いたOCTA正面画像に対応する領域ラベル画像を用いてよい。領域検出部302は、このような学習データの学習により得た共通の学習済モデルを用いることで、任意の深度範囲、例えば、検者からの指示に応じて選択された深度範囲に対応する被検体の正面画像から、2次元の対象領域を検出することができる。なお、深度範囲としては、例えば、表層、深層、外層、及び脈絡膜血管網や、基準となる層とオフセットの値を変えた異なる深度範囲等を含んでよい。また、正面画像はOCTA正面画像に限られず、En-Face画像であってもよい。
[Modification 1]
In the first embodiment, a plurality of front images corresponding to a plurality of depth ranges can be used as learning data when the region detection unit 302 detects a target region using a trained model. For example, a plurality of OCTA front images corresponding to a plurality of depth ranges can be used as input data for learning data of a region detection engine using a trained model. Note that as the output data of the learning data, a region label image corresponding to the OCTA front image used as the input data may be used. The area detection unit 302 uses a common learned model obtained by learning such learning data to detect an object corresponding to an arbitrary depth range, for example, a depth range selected according to an instruction from the examiner. A two-dimensional target area can be detected from the frontal image of the specimen. Note that the depth range may include, for example, the superficial layer, deep layer, outer layer, choroidal vascular network, and different depth ranges in which the reference layer and offset value are changed. Further, the front image is not limited to an OCTA front image, but may be an En-Face image.

また、深度範囲毎の学習データを用いて、深度範囲に対応する複数の学習済モデルを用意してもよい。この場合、領域検出部302は、複数の深度範囲に対応する被検体の複数の正面画像をそれぞれの学習データとした学習により得た複数の学習済モデルのうち、検者からの指示に応じて選択された深度範囲に対応する学習済モデルを選択し、選択された学習済モデルを用いて、被検体の正面画像から2次元の対象領域を検出してもよい。また、領域検出部302は、このような複数の学習済モデルのうち、領域検出処理に用いる医用画像の深度範囲に対応する学習済モデルを選択し、選択された学習済モデルを用いて、被検体の正面画像から2次元の対象領域を検出してもよい。 Furthermore, a plurality of trained models corresponding to the depth ranges may be prepared using learning data for each depth range. In this case, the area detection unit 302 selects one of a plurality of trained models obtained through learning using a plurality of frontal images of the subject corresponding to a plurality of depth ranges as learning data, in response to instructions from the examiner. A trained model corresponding to the selected depth range may be selected, and a two-dimensional target area may be detected from the frontal image of the subject using the selected trained model. Further, the region detection unit 302 selects a trained model corresponding to the depth range of the medical image used for region detection processing from among the plurality of trained models, and uses the selected trained model to detect the target. A two-dimensional target area may be detected from the frontal image of the specimen.

さらに、学習データとして、異なる深度範囲の正面画像を複数組み合わせて(例えば、表層側と深層側で複数の正面画像を分けて)用いてもよい。この場合も、領域検出部302は、検者からの指示に応じて選択された深度範囲又は領域検出処理に用いる医用画像の深度範囲に対応する学習済モデルを選択し、選択された学習済モデルを用いて、被検体の正面画像から2次元の対象領域を検出することができる。 Furthermore, a combination of a plurality of frontal images of different depth ranges may be used as learning data (for example, a plurality of frontal images are divided into a surface layer side and a deep layer side). In this case as well, the region detection unit 302 selects a trained model corresponding to the selected depth range or the depth range of the medical image used for region detection processing according to instructions from the examiner, and A two-dimensional target area can be detected from a frontal image of a subject using the following method.

さらに、学習済モデルを用いた領域検出エンジンの学習データの入力データとして、3次元画像を用いてもよい。例えば、学習データの入力データとして、3次元の断層画像や3次元のモーションコントラスト画像を用い、学習データの出力データとして、当該3次元の画像についてラベル付けを行った3次元の領域ラベル画像を用いることができる。この場合、領域検出部302は、被検体の3次元画像を学習データとした学習により得た学習済モデルを用いて、被検体の3次元画像から3次元の対象領域を検出することができる。 Furthermore, a three-dimensional image may be used as input data for learning data of a region detection engine using a trained model. For example, a 3-dimensional tomographic image or a 3-dimensional motion contrast image is used as the input data for the learning data, and a 3-dimensional region label image that has been labeled for the 3-dimensional image is used as the output data for the learning data. be able to. In this case, the region detection unit 302 can detect a three-dimensional target region from the three-dimensional image of the subject using a trained model obtained by learning using the three-dimensional image of the subject as learning data.

同様に、高画質化エンジンについても、3次元画像を入力データとし、高画質化した3次元画像を出力データとした学習データを用いて学習を行ってもよい。この場合、高画質化処理部301は、被検体の3次元の医用画像を学習データとした学習により得た高画質化エンジンを用いて、被検体の3次元の医用画像から高画質化した3次元画像を取得することができる。さらに、ブレンド処理部304やBC調整部305を3次元の医用画像における3次元の対象領域について各種処理を行うように構成することができる。この場合には、3次元の医用画像について処理を行うことで、第1の実施形態と同様の効果を奏することができる。また、同様に、第2の実施形態に係る高画質化エンジンの学習データに3次元画像を用いてもよい。この場合には、3次元の医用画像について処理を行うことで、第2の実施形態と同様の効果を奏することができる。 Similarly, the image quality improvement engine may be trained using learning data in which a three-dimensional image is used as input data and a three-dimensional image with improved image quality is used as output data. In this case, the image quality improvement processing unit 301 uses an image quality improvement engine obtained through learning using a three-dimensional medical image of the subject as learning data to perform high-quality image processing from the three-dimensional medical image of the subject. Dimensional images can be obtained. Furthermore, the blend processing unit 304 and the BC adjustment unit 305 can be configured to perform various processes on a three-dimensional target area in a three-dimensional medical image. In this case, the same effects as in the first embodiment can be achieved by processing the three-dimensional medical image. Similarly, a three-dimensional image may be used as learning data for the image quality improvement engine according to the second embodiment. In this case, the same effects as in the second embodiment can be achieved by processing the three-dimensional medical image.

[変形例2]
高画質化処理や領域検出処理に用いる学習済モデル(高画質化用の学習済モデル、領域検出用の学習済モデル)を被検者毎に調整(チューニング)する学習を行い、その被検者専用の学習済モデルを生成してもよい。例えば、被検者の過去の検査において取得された医用画像を用いて、高画質な医用画像を生成するための汎用的な学習済モデルや領域を検出するための汎用的な学習済モデルの転移学習を行い、その被検者専用の学習済モデルを生成することができる。被検者専用の学習済モデルを被検者のIDと紐付けて記憶部101-3やサーバ等の外部装置に記憶させておくことで、画像処理装置101は、被検者の現在の検査を行う際に、被検者のIDに基づいて被検者専用の学習済モデルを特定し、利用することができる。被検者専用の学習済モデルを用いることで、高画質化処理や領域検出処理の精度を向上させることができる。
[Modification 2]
Learning is performed to adjust (tuning) the trained models used for high image quality processing and region detection processing (trained models for high image quality, trained models for region detection) for each subject, and A dedicated trained model may also be generated. For example, using medical images acquired in past examinations of a subject, a general-purpose trained model for generating high-quality medical images or transfer of a general-purpose trained model for detecting regions It is possible to perform learning and generate a trained model specifically for that subject. By linking the trained model dedicated to the examinee with the ID of the examinee and storing it in the storage unit 101-3 or an external device such as a server, the image processing device 101 can perform the current examination of the examinee. When performing this, it is possible to specify and use a trained model dedicated to the examinee based on the examinee's ID. By using a trained model dedicated to the subject, it is possible to improve the accuracy of image quality enhancement processing and area detection processing.

[変形例3]
高画質化エンジンは、入力データである各種画像の種類毎に用意されてもよい。例えば、前眼画像用の高画質化モデルや、SLO画像用の高画質化モデル、断層画像用の高画質化モデル、OCTA正面画像用の高画質化モデル等が用意されてよい。また、OCTA正面画像やEn-Face画像については、画像を生成するための深度範囲毎に高画質化モデルが用意されてもよい。例えば、表層用の高画質化モデルや深層用の高画質化モデル等が用意されてよい。さらに、高画質化モデルは、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)毎の画像について学習を行ったものでもよいし、撮影部位に関わらず学習を行ったものであってもよい。
[Modification 3]
A high image quality engine may be prepared for each type of image that is input data. For example, a high-quality model for anterior eye images, a high-quality model for SLO images, a high-quality model for tomographic images, a high-quality model for OCTA frontal images, etc. may be prepared. Furthermore, for OCTA frontal images and En-Face images, high-quality models may be prepared for each depth range for generating images. For example, a high image quality model for the surface layer, a high image quality model for the deep layer, etc. may be prepared. Furthermore, the high image quality model may be one that is trained on images for each imaging region (for example, the center of the macula, the center of the optic disc), or may be one that is trained regardless of the imaging region. .

このとき、例えば、眼底OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、眼底OCTA正面画像を高画質化し、さらに、前眼OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、前眼OCTA正面画像を高画質化してもよい。また、高画質化モデルは、撮影部位を関わらず学習を行ったものであってもよい。ここで、例えば、眼底OCTA正面画像及び前眼OCTA正面画像は、撮影対象である血管の分布の様子が互いに比較的類似していることがある。このように、撮影対象の様子が互いに比較的類似しているような複数の種類の医用画像では、互いの特徴量が比較的類似していることがある。そこで、例えば、眼底OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、眼底OCTA正面画像を高画質化するだけでなく、前眼OCTA正面画像も高画質化可能に構成されてもよい。また、例えば、前眼OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、前眼OCTA正面画像を高画質化するだけでなく、眼底OCTA正面画像も高画質化可能に構成されてもよい。すなわち、眼底OCTA正面画像と前眼OCTA正面画像との少なくとも一つの種類の正面画像を学習データとして学習して得た高画質化モデルを用いて、眼底OCTA正面画像と前眼OCTA正面画像との少なくとも一つの種類の正面画像を高画質化可能に構成されてもよい。 At this time, for example, the image quality of the fundus OCTA front image is improved using a high-quality model obtained by learning the fundus OCTA front image as learning data, and the image quality is further increased by learning the anterior eye OCTA front image as learning data. The image quality of the anterior eye OCTA front image may be increased using the high image quality model. Furthermore, the high-image quality model may be one that is trained regardless of the part to be imaged. Here, for example, the fundus OCTA en-face image and the anterior eye OCTA en-face image may be relatively similar in the distribution of blood vessels to be photographed. In this way, in a plurality of types of medical images in which the appearance of the photographic subject is relatively similar to each other, the feature amounts may be relatively similar to each other. Therefore, for example, by using a high-quality model obtained by learning the fundus OCTA frontal image as learning data, it is possible to not only improve the image quality of the fundus OCTA frontal image but also to improve the image quality of the anterior eye OCTA frontal image. may be done. For example, by using a high-quality model obtained by learning anterior eye OCTA frontal images as learning data, it is possible to not only improve the image quality of anterior eye OCTA frontal images, but also to improve the image quality of fundus OCTA frontal images. may be configured. That is, by using a high-quality model obtained by learning at least one type of frontal image, ie, a fundus OCTA frontal image and an anterior eye OCTA frontal image, as learning data, the fundus OCTA frontal image and the anterior eye OCTA frontal image are It may be configured to be able to improve the image quality of at least one type of frontal image.

ここで、眼底撮影可能なOCT装置において、前眼も撮影可能である場合を考える。このとき、OCTAのEn-Face画像には、例えば、眼底撮影モードにおいては眼底OCTA正面画像が適用され、また、前眼部撮影モードにおいては前眼OCTA正面画像が適用されてもよい。このとき、高画質化ボタンが押下されると、例えば、眼底撮影モードにおいては、OCTAのEn-Face画像の表示領域において、低画質の眼底OCTA正面画像と高画質の眼底OCTA正面画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。また、高画質化ボタンが押下されると、例えば、前眼部撮影モードにおいては、OCTAのEn-Face画像の表示領域において、低画質の前眼OCTA正面画像と高画質の前眼OCTA正面画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。 Here, a case will be considered in which an OCT apparatus capable of photographing the fundus of the eye is also capable of photographing the anterior eye. At this time, as the OCTA En-Face image, for example, a fundus OCTA front image may be applied in the fundus photography mode, and an anterior eye OCTA front image may be applied in the anterior segment photography mode. At this time, when the high image quality button is pressed, in the fundus photography mode, for example, in the display area of the OCTA En-Face image, the difference between the low quality fundus OCTA front image and the high quality fundus OCTA front image is displayed. It may be configured such that one display is changed to the other display. In addition, when the high image quality button is pressed, for example, in the anterior segment imaging mode, a low quality anterior eye OCTA front image and a high quality anterior eye OCTA front image are displayed in the display area of the OCTA En-Face image. The display of one of these may be changed to the display of the other.

なお、眼底撮影可能なOCT装置において、前眼も撮影可能とする場合に、前眼アダプタが装着可能に構成されてもよい。また、前眼アダプタを用いずに、OCT装置の光学系が被検眼の眼軸長程度の距離、移動可能に構成されてもよい。このとき、OCT装置のフォーカス位置が前眼に結像する程度、正視側に大きく変更可能に構成されてもよい。 In addition, in an OCT apparatus capable of photographing the fundus, when the anterior eye can also be photographed, an anterior eye adapter may be configured to be attachable. Furthermore, the optical system of the OCT apparatus may be configured to be movable over a distance approximately equal to the axial length of the eye to be examined, without using an anterior ocular adapter. At this time, the focus position of the OCT apparatus may be configured to be able to be changed significantly toward the emmetropic side to the extent that an image is formed on the anterior eye.

また、断層画像には、例えば、眼底撮影モードにおいては眼底OCT断層画像が適用され、また、前眼部撮影モードにおいては前眼OCT断層画像が適用されてもよい。また、上述した眼底OCTA正面画像及び前眼OCTA正面画像の高画質化処理は、例えば、眼底OCT断層画像及び前眼OCT断層画像の高画質化処理として適用することも可能である。このとき、高画質化ボタンが押下されると、例えば、眼底撮影モードにおいては、断層画像の表示領域において、低画質の眼底OCT断層画像と高画質の眼底OCT断層画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。また、高画質化ボタンが押下されると、例えば、前眼部撮影モードにおいては、断層画像の表示領域において、低画質の前眼OCT断層画像と高画質の前眼OCT断層画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。 Further, as the tomographic image, for example, a fundus OCT tomographic image may be applied in the fundus imaging mode, and an anterior ocular OCT tomographic image may be applied in the anterior segment imaging mode. Furthermore, the above-described high-quality processing for the fundus OCTA frontal image and anterior eye OCTA frontal image can also be applied as, for example, high-quality processing for the fundus OCT tomographic image and the anterior eye OCT tomographic image. At this time, when the high image quality button is pressed, for example, in the fundus imaging mode, one of the low quality fundus OCT tomographic image and the high quality fundus OCT tomographic image is displayed in the tomographic image display area. The display may be changed to the other display. In addition, when the high image quality button is pressed, for example, in the anterior segment imaging mode, one of the low quality anterior eye OCT tomographic image and the high quality anterior eye OCT tomographic image is displayed in the tomographic image display area. The display may be changed to the other display.

また、断層画像には、例えば、眼底撮影モードにおいては眼底OCTA断層画像が適用され、また、前眼部撮影モードにおいては前眼OCTA断層画像が適用されてもよい。また、上述した眼底OCTA正面画像及び前眼OCTA正面画像の高画質化処理は、例えば、眼底OCTA断層画像及び前眼OCTA断層画像の高画質化処理として適用することも可能である。このとき、例えば、眼底撮影モードにおいては、断層画像の表示領域において、眼底OCTA断層画像における血管領域(例えば、閾値以上のモーションコントラストデータ)を示す情報が、対応する位置の眼底OCT断層画像に重畳して表示されるように構成されてもよい。また、例えば、前眼部撮影モードにおいては、断層画像の表示領域において、前眼OCTA断層画像における血管領域を示す情報が、対応する位置の前眼OCT断層画像に重畳して表示されてもよい。 Further, as the tomographic image, for example, a fundus OCTA tomographic image may be applied in the fundus imaging mode, and an anterior eye OCTA tomographic image may be applied in the anterior segment imaging mode. Furthermore, the above-described high-quality processing for the fundus OCTA frontal image and the anterior eye OCTA frontal image can also be applied as, for example, high-quality processing for the fundus OCTA tomographic image and the anterior eye OCTA tomographic image. At this time, in the fundus imaging mode, for example, in the tomographic image display area, information indicating a blood vessel region in the fundus OCTA tomographic image (for example, motion contrast data above a threshold) is superimposed on the fundus OCT tomographic image at the corresponding position. It may be configured so that it is displayed as follows. Further, for example, in the anterior segment imaging mode, information indicating a blood vessel region in the anterior eye OCTA tomographic image may be displayed superimposed on the anterior eye OCT tomographic image at the corresponding position in the tomographic image display area. .

このように、例えば、複数の種類の医用画像の特徴量(撮影対象の様子)が互いに比較的類似していると考えられるような場合には、複数の種類の医用画像の少なくとも一つの種類の医用画像を学習データとして学習して得た高画質化モデルを用いて、複数の種類の医用画像の少なくとも一つの種類の医用画像を高画質化可能に構成されてもよい。これにより、例えば、共通の学習済モデル(共通の高画質化モデル)を用いて、複数の種類の医用画像の高画質化を実行可能に構成することができる。 In this way, for example, if the feature values (states of the photographic subject) of multiple types of medical images are considered to be relatively similar, the The image quality improvement model obtained by learning medical images as learning data may be used to improve the image quality of at least one type of medical image among a plurality of types of medical images. Thereby, for example, it is possible to configure the image quality improvement of a plurality of types of medical images to be executable using a common trained model (common image quality improvement model).

なお、眼底撮影モードの表示画面と前眼部撮影モードの表示画面とは、同じ表示レイアウトであってもよいし、それぞれの撮影モードに対応する表示レイアウトであってもよい。眼底撮影モードと前眼部撮影モードとで、撮影条件や解析条件等の種々の条件が同じであってもよいし、異なっていてもよい。 Note that the display screen in the fundus photography mode and the display screen in the anterior segment photography mode may have the same display layout, or may have a display layout corresponding to each photography mode. Various conditions such as imaging conditions and analysis conditions may be the same or different between the fundus imaging mode and the anterior segment imaging mode.

ここで、高画質化処理の対象画像は、例えば、(複数の深度範囲に対応する)複数のOCTA正面画像(OCTAのEn-Face画像、モーションコントラストのEn-Face画像)であってもよい。また、高画質化処理の対象画像は、例えば、1つの深度範囲に対応する1つのOCTA正面画像であってもよい。また、高画質化処理の対象画像は、OCTA正面画像の代わりに、例えば、輝度の正面画像(輝度のEn-Face画像)、あるいはBスキャン画像であるOCT断層画像やモーションコントラストデータの断層画像(OCTA断層画像)であってもよい。また、高画質化処理の対象画像は、OCTA正面画像だけでなく、例えば、輝度の正面画像及びBスキャン画像であるOCT断層画像やモーションコントラストデータの断層画像(OCTA断層画像)等の種々の医用画像であってもよい。すなわち、高画質化処理の対象画像は、例えば、出力部103の表示画面上に表示されている種々の医用画像の少なくとも1つであればよい。このとき、例えば、画像の種類毎に画像の特徴量が異なる場合があるため、高画質化処理の対象画像の各種類に対応する高画質化用の学習済モデルが用いられてもよい。例えば、検者からの指示に応じて高画質化ボタンが押下されると、OCTA正面画像に対応する高画質化用の学習済モデルを用いてOCTA正面画像を高画質化処理するだけでなく、OCT断層画像に対応する高画質化用の学習済モデルを用いてOCT断層画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、OCTA正面画像に対応する高画質化用の学習済モデルを用いて生成された高画質なOCTA正面画像の表示に変更されるだけでなく、OCT断層画像に対応する高画質化用の学習済モデルを用いて生成された高画質なOCT断層画像の表示に変更されるように構成されてもよい。このとき、OCT断層画像の位置を示すラインがOCTA正面画像に重畳表示されるように構成されてもよい。また、上記ラインは、検者からの指示に応じてOCTA正面画像上で移動可能に構成されてもよい。また、高画質化ボタンの表示がアクティブ状態である場合には、上記ラインが移動された後に、現在のラインの位置に対応するOCT断層画像を高画質化処理して得た高画質なOCT断層画像の表示に変更されるように構成されてもよい。また、高画質化処理の対象画像毎に高画質化ボタンが表示されることで、画像毎に独立して高画質化処理可能に構成されてもよい。 Here, the target image for the image quality enhancement process may be, for example, a plurality of OCTA front images (an OCTA En-Face image, a motion contrast En-Face image) (corresponding to a plurality of depth ranges). Furthermore, the target image for the image quality enhancement process may be, for example, one OCTA front image corresponding to one depth range. Furthermore, instead of the OCTA frontal image, the target image for image quality enhancement processing may be, for example, a brightness frontal image (luminance En-Face image), an OCT tomographic image that is a B-scan image, or a tomographic image of motion contrast data ( OCTA tomographic image). In addition, target images for image quality enhancement processing are not only OCTA frontal images, but also various medical images such as OCT tomographic images, which are brightness frontal images and B-scan images, and motion contrast data tomographic images (OCTA tomographic images). It may be an image. That is, the target image for the image quality enhancement process may be at least one of various medical images displayed on the display screen of the output unit 103, for example. At this time, for example, since the feature amount of an image may differ depending on the type of image, a trained model for image quality improvement corresponding to each type of target image for image quality improvement processing may be used. For example, when a high image quality button is pressed in response to an instruction from the examiner, the OCTA frontal image is not only processed to improve its image quality using a trained model for high image quality corresponding to the OCTA frontal image. It may also be configured to perform image quality enhancement processing on OCT tomographic images using a trained model for image quality enhancement corresponding to OCT tomographic images. For example, when a high image quality button is pressed in response to an instruction from the examiner, a high quality OCTA frontal image generated using a trained model for high image quality corresponding to the OCTA frontal image is displayed. In addition to being changed to display a high-quality OCT tomographic image generated using a trained model for high-quality image corresponding to an OCT tomographic image. At this time, the configuration may be such that a line indicating the position of the OCT tomographic image is displayed superimposed on the OCTA front image. Further, the line may be configured to be movable on the OCTA frontal image according to instructions from the examiner. In addition, when the display of the high image quality button is active, a high quality OCT tomogram obtained by performing high image quality processing on the OCT tomographic image corresponding to the current line position after the above line is moved. The display may be configured to be changed to display an image. Further, by displaying an image quality improvement button for each image to be subjected to image quality improvement processing, the image quality improvement processing may be performed independently for each image.

また、OCTA断層画像における血管領域(例えば、閾値以上のモーションコントラストデータ)を示す情報が、対応する位置のBスキャン画像であるOCT断層画像に重畳して表示されてもよい。このとき、例えば、OCT断層画像が高画質化されると、対応する位置のOCTA断層画像が高画質化されてもよい。そして、高画質化して得たOCTA断層画像における血管領域を示す情報が、高画質化して得たOCT断層画像に重畳して表示されてもよい。なお、血管領域を示す情報は、色等の識別可能な情報であれば何でもよい。また、血管領域を示す情報の重畳表示と非表示とが検者からの指示に応じて変更可能に構成されてもよい。また、OCT断層画像の位置を示すラインがOCTA正面画像上で移動されると、ラインの位置に応じてOCT断層画像の表示が更新されてもよい。このとき、対応する位置のOCTA断層画像も更新されるため、OCTA断層画像から得られる血管領域を示す情報の重畳表示が更新されてもよい。これにより、例えば、任意の位置において、血管領域と注目領域との位置関係を容易に確認しながら、血管領域の3次元の分布や状態を効果的に確認することができる。また、OCTA断層画像の高画質化は、高画質化用の学習済モデルを用いる代わりに、対応する位置で取得した複数のOCTA断層画像の加算平均処理等による高画質化処理であってもよい。また、OCT断層画像は、OCTボリュームデータにおける任意の位置の断面として再構成された疑似OCT断層画像であってもよい。また、OCTA断層画像は、OCTAボリュームデータにおける任意の位置の断面として再構成された疑似OCTA断層画像であってもよい。なお、任意の位置は、少なくとも1つの任意の位置であればよく、また、検者からの指示に応じて変更可能に構成されてもよい。このとき、複数の位置に対応する複数の疑似断層画像が再構成されるように構成されてもよい。 Further, information indicating a blood vessel region in an OCTA tomographic image (for example, motion contrast data equal to or higher than a threshold value) may be displayed superimposed on an OCT tomographic image that is a B-scan image at a corresponding position. At this time, for example, when the OCT tomographic image is improved in quality, the OCTA tomographic image at the corresponding position may be improved in quality. Information indicating a blood vessel region in the OCTA tomographic image obtained by increasing the image quality may be displayed in a superimposed manner on the OCT tomographic image obtained by increasing the image quality. Note that the information indicating the blood vessel region may be any information that can be identified, such as color. Further, the superimposed display and non-display of information indicating the blood vessel region may be configured to be changeable according to instructions from the examiner. Further, when a line indicating the position of the OCT tomographic image is moved on the OCTA front image, the display of the OCT tomographic image may be updated according to the position of the line. At this time, since the OCTA tomographic image at the corresponding position is also updated, the superimposed display of information indicating the blood vessel region obtained from the OCTA tomographic image may be updated. Thereby, for example, the three-dimensional distribution and state of the blood vessel region can be effectively confirmed while easily confirming the positional relationship between the blood vessel region and the region of interest at an arbitrary position. Furthermore, instead of using a trained model for improving image quality, the image quality of the OCTA tomographic image may be improved by averaging processing of a plurality of OCTA tomographic images acquired at corresponding positions. . Further, the OCT tomographic image may be a pseudo OCT tomographic image reconstructed as a cross section at an arbitrary position in OCT volume data. Further, the OCTA tomographic image may be a pseudo OCTA tomographic image reconstructed as a cross section at an arbitrary position in the OCTA volume data. Note that the arbitrary position may be at least one arbitrary position, and may be configured to be changeable according to instructions from the examiner. At this time, the configuration may be such that a plurality of pseudo tomographic images corresponding to a plurality of positions are reconstructed.

なお、表示される断層画像(例えば、OCT断層画像あるいはOCTA断層画像)は、1つだけ表示されてもよいし、複数表示されてもよい。複数の断層画像が表示される場合には、それぞれ異なる副走査方向の位置で取得された断層画像が表示されてもよいし、例えばクロススキャン等により得られた複数の断層画像を高画質化して表示する場合には、異なる走査方向の画像がそれぞれ表示されてもよい。また、例えばラジアルスキャン等により得られた複数の断層画像を高画質化して表示する場合には、一部選択された複数の断層画像(例えば基準ラインに対して互いに対称な位置の2つの断層画像)がそれぞれ表示されてもよい。さらに、経過観察用の表示画面(フォローアップ用の表示画面)に複数の断層画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚み等)の表示が行われてもよい。このとき、表示される複数の断層画像は、被検眼の所定部位の異なる日時に得た複数の断層画像であってもよいし、同一検査日の異なる時間に得た複数の断層画像であってもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいて断層画像に高画質化処理を実行してもよい。 Note that only one tomographic image (for example, an OCT tomographic image or an OCTA tomographic image) may be displayed, or a plurality of tomographic images may be displayed. When a plurality of tomographic images are displayed, tomographic images acquired at different positions in the sub-scanning direction may be displayed, or for example, multiple tomographic images obtained by cross-scanning etc. may be of high quality. When displaying, images in different scanning directions may be displayed. In addition, when displaying a plurality of tomographic images obtained by, for example, a radial scan with high image quality, a plurality of partially selected tomographic images (for example, two tomographic images at mutually symmetrical positions with respect to a reference line) ) may be displayed respectively. Furthermore, multiple tomographic images are displayed on a display screen for follow-up observation (display screen for follow-up), and instructions for improving image quality and analysis results (for example, the thickness of a specific layer, etc.) are displayed using the same method as described above. ) may be displayed. At this time, the plurality of tomographic images displayed may be a plurality of tomographic images of a predetermined part of the subject's eye obtained at different times, or may be a plurality of tomographic images obtained at different times on the same examination day. Good too. Furthermore, image quality enhancement processing may be performed on the tomographic image based on information stored in the database using a method similar to the method described above.

同様に、SLO画像を高画質化して表示する場合には、例えば、同一の表示画面に表示されるSLO画像を高画質化して表示してもよい。さらに、輝度の正面画像を高画質化して表示する場合には、例えば、同一の表示画面に表示される輝度の正面画像を高画質化して表示してよい。さらに、経過観察用の表示画面に複数のSLO画像や輝度の正面画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚み等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいてSLO画像や輝度の正面画像に高画質化処理を実行してもよい。なお、断層画像、SLO画像、及び輝度の正面画像の表示は例示であり、これらの画像は所望の構成に応じて任意の態様で表示されてよい。また、OCTA正面画像、断層画像、SLO画像、及び輝度の正面画像の少なくとも2つ以上が、一度の指示で高画質化され表示されてもよい。 Similarly, when displaying an SLO image with high image quality, for example, the SLO images displayed on the same display screen may be displayed with high image quality. Furthermore, when displaying a bright front image with high image quality, for example, the bright front image displayed on the same display screen may be displayed with high image quality. Furthermore, multiple SLO images and brightness front images are displayed on the display screen for follow-up observation, and instructions for improving image quality and analysis results (for example, the thickness of a specific layer, etc.) are displayed using the same method as described above. may be performed. Furthermore, image quality enhancement processing may be performed on the SLO image and the brightness front image based on information stored in the database using a method similar to the method described above. Note that the display of the tomographic image, SLO image, and brightness front image are merely examples, and these images may be displayed in any manner depending on the desired configuration. Furthermore, at least two or more of the OCTA front image, tomographic image, SLO image, and luminance front image may be displayed with high image quality by a single instruction.

このような構成により、高画質化処理して得た高画質画像を表示制御部101-5が出力部103に表示させることができる。なお、高画質画像の表示、解析結果の表示、表示される正面画像の深度範囲等に関する複数の条件のうち少なくとも1つの条件が選択されている場合には、表示画面が遷移されても、選択された条件が維持されるように構成されてもよい。なお、各種高画質画像や上記ライン、血管領域を示す情報等の表示の制御は、表示制御部101-5によって行われてよい。 With such a configuration, the display control unit 101-5 can cause the output unit 103 to display a high-quality image obtained by high-quality image processing. Note that if at least one condition is selected among multiple conditions related to display of high-quality images, display of analysis results, depth range of the displayed frontal image, etc., even if the display screen changes, the selected condition will not be displayed. It may be configured such that the conditions set are maintained. Note that display control of various high-quality images, the above-mentioned lines, information indicating blood vessel regions, etc. may be performed by the display control unit 101-5.

また、高画質化モデルは、表示制御部101-5によって出力部103に表示されるプレビュー画面において、ライブ動画像のすくなくとも1つのフレーム毎に用いられてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。例えば、アライメント処理に用いる前眼画像について、前眼画像用の高画質化モデルを用いて高画質化された画像を用いてもよい。同様に各種画像における所定領域の検出処理について用いられる各種画像について、それぞれの画像用の高画質化モデルを用いて高画質化された画像を用いてもよい。 Further, the high-quality model may be used for at least one frame of the live moving image on the preview screen displayed on the output unit 103 by the display control unit 101-5. At this time, if a plurality of live moving images of different parts or types are displayed on the preview screen, a learned model corresponding to each live moving image may be used. For example, for the anterior eye image used in the alignment process, an image whose image quality has been enhanced using a high image quality model for anterior eye images may be used. Similarly, for various images used for detection processing of a predetermined area in various images, images whose image quality has been enhanced using an image quality enhancement model for each image may be used.

このとき、例えば、検者からの指示に応じて高画質化ボタンが押下された場合には、異なる種類の複数のライブ動画像(例えば、前眼画像、SLO画像、断層画像)の表示を(同時に)、それぞれ高画質化処理されることにより得た高画質動画像の表示に変更されるように構成されてもよい。このとき、高画質動画像の表示は、各フレームを高画質化処理して得た高画質画像の連続表示であってもよい。また、例えば、画像の種類毎に画像の特徴量が異なる場合があるため、高画質化処理の対象画像の各種類に対応する高画質化用の学習済モデルが用いられてもよい。例えば、検者からの指示に応じて高画質化ボタンが押下されると、前眼画像に対応する高画質化モデルを用いて前眼画像を高画質化処理するだけでなく、SLO画像に対応する高画質化モデルを用いてSLO画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、前眼画像に対応する高画質化モデルを用いて生成された高画質な前眼画像の表示に変更されるだけでなく、SLO画像に対応する高画質化モデルを用いて生成された高画質なSLO画像の表示に変更されるように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、SLO画像に対応する高画質化モデルを用いてSLO画像を高画質化処理するだけでなく、断層画像に対応する高画質化モデルを用いて断層画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、SLO画像に対応する高画質化モデルを用いて生成された高画質なSLO画像の表示に変更されるだけでなく、断層画像に対応する高画質化モデルを用いて生成された高画質な断層画像の表示に変更されるように構成されてもよい。このとき、断層画像の位置を示すラインがSLO画像に重畳表示されるように構成されてもよい。また、上記ラインは、検者からの指示に応じてSLO画像上で移動可能に構成されてもよい。また、高画質化ボタンの表示がアクティブ状態である場合には、上記ラインが移動された後に、現在のラインの位置に対応する断層画像を高画質化処理して得た高画質な断層画像の表示に変更されるように構成されてもよい。また、高画質化処理の対象画像毎に高画質化ボタンが表示されることで、画像毎に独立して高画質化処理可能に構成されてもよい。 At this time, for example, if the high image quality button is pressed in response to an instruction from the examiner, the display of multiple live video images of different types (for example, anterior ocular images, SLO images, tomographic images) will be changed to ( (at the same time), the display may be changed to a high-quality moving image obtained by each image quality enhancement process. At this time, the display of the high-quality moving image may be a continuous display of high-quality images obtained by performing high-quality processing on each frame. Further, for example, since the feature amount of an image may differ depending on the type of image, a trained model for image quality improvement corresponding to each type of target image for image quality improvement processing may be used. For example, when a high-quality image button is pressed in response to an instruction from the examiner, the high-quality model corresponding to the anterior eye image is used to not only perform high-quality processing on the anterior eye image, but also to process the SLO image. The SLO image may also be configured to be subjected to image quality enhancement processing using the image quality enhancement model. Also, for example, when a high-quality button is pressed in response to an instruction from the examiner, the display changes to a high-quality anterior eye image generated using a high-quality model corresponding to the anterior eye image. In addition, the display may be changed to display a high-quality SLO image generated using a high-quality model corresponding to the SLO image. For example, when a high image quality button is pressed in response to an instruction from the examiner, the SLO image is not only processed to improve the image quality using the high image quality model that corresponds to the SLO image, but also corresponds to the tomographic image. The configuration may also be such that tomographic images are also subjected to image quality enhancement processing using the image quality enhancement model. Also, for example, when a high-quality button is pressed in response to an instruction from the examiner, the display is simply changed to a high-quality SLO image generated using a high-quality model corresponding to the SLO image. Instead, the display may be changed to display a high-quality tomographic image generated using a high-quality model corresponding to the tomographic image. At this time, the configuration may be such that a line indicating the position of the tomographic image is displayed superimposed on the SLO image. Further, the line may be configured to be movable on the SLO image according to instructions from the examiner. In addition, when the display of the high image quality button is active, after the above line is moved, a high quality tomographic image obtained by performing high image quality processing on the tomographic image corresponding to the current line position will be displayed. The display may be changed. Further, by displaying an image quality improvement button for each image to be subjected to image quality improvement processing, the image quality improvement processing may be performed independently for each image.

これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、プレビュー画面を確認しながら操作者がアライメント位置を修正する場合に、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。また、画像処理装置101は、撮影開始に関する指示に応じて、撮影の途中あるいは撮影の最後に、セグメンテーション処理等により得たアーチファクト領域等の部分領域が再度撮影(リスキャン)されるように、上述した走査手段を駆動制御してもよい。なお、被検眼の動き等の状態によっては、1回のリスキャンでは上手く撮影できない場合があるため、所定の回数のリスキャンが繰り返されるように駆動制御されてもよい。このとき、所定の回数のリスキャンの途中でも、操作者からの指示に応じて(例えば、撮影キャンセルボタンの押下後に)リスキャンが終了されるように構成されてもよい。このとき、操作者からの指示に応じてリスキャンが終了されるまでの撮影データが保存されるように構成されてもよい。なお、例えば、撮影キャンセルボタンの押下後に確認ダイアログが表示され、撮影データの保存か、撮影データの破棄かを、操作者からの指示に応じて選択可能に構成されてもよい。また、例えば、撮影キャンセルボタンの押下後には、(現在のリスキャンは完了するまで実行されるが)次のリスキャンは実行されずに、確認ダイアログにおける操作者からの指示(入力)があるまで待機するように構成されてもよい。また、例えば、注目部位に関する物体検出結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を自動的に行うように構成されてもよい。また、例えば、注目部位に関する物体検出結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を検者からの指示に応じて実行可能な状態に変更(実行禁止状態を解除)するように構成されてもよい。 With this, for example, even for live moving images, the processing time can be shortened, so the examiner can obtain highly accurate information before starting imaging. Therefore, for example, when the operator corrects the alignment position while checking the preview screen, it is possible to reduce failures in re-imaging, etc., and thus it is possible to improve the accuracy and efficiency of diagnosis. In addition, the image processing device 101 performs the above-described process so that a partial area such as an artifact area obtained by segmentation processing or the like is re-imaged (rescanned) during or at the end of image capture in response to an instruction regarding the start of image capture. The scanning means may be driven and controlled. Note that, depending on the state of the movement of the eye to be examined, etc., it may not be possible to take a good image with one rescan, so the drive may be controlled so that the rescan is repeated a predetermined number of times. At this time, the configuration may be such that the rescanning is ended in response to an instruction from the operator (for example, after pressing the shooting cancel button) even during the rescanning a predetermined number of times. At this time, the configuration may be such that photographic data up to the end of rescanning is saved in accordance with an instruction from the operator. Note that, for example, a confirmation dialog may be displayed after the shooting cancel button is pressed, and the user can select whether to save the shooting data or discard the shooting data in accordance with an instruction from the operator. Also, for example, after pressing the shooting cancel button, the next rescan is not executed (although the current rescan is executed until it is completed), and waits until there is an instruction (input) from the operator in the confirmation dialog. It may be configured as follows. Furthermore, for example, if information indicating the certainty of object detection results regarding the region of interest (for example, a numerical value indicating a percentage) exceeds a threshold, it may be configured to automatically perform various adjustments, start shooting, etc. good. Additionally, for example, if information indicating the certainty of object detection results regarding the region of interest (e.g., a numerical value indicating a percentage) exceeds a threshold, various adjustments and the start of imaging can be performed in accordance with instructions from the examiner. It may be configured to change the state to a state (release the execution prohibited state).

ここで、オートアライメント中では、被検眼200の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン画像)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。なお、高画質化ボタンは、高画質化処理の実行を指定するためのボタンである。もちろん、高画質化ボタンは、高画質画像の表示を指示するためのボタンであってもよい。 Here, during the auto-alignment, there is a possibility that the object to be photographed, such as the retina of the eye 200 to be examined, has not been successfully imaged yet. For this reason, since there is a large difference between the medical images input to the trained model and the medical images used as learning data, there is a possibility that high-quality images cannot be obtained with high accuracy. Therefore, when an evaluation value such as image quality evaluation of a tomographic image (B-scan image) exceeds a threshold value, display of high-quality moving images (continuous display of high-quality frames) may be automatically started. Furthermore, when an evaluation value such as image quality evaluation of a tomographic image exceeds a threshold value, the image quality improvement button may be changed to a state (active state) that can be specified by the examiner. Note that the image quality improvement button is a button for specifying execution of image quality improvement processing. Of course, the high-quality image button may be a button for instructing display of a high-quality image.

また、スキャンパターン等が異なる撮影モード毎に異なる高画質化モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化モデルが用いられてもよい。 Alternatively, a different model for improving image quality may be prepared for each shooting mode with a different scan pattern, etc., and a trained model for improving image quality corresponding to the selected shooting mode may be selected. Alternatively, one image quality improvement model obtained by learning learning data including various medical images obtained in different imaging modes may be used.

ここで、眼科装置、例えばOCT装置では、撮影モード毎に測定に用いる光束のスキャンパターンや撮影部位が異なる。そのため、断層画像を入力データとする学習済モデルに関しては、撮影モード毎に学習済モデルを用意し、操作者の指示に応じて選択された撮影モードに対応する学習済モデルが選択されるように構成してもよい。この場合、撮影モードとしては、例えば、網膜撮影モード、前眼部撮影モード、硝子体撮影モード、黄斑部撮影モード、及び視神経乳頭部撮影モード、OCTA撮影モード等が含まれてよい。また、スキャンパターンとしては、3Dスキャン、ラジアルスキャン、クロススキャン、サークルスキャン、ラスタスキャン、及びリサージュスキャン(リサージュ曲線に沿った走査)等が含まれてよい。なお、OCTA撮影モードでは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように、撮影制御部101-2が上述した走査部を制御する。OCTA撮影モードでも、スキャンパターンとして、例えばラスタスキャンや、ラジアルスキャン、クロススキャン、サークルスキャン、リサージュスキャン等を設定することができる。また、断層画像を入力データとする学習済モデルに関しては、異なる方向の断面に応じた断層画像を学習データに用いて学習を行うことができる。例えば、xz方向の断面の断層画像やyz方向の断面の断層画像等を学習データに用いて学習を行ってよい。 Here, in an ophthalmological apparatus, for example, an OCT apparatus, the scan pattern of the light beam used for measurement and the imaged region differ depending on the imaging mode. Therefore, regarding trained models that use tomographic images as input data, a trained model is prepared for each imaging mode, and the trained model corresponding to the selected imaging mode is selected according to the operator's instructions. may be configured. In this case, the imaging modes may include, for example, a retina imaging mode, an anterior segment imaging mode, a vitreous body imaging mode, a macular imaging mode, an optic disc imaging mode, an OCTA imaging mode, and the like. Further, the scan pattern may include a 3D scan, a radial scan, a cross scan, a circle scan, a raster scan, a Lissajous scan (a scan along a Lissajous curve), and the like. Note that in the OCTA imaging mode, the imaging control unit 101-2 controls the above-described scanning unit so that the measurement light scans the same area (same position) of the eye to be examined multiple times. Even in the OCTA imaging mode, it is possible to set a scan pattern such as raster scan, radial scan, cross scan, circle scan, Lissajous scan, etc. Furthermore, regarding a trained model that uses tomographic images as input data, learning can be performed using tomographic images corresponding to cross sections in different directions as learning data. For example, learning may be performed using a tomographic image of a cross section in the xz direction, a tomographic image of a cross section in the yz direction, or the like as learning data.

なお、高画質化モデルによる高画質化処理の実行(又は高画質化処理して得た高画質画像の表示)の要否の判断は、表示画面に設けられる高画質化ボタンについて、操作者の指示に応じて行われてもよいし、予め記憶部101-3に記憶されている設定に応じて行われてもよい。なお、学習済モデル(高画質化モデル)を用いた高画質化処理である旨を高画質化ボタンのアクティブ状態等で表示してもよいし、その旨をメッセージとして表示画面に表示させてもよい。また、高画質化処理の実行は、眼科装置の前回の起動時における実行状態を維持してもよいし、被検者毎に前回の検査時の実行状態を維持してもよい。 In addition, the operator can determine whether or not it is necessary to execute the image quality enhancement process using the image quality enhancement model (or display a high quality image obtained by the image quality enhancement process) by clicking the image quality enhancement button provided on the display screen. This may be performed in response to an instruction, or may be performed in accordance with settings stored in advance in the storage unit 101-3. Note that the fact that the image quality enhancement process is being performed using a trained model (high image quality model) may be displayed by the active state of the image quality enhancement button, or by displaying a message to that effect on the display screen. good. Further, the execution of the image quality improvement process may be performed by maintaining the execution state at the time of the previous activation of the ophthalmological apparatus, or by maintaining the execution state at the time of the previous examination for each subject.

また、高画質化モデル等の種々の学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部101-3に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部101-3に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン画像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化エンジンにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成されてもよい。 Furthermore, moving images to which various trained models such as high-quality models can be applied are not limited to live moving images, but may also be moving images stored (saved) in the storage unit 101-3, for example. At this time, for example, a moving image obtained by aligning at least one frame of the tomographic moving image of the fundus oculi stored (saved) in the storage unit 101-3 may be displayed on the display screen. For example, if it is desired to observe the vitreous body in a suitable manner, a reference frame may be selected based on a condition such that as much of the vitreous body is present on the frame as possible. At this time, each frame is a tomographic image (B scan image) in the XZ direction. Then, a moving image in which other frames are aligned in the XZ directions with respect to the selected reference frame may be displayed on the display screen. At this time, for example, it may be configured to continuously display high-quality images (high-quality frames) that are sequentially generated by the high-quality engine for each at least one frame of the moving image.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されても良いし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン画像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層画像(Bスキャン画像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 Note that as the above-mentioned method for positioning between frames, the same method may be applied for the positioning method in the X direction and the method for positioning in the Z direction (depth direction), or different methods may be applied. may be applied. Furthermore, alignment in the same direction may be performed multiple times using different techniques; for example, rough alignment may be followed by precise alignment. In addition, as a method for positioning, for example, positioning using retinal layer boundaries obtained by segmenting a tomographic image (B-scan image) (coarse in the Z direction), and positioning using multiple retinal layer boundaries obtained by dividing a tomographic image Positioning (accurate in the X and Z directions) using correlation information (similarity) between the region and the reference image, and one-dimensional projection image generated for each tomographic image (B scan image) (in the X direction) ) alignment, alignment (in the X direction) using a two-dimensional front image, etc. Alternatively, the configuration may be such that rough alignment is performed pixel by pixel, and then fine alignment is performed subpixel by subpixel.

また、高画質化モデルは、検者からの指示に応じて設定(変更)された割合の値を学習データとする追加学習により更新されてもよい。例えば、入力画像が比較的暗いときに、高画質画像に対する入力画像の割合を検者が高く設定する傾向にあれば、学習済モデルはそのような傾向となるように追加学習することになる。これにより、例えば、検者の好みに合った合成の割合を得ることができる学習済モデルとしてカスタマイズすることができる。このとき、設定(変更)された割合の値を追加学習の学習データとして用いるか否かを、検者からの指示に応じて決定するためのボタンが表示画面に表示されていてもよい。また、学習済モデルを用いて決定された割合をデフォルトの値とし、その後、検者からの指示に応じて割合の値をデフォルトの値から変更可能となるように構成されてもよい。また、高画質化モデルは、高画質化モデルを用いて生成された少なくとも1つの高画質画像を含む学習データを追加学習して得た学習済モデルであってもよい。このとき、高画質画像を追加学習用の学習データとして用いるか否かを、検者からの指示により選択可能に構成されてもよい。 Further, the image quality improvement model may be updated by additional learning using, as learning data, a ratio value set (changed) in accordance with an instruction from the examiner. For example, if the examiner tends to set a high ratio of the input image to the high-quality image when the input image is relatively dark, the trained model will be additionally trained to adopt this tendency. Thereby, for example, it is possible to customize the model as a learned model that can obtain a synthesis ratio that matches the examiner's preference. At this time, a button may be displayed on the display screen for determining whether or not to use the set (changed) ratio value as learning data for additional learning in accordance with an instruction from the examiner. Alternatively, the ratio determined using the trained model may be set as a default value, and the ratio value may then be changed from the default value in response to an instruction from the examiner. Further, the high-quality model may be a trained model obtained by additionally learning learning data including at least one high-quality image generated using the high-quality model. At this time, it may be possible to select whether or not to use the high-quality image as learning data for additional learning based on an instruction from the examiner.

[変形例4]
画像特徴取得部101-44、抽出部101-462、及び領域検出部302は、画像セグメンテーション用の学習済モデルを用いてラベル画像を生成し、画像セグメンテーション処理を行ってもよい。ここでラベル画像とは、当該断層画像について画素毎に領域のラベルが付されたラベル画像をいう。具体的には、取得された画像に描出されている領域群のうち、任意の領域を特定可能な画素値(以下、ラベル値)群によって分けている画像のことである。ここで、特定される任意の領域には関心領域や関心体積(VOI:Volume Of Interest)等が含まれる。
[Modification 4]
The image feature acquisition unit 101-44, the extraction unit 101-462, and the area detection unit 302 may generate a label image using a trained model for image segmentation and perform image segmentation processing. Here, the label image refers to a label image in which a region label is attached to each pixel of the tomographic image. Specifically, it is an image in which arbitrary regions among a group of regions depicted in an acquired image are divided by a group of identifiable pixel values (hereinafter referred to as label values). Here, the specified arbitrary region includes a region of interest, a volume of interest (VOI), and the like.

画像から任意のラベル値を持つ画素の座標群を特定すると、画像中において対応する網膜層等の領域を描出している画素の座標群を特定できる。具体的には、例えば、網膜を構成する神経節細胞層を示すラベル値が1である場合、画像の画素群のうち画素値が1である座標群を特定し、画像から該座標群に対応する画素群を抽出する。これにより、当該画像における神経節細胞層の領域を特定できる。 By specifying a coordinate group of pixels having arbitrary label values from an image, it is possible to specify a coordinate group of pixels that depict a corresponding region such as a retinal layer in the image. Specifically, for example, if the label value indicating the ganglion cell layer constituting the retina is 1, a coordinate group with a pixel value of 1 is identified among the pixel groups of the image, and the coordinate group corresponding to this coordinate group is determined from the image. Extract a group of pixels. Thereby, the region of the ganglion cell layer in the image can be specified.

なお、画像セグメンテーション処理には、ラベル画像に対する縮小又は拡大処理を実施する処理が含まれてもよい。このとき、ラベル画像の縮小又は拡大に用いる画像補完処理手法は、未定義のラベル値や対応する座標に存在しないはずのラベル値を誤って生成しないような、最近傍法等を使うものとする。 Note that the image segmentation process may include a process of reducing or enlarging the label image. At this time, the image complementation processing method used to reduce or enlarge the label image shall use the nearest neighbor method, etc., so as not to erroneously generate undefined label values or label values that should not exist at the corresponding coordinates. .

画像セグメンテーション処理とは、画像に描出された臓器や病変といった、ROI(Region Of Interest)やVOIと呼ばれる領域を、画像診断や画像解析に利用するために特定する処理のことである。例えば、画像セグメンテーション処理によれば、後眼部を撮影対象としたOCTの撮影によって取得された画像から、網膜を構成する層群の領域群を特定することができる。なお、画像に特定すべき領域が描出されていなければ特定される領域の数は0である。また、画像に特定すべき複数の領域群が描出されていれば、特定される領域の数は複数であってもよいし、又は、該領域群を含むように囲む領域1つであってもよい。 Image segmentation processing is a process of identifying a region called a ROI (Region of Interest) or VOI, such as an organ or lesion depicted in an image, for use in image diagnosis or image analysis. For example, according to image segmentation processing, it is possible to specify a group of regions of a group of layers constituting the retina from an image acquired by OCT imaging of the posterior segment of the eye. Note that if the area to be specified is not depicted in the image, the number of areas to be specified is 0. Furthermore, if a plurality of region groups to be specified are depicted in the image, the number of regions to be specified may be plural, or even one area surrounding the region group may be specified. good.

特定された領域群は、その他の処理において利用可能な情報として出力される。具体的には、例えば、特定された領域群のそれぞれを構成する画素群の座標群を数値データ群として出力することができる。また、例えば、特定された領域群のそれぞれを含む矩形領域や楕円領域、長方体領域、楕円体領域等を示す座標群を数値データ群として出力することもできる。さらに、例えば、特定された領域群の境界にあたる直線や曲線、平面、又は曲面等を示す座標群を数値データ群として出力することもできる。また、例えば、特定された領域群を示すラベル画像を出力することもできる。 The identified region group is output as information that can be used in other processes. Specifically, for example, a group of coordinates of a group of pixels constituting each of the specified group of regions can be output as a group of numerical data. Further, for example, a coordinate group indicating a rectangular area, an elliptical area, a rectangular area, an ellipsoidal area, etc. including each of the identified area groups can be output as a numerical data group. Furthermore, for example, a coordinate group indicating a straight line, curve, plane, curved surface, etc. that is the boundary of the specified region group can be output as a numerical data group. Furthermore, for example, a label image indicating the specified region group can also be output.

ここで、画像セグメンテーション用の機械学習モデルとしては、例えば、畳み込みニューラルネットワーク(CNN)を用いることができる。なお、本変形例で用いるCNNの構成は、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU-net型の機械学習モデルとすることができる。U-net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 Here, as a machine learning model for image segmentation, for example, a convolutional neural network (CNN) can be used. Note that the configuration of the CNN used in this modification is a U-net network that has an encoder function consisting of a plurality of layers including a plurality of downsampling layers, and a decoder function consisting of a plurality of layers including a plurality of upsampling layers. It can be a type of machine learning model. In the U-net type machine learning model, position information (spatial information) that is made ambiguous in multiple layers configured as encoders is transferred to layers of the same dimension (layers that correspond to each other) in multiple layers configured as decoders. ) (e.g., using skip connections).

また、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。CNNのこれらのステップを通して、撮影画像の特徴を抽出することができる。 Further, as an example of changing the configuration of the CNN, for example, a batch normalization layer or an activation layer using a normalized linear function (Rectifier Linear Unit) may be incorporated after the convolution layer. Through these steps of CNN, features of the captured image can be extracted.

なお、本変形例に係る機械学習モデルとしては、例えば、CNN(U-net型の機械学習モデル)、CNNとLSTMを組み合わせたモデル、FCN(Fully Convolutional Network)、又はSegNet等を用いることができる。また、所望の構成に応じて、物体認識を行う機械学習モデル等を用いることもできる。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルを用いることもできる。領域単位で物体認識を行う機械学習モデルとしては、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Note that as the machine learning model according to this modification, for example, CNN (U-net type machine learning model), a model that combines CNN and LSTM, FCN (Fully Convolutional Network), SegNet, etc. can be used. . Furthermore, depending on the desired configuration, a machine learning model or the like that performs object recognition can also be used. As a machine learning model for object recognition, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Furthermore, a machine learning model that performs object recognition in area units can also be used. As a machine learning model that performs object recognition in area units, YOLO (You Only Look Once) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used.

また、画像セグメンテーション用の機械学習モデルの学習データは、OCTにより取得された断層画像を入力データとし、当該断層画像について画素毎に領域のラベルが付されたラベル画像を出力データとする。ラベル画像としては、例えば、内境界膜(ILM)、神経線維層(NFL)、神経節細胞層(GCL)、視細胞内節外節接合部(ISOS)、網膜色素上皮層(RPE)、ブルッフ膜(BM)、及び脈絡膜等のラベルが付されたラベル画像を用いることができる。なお、その他の領域として、例えば、硝子体、強膜、外網状層(OPL)、外顆粒層(ONL)、内網状層(IPL)、内顆粒層(INL)、角膜、前房、虹彩、及び水晶体等のラベルが付された画像を用いてもよい。 Further, the learning data of the machine learning model for image segmentation uses a tomographic image acquired by OCT as input data, and uses as output data a labeled image in which a region label is attached to each pixel of the tomographic image. Label images include, for example, the internal limiting membrane (ILM), nerve fiber layer (NFL), ganglion cell layer (GCL), photoreceptor inner segment outer segment junction (ISOS), retinal pigment epithelial layer (RPE), Bruch Label images labeled with membranes (BM), choroid, etc. can be used. In addition, other regions include, for example, the vitreous body, sclera, outer plexiform layer (OPL), outer nuclear layer (ONL), inner plexiform layer (IPL), inner nuclear layer (INL), cornea, anterior chamber, iris, An image labeled with a crystalline lens or the like may also be used.

また、画像セグメンテーション用の機械学習モデルの入力データは断層画像に限られない。前眼画像やSLO画像、OCTA画像等であってもよい。この場合、学習データは、各種画像を入力データとし、各種画像の画素毎に領域名等がラベル付けされたラベル画像を出力データとすることができる。例えば、学習データの入力データがSLO画像である場合には、出力データは、視神経乳頭の周辺部、Disc、及びCup等のラベルが付された画像であってよい。 Furthermore, input data for a machine learning model for image segmentation is not limited to tomographic images. It may be an anterior eye image, an SLO image, an OCTA image, or the like. In this case, the learning data can be input data of various images, and can be output data of label images in which region names and the like are labeled for each pixel of the various images. For example, when the input data of the learning data is an SLO image, the output data may be an image labeled with the periphery of the optic disc, Disc, Cup, or the like.

なお、出力データとして用いられるラベル画像は、医師等により断層画像において各領域にラベルが付された画像であってもよいし、ルールベースの領域検出処理により各領域にラベルが付された画像であってもよい。ただし、適切にラベル付けが行われていないラベル画像を学習データの出力データとして用いて機械学習を行うと、当該学習データを用いて学習した学習済モデルを用いて得た画像も適切にラベル付けが行われていないラベル画像となってしまう可能性がある。そのため、そのようなラベル画像を含むペアを学習データから取り除くことで、学習済モデルを用いて適切でないラベル画像が生成される可能性を低減させることができる。ここで、ルールベースの領域検出処理とは、例えば網膜の形状の規則性等の既知の規則性を利用した検出処理をいう。 Note that the labeled image used as output data may be an image in which each region in a tomographic image has been labeled by a doctor or the like, or an image in which each region has been labeled by a rule-based region detection process. There may be. However, if machine learning is performed using label images that are not properly labeled as output data of training data, images obtained using a trained model trained using the training data will also be labeled appropriately. There is a possibility that you will end up with a label image that has not been subjected to this process. Therefore, by removing pairs including such label images from the training data, it is possible to reduce the possibility that inappropriate label images will be generated using the trained model. Here, the rule-based area detection process refers to a detection process that utilizes known regularities, such as regularities in the shape of the retina, for example.

画像特徴取得部101-44、抽出部101-462、及び領域検出部302は、このような画像セグメンテーション用の学習済モデルを用いて、画像セグメンテーション処理を行うことで、各種画像について特定の領域を高速に精度良く検出することが期待できる。なお、画像セグメンテーション用の学習済モデルも、入力データである各種画像の種類毎に用意されてもよい。また、OCTA正面画像やEn-Face画像については、画像を生成するための深度範囲毎に学習済モデルが用意されてもよい。さらに、画像セグメンテーション用の学習済モデルも、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)毎の画像について学習を行ったものでもよいし、撮影部位を関わらず学習を行ったものであってもよい。 The image feature acquisition unit 101-44, the extraction unit 101-462, and the area detection unit 302 perform image segmentation processing using such trained models for image segmentation to identify specific areas in various images. It is expected that high-speed and accurate detection will be possible. Note that a trained model for image segmentation may also be prepared for each type of image that is input data. Furthermore, for OCTA frontal images and En-Face images, trained models may be prepared for each depth range for generating images. Furthermore, the trained model for image segmentation may be one that has been trained on images for each imaging region (for example, the center of the macula, the center of the optic disc), or one that has been trained regardless of the imaging region. It's okay.

また、画像セグメンテーション用の学習済モデルについては、操作者の指示に応じて手動で修正されたデータを学習データとして追加学習が行われてもよい。また、追加学習の要否の判断やサーバにデータを送信するか否かの判断も同様の方法で行われてよい。これらの場合にも、各処理の精度を向上させたり、検者の好みの傾向に応じた処理を行えたりすることが期待できる。 Furthermore, additional learning may be performed on the learned model for image segmentation using data that has been manually corrected according to an operator's instructions as learning data. Furthermore, the determination of whether additional learning is necessary and the determination of whether or not to transmit data to the server may be performed in a similar manner. In these cases as well, it can be expected that the accuracy of each process can be improved and that processes can be performed in accordance with the examiner's preferences.

さらに、画像処理装置101は、学習済モデルを用いて、被検眼200の部分領域(例えば、注目部位、アーチファクト領域、異常部位等)を検出する場合には、検出した部分領域毎に所定の画像処理を施すこともできる。例として、硝子体領域、網膜領域、及び脈絡膜領域のうちの少なくとも2つの部分領域を検出する場合について述べる。この場合には、検出された少なくとも2つの部分領域に対してコントラスト調整等の画像処理を施す際に、それぞれ異なる画像処理のパラメータを用いることで、各領域に適した調整を行うことができる。各領域に適した調整が行われた画像を表示することで、操作者は部分領域毎の疾病等をより適切に診断することができる。なお、検出された部分領域毎に異なる画像処理のパラメータを用いる構成については、学習済モデルを用いずに被検眼200の部分領域を検出して求めた被検眼200の部分領域について同様に適用されてもよい。 Further, when detecting a partial region (for example, a region of interest, an artifact region, an abnormal region, etc.) of the eye 200 using the learned model, the image processing device 101 generates a predetermined image for each detected partial region. Treatment can also be applied. As an example, a case will be described in which at least two partial regions of the vitreous region, the retinal region, and the choroid region are detected. In this case, when performing image processing such as contrast adjustment on the at least two detected partial regions, by using different image processing parameters, adjustment suitable for each region can be performed. By displaying images that have been adjusted appropriately for each region, the operator can more appropriately diagnose diseases, etc. for each partial region. Note that the configuration in which different image processing parameters are used for each detected partial region is similarly applied to the partial region of the eye 200 to be examined that is obtained by detecting the partial region of the eye 200 without using a trained model. You can.

[変形例5]
上述した様々な実施形態及び変形例における表示制御部101-5は、断層画像撮影後に表示画面のレポート画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、毛細血管領域、動脈領域、静脈領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。ここで、注目部位は、例えば、Haller層における血管(脈絡膜領域の一部の深度範囲における血管の一例)の眼外への流出口である渦静脈等であってもよい。このとき、注目部位に関するパラメータは、例えば、渦静脈の個数(例えば、領域毎の個数)や、視神経乳頭部から各渦静脈までの距離、視神経乳頭を中心とする各渦静脈の位置する角度等であってもよい。これにより、例えば、Pachychoroid(肥厚した脈絡膜)に関する種々の疾患(例えば、脈絡膜新生血管症)等を精度よく診断することが可能となる。また、例えば、各種のアーチファクトの低減処理が適用された医用画像を解析することで、上述した種々の解析結果を精度の良い解析結果として表示させることができる。なお、アーチファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーチファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーチファクト等であってもよい。また、アーチファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、表示制御部101-5は、上述したような様々なアーチファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として出力部103に表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、及びシュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。また、標準データベースを用いて得た標準値や標準範囲と、解析結果とを比較して得た比較結果が表示されてもよい。
[Modification 5]
The display control unit 101-5 in the various embodiments and modifications described above may display analysis results such as the thickness of a desired layer and various blood vessel densities on the report screen of the display screen after tomographic imaging. . In addition, the optic disc, macular area, blood vessel area, capillary area, artery area, vein area, nerve fiber bundle, vitreous area, macular area, choroid area, sclera area, lamina cribrosa area, retinal layer boundary, retina Values (distribution) of parameters related to the region of interest, including at least one of layer boundary edges, photoreceptor cells, blood cells, blood vessel walls, inner vessel wall boundaries, outer vessel boundaries, ganglion cells, corneal regions, angle regions, Schlemm's canal, etc. may be displayed as the analysis result. Here, the site of interest may be, for example, a vortex vein that is an outlet of a blood vessel in the Haller layer (an example of a blood vessel in a depth range of a part of the choroidal region) to the outside of the eye. At this time, parameters related to the region of interest include, for example, the number of vortex veins (for example, the number of vortex veins in each region), the distance from the optic disc to each vortex vein, the angle at which each vortex vein is located around the optic disc, etc. It may be. This makes it possible to accurately diagnose, for example, various diseases related to pachychoroid (thickened choroid) (eg, choroidal neoangiopathy). Further, for example, by analyzing a medical image to which various artifact reduction processes have been applied, the various analysis results described above can be displayed as highly accurate analysis results. Note that artifacts include, for example, false image areas caused by light absorption by blood vessel areas, projection artifacts, and band-shaped artifacts in the front image that occur in the main scanning direction of the measurement light due to the condition of the eye being examined (movement, blinking, etc.). There may be. Furthermore, the artifact may be of any type, as long as it is a defective area that randomly appears on a medical image of a predetermined region of a subject each time the image is taken. Furthermore, the display control unit 101-5 may cause the output unit 103 to display values (distribution) of parameters regarding an area including at least one of the various artifacts (unselected areas) as described above as an analysis result. Further, the values (distribution) of parameters regarding a region including at least one of abnormal sites such as drusen, new blood vessels, vitiligo (hard vitiligo), and pseudodrusen may be displayed as an analysis result. Further, a comparison result obtained by comparing the standard value or standard range obtained using the standard database with the analysis result may be displayed.

また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。 Further, the analysis results may be displayed as an analysis map, sectors showing statistical values corresponding to each divided area, or the like. Note that the analysis results may be generated using a trained model (analysis result generation engine, trained model for analysis result generation) obtained by learning the analysis results of medical images as learning data. . At this time, the trained model is trained using learning data that includes a medical image and the analysis result of the medical image, or learning data that includes the medical image and the analysis result of a different type of medical image than the medical image. It may be obtained by

また、画像解析を行うための学習データは、画像セグメンテーション処理用の学習済モデルを用いて生成されたラベル画像と、当該ラベル画像を用いた医用画像の解析結果とを含んだものでもよい。この場合、画像処理装置101は、例えば、解析結果生成用の学習済モデルを用いて、画像セグメンテーション処理の結果から、断層画像の解析結果を生成する、解析結果生成部の一例として機能することができる。さらに、学習済モデルは、輝度のEn-Face画像及びモーションコントラスト正面画像(OCTAのEn-Face画像)のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。 Further, the learning data for performing image analysis may include a label image generated using a trained model for image segmentation processing and an analysis result of a medical image using the label image. In this case, the image processing device 101 may function as an example of an analysis result generation unit that generates analysis results of tomographic images from the results of image segmentation processing using, for example, a trained model for analysis result generation. can. Furthermore, the trained model uses learning data that includes input data that is a set of multiple medical images of different types of a predetermined region, such as a brightness En-Face image and a motion contrast frontal image (OCTA En-Face image). It may be obtained through learning using .

また、高画質化モデルを用いて生成された高画質画像を用いて得た解析結果が表示されるように構成されてもよい。この場合、学習データに含まれる入力データとしては、高画質化用の学習済モデルを用いて生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。なお、学習データは、学習済モデルを用いて高画質化された画像について、手動又は自動で少なくとも一部に修正が施された画像であってもよい。 Further, it may be configured such that analysis results obtained using high-quality images generated using a high-quality model are displayed. In this case, the input data included in the training data may be a high-quality image generated using a trained model for high-quality images, or a set of a low-quality image and a high-quality image. Good too. Note that the learning data may be an image that has been manually or automatically modified at least in part with respect to an image that has been enhanced in quality using a trained model.

また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, at least analysis values obtained by analyzing the analysis region (e.g., average value, median value, etc.), a table containing the analysis values, an analysis map, the position of the analysis region such as a sector in an image, etc. The input data may be labeled (annotated) with information including one as the correct data (for supervised learning). Note that the configuration may be such that analysis results obtained using a learned model for generating analysis results are displayed in response to instructions from the operator.

また、上述した実施形態及び変形例における表示制御部101-5は、表示画面のレポート画面において、糖尿病網膜症や、緑内障、加齢黄斑変性症等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果は、特定された異常部位等の位置を画像上に表示されてもよいし、異常部位の状態等を文字等によって表示されてもよい。さらに、異常部位等の分類結果(例えば、カーティン分類)を診断結果として表示させてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。また、診断結果は、被検者の今後の診療方針等に関する情報であってもよい。また、診断結果は、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、及び診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報であってもよい。このとき、例えば、検者からの指示に応じて入力された診断名等の診断結果よりも確からしい診断結果を医用支援情報として表示させてもよい。また、複数の種類の医用画像が用いられた場合には、例えば、診断結果の根拠となり得る種類の医用画像が識別可能に表示されてもよい。また、診断結果の根拠としては、学習済モデルが抽出した特徴量を可視化したマップ(注意マップ、活性化マップ)で、例えば、特徴量をカラーで示したカラーマップ(ヒートマップ)であってもよい。このとき、例えば、入力データとした医用画像にヒートマップを重畳表示させてもよい。なお、ヒートマップは、例えば、予測(推定)されるクラスの出力値への寄与が大きい領域(勾配が大きい領域)を可視化する手法であるGrad-CAM(Gradient-weighted Class Activation Mapping)やGuided Grad-CAM等を用いて得ることができる。 Furthermore, the display control unit 101-5 in the embodiments and modifications described above may display various diagnostic results such as diabetic retinopathy, glaucoma, age-related macular degeneration, etc. on the report screen of the display screen. At this time, for example, by analyzing a medical image to which the various artifact reduction processes described above have been applied, highly accurate diagnostic results can be displayed. In addition, the diagnosis result may be displayed by displaying the position of the identified abnormal region on the image, or by displaying the state of the abnormal region by text or the like. Furthermore, the classification results (for example, Curtin classification) of abnormal parts, etc. may be displayed as the diagnosis results. Further, as the classification result, for example, information indicating the probability of each abnormal site (for example, a numerical value indicating a ratio) may be displayed. Further, information necessary for a doctor to confirm a diagnosis may be displayed as a diagnosis result. The necessary information may include, for example, advice on additional photography. For example, if an abnormal site is detected in a blood vessel region in an OCTA image, a message may be displayed to the effect that fluorescence imaging using a contrast agent that allows the blood vessels to be observed in more detail than in OCTA will be performed. Further, the diagnosis result may be information regarding the subject's future medical treatment policy, etc. In addition, the diagnosis results include, for example, the diagnosis name, the type and condition (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion relative to the region of interest, findings (image interpretation findings, etc.), and the basis for the diagnosis name (positive The information may include at least one of the following: negative medical support information, etc.), and grounds for denying the diagnosis (negative medical support information). At this time, for example, a diagnosis result that is more likely than a diagnosis result such as a diagnosis name input in response to an instruction from the examiner may be displayed as medical support information. Furthermore, when a plurality of types of medical images are used, for example, the type of medical image that can serve as the basis for the diagnosis result may be displayed in an identifiable manner. In addition, the basis for the diagnosis result is a map (attention map, activation map) that visualizes the features extracted by the trained model, such as a color map (heat map) that shows the features in color. good. At this time, for example, a heat map may be displayed superimposed on the medical image used as input data. Note that heat maps are, for example, Gradient-weighted Class Activation Mapping (Gradient-weighted Class Activation Mapping) and Guided Grad, which are methods for visualizing areas that have a large contribution to the output value of the predicted (estimated) class (areas with large gradients). - Can be obtained using CAM etc.

なお、診断結果は、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。 Note that the diagnostic results may be generated using a trained model (a diagnostic result generation engine, a trained model for generating diagnostic results) obtained by learning the diagnostic results of medical images as learning data. . In addition, the trained model is trained using training data that includes a medical image and the diagnosis result of the medical image, or training data that includes the medical image and the diagnosis result of a different type of medical image than the medical image. It may be something you have obtained.

また、学習データは、領域認識エンジンやセグメンテーション処理用の学習済モデルを用いて生成されたラベル画像と、当該ラベル画像を用いた医用画像の診断結果とを含んだものでもよい。この場合、画像処理装置101は、例えば、診断結果生成用の学習済モデルを用いて、画像セグメンテーション処理の結果から、断層画像の診断結果を生成する、診断結果生成部の一例として機能することができる。 Further, the learning data may include a label image generated using a region recognition engine or a trained model for segmentation processing, and a diagnosis result of a medical image using the label image. In this case, the image processing device 101 may function as an example of a diagnostic result generation unit that generates diagnostic results of tomographic images from the results of image segmentation processing using, for example, a trained model for generating diagnostic results. can.

さらに、高画質化エンジンを用いて生成された高画質画像を用いて得た診断結果が表示されるように構成されてもよい。この場合、学習データに含まれる入力データとしては、高画質化エンジンを用いて生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。なお、学習データは、学習済モデルを用いて高画質化された画像について、手動又は自動で少なくとも一部に修正が施された画像であってもよい。 Furthermore, the system may be configured to display diagnostic results obtained using high-quality images generated using a high-quality image engine. In this case, the input data included in the learning data may be a high-quality image generated using a high-quality engine, or may be a set of a low-quality image and a high-quality image. Note that the learning data may be an image that has been manually or automatically modified at least in part with respect to an image that has been enhanced in quality using a trained model.

また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータを用いてもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルを用いて得た診断結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, the diagnosis name, the type and condition (degree) of the lesion (abnormal part), the position of the lesion in the image, the position of the lesion relative to the region of interest, findings (image interpretation findings, etc.), and the basis for the diagnosis name (positive The input data is labeled (annotated) as the correct data (for supervised learning), including at least one of the following: (medical support information, etc.), grounds for denying the diagnosis (negative medical support information), etc. Data may also be used. Note that the configuration may be such that the diagnostic results obtained using the trained model for generating diagnostic results are displayed in response to instructions from the examiner.

なお、入力データとして用いる情報毎又は情報の種類毎に学習済モデルを用意し、学習済モデルを用いて、診断結果を取得してもよい。この場合、各学習済モデルから出力された情報に統計的な処理を行い、最終的な診断結果を決定してもよい。例えば、各学習済モデルから出力された情報の割合を各種類の情報毎に加算し、他の情報よりも割合の合計が高い情報を最終的な診断結果として決定してもよい。なお、統計的な処理は合計の算出に限られず、平均値や中央値の算出等であってもよい。また、例えば、各学習済モデルから出力された情報のうち、他の情報よりも割合の高い情報(最も割合の高い情報)を用いて診断結果を決定してもよい。同様に、各学習済モデルから出力された情報のうち、閾値以上である割合の情報を用いて診断結果を決定してもよい。 Note that a trained model may be prepared for each type of information or information used as input data, and the diagnostic results may be obtained using the trained model. In this case, the final diagnosis result may be determined by performing statistical processing on the information output from each learned model. For example, the ratio of information output from each trained model may be added for each type of information, and information with a higher total ratio than other information may be determined as the final diagnosis result. Note that the statistical processing is not limited to calculation of the total, but may also be calculation of the average value, median value, etc. Furthermore, for example, the diagnosis result may be determined using information that has a higher ratio than other information (information that has the highest ratio) among the information output from each trained model. Similarly, the diagnosis result may be determined using information whose proportion is equal to or greater than a threshold among the information output from each trained model.

また、操作者の指示(選択)に応じて、決定された診断結果の良否の判定(承認)が可能に構成されてもよい。また、操作者の指示(選択)に応じて、各学習済モデルから出力された情報から診断結果を決定してもよい。このとき、例えば、表示制御部101-5が、各学習済モデルから出力された情報及びその割合を並べて出力部103に表示させてもよい。そして、操作者が、例えば、他の情報よりも割合の高い情報を選択することにより、選択された情報を診断結果として決定するように構成されてもよい。さらに、各学習済モデルから出力された情報から、機械学習モデルを用いて、診断結果を決定してもよい。この場合には、機械学習アルゴリズムとして、診断結果生成に用いられた機械学習アルゴリズムとは異なる種類の機械学習アルゴリズムであってもよく、例えば、ニューラルネットワーク、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。 Further, it may be configured such that it is possible to determine (approve) the quality of the determined diagnostic result in accordance with the operator's instruction (selection). Furthermore, the diagnosis result may be determined from the information output from each trained model in accordance with an instruction (selection) by the operator. At this time, for example, the display control unit 101-5 may cause the output unit 103 to display the information output from each learned model and its ratio side by side. Then, the operator may select, for example, information with a higher percentage than other information, and thereby determine the selected information as the diagnosis result. Furthermore, a machine learning model may be used to determine the diagnosis result from the information output from each learned model. In this case, the machine learning algorithm may be a different type of machine learning algorithm from the machine learning algorithm used to generate the diagnostic results, such as a neural network, support vector machine, AdaBoost, Bayesian network, or random Forest et al. may be used.

なお、上述した種々の学習済モデルの学習は、教師あり学習(ラベル付きの学習データで学習)だけでなく、半教師あり学習であってもよい。半教師あり学習は、例えば、複数の識別器(分類器)がそれぞれ教師あり学習を行った後、ラベルのない学習データを識別(分類)し、識別結果(分類結果)の信頼度に応じて(例えば、確からしさが閾値以上の識別結果を)自動的にラベル付け(アノテーション)し、ラベル付けされた学習データで学習を行う手法である。半教師あり学習は、例えば、共訓練(Co-Training、あるいはMultiview)であってもよい。このとき、診断結果生成用の学習済モデルは、例えば、正常な被検体の医用画像を識別する第1の識別器と、特定の病変を含む医用画像を識別する第2の識別器とを用いて半教師あり学習(例えば、共訓練)して得た学習済モデルであってもよい。なお、診断目的に限らず、例えば撮影支援等を目的としてもよい。この場合、第2の識別器は、例えば、注目部位やアーチファクト領域等の部分領域を含む医用画像を識別するものであってもよい。 Note that the learning of the various trained models described above may be performed not only by supervised learning (learning using labeled learning data) but also by semi-supervised learning. In semi-supervised learning, for example, multiple classifiers (classifiers) each perform supervised learning, then identify (classify) the unlabeled learning data, and then classify the data according to the reliability of the classification result (classification result). This is a method that automatically labels (annotates) identification results (for example, identification results whose certainty is higher than a threshold) and performs learning using the labeled learning data. Semi-supervised learning may be, for example, co-training or multiview. At this time, the trained model for generating diagnostic results uses, for example, a first classifier that identifies medical images of normal subjects and a second classifier that identifies medical images that include a specific lesion. It may also be a trained model obtained by semi-supervised learning (for example, co-training). Note that the purpose is not limited to diagnosis, but may also be used, for example, to support imaging. In this case, the second classifier may, for example, identify a medical image that includes a partial region such as a region of interest or an artifact region.

また、上述した様々な実施形態及び変形例に係る表示制御部101-5は、表示画面のレポート画面において、上述したような注目部位、アーチファクト領域、及び異常部位等の部分領域の物体認識結果(物体検出結果)やセグメンテーション結果を表示させてもよい。このとき、例えば、画像上の物体の周辺に矩形の枠等を重畳して表示させてもよい。また、例えば、画像における物体上に色等を重畳して表示させてもよい。なお、物体認識結果やセグメンテーション結果は、物体認識やセグメンテーションを示す情報を正解データとして医用画像にラベル付け(アノテーション)した学習データを学習して得た学習済モデル(物体認識エンジン、物体認識用の学習済モデル、セグメンテーションエンジン、セグメンテーション用の学習済モデル)を用いて生成されたものであってもよい。なお、上述した解析結果生成や診断結果生成は、上述した物体認識結果やセグメンテーション結果を利用することで得られたものであってもよい。例えば、物体認識やセグメンテーションの処理により得た注目部位に対して解析結果生成や診断結果生成の処理を行ってもよい。 In addition, the display control unit 101-5 according to the various embodiments and modifications described above also displays object recognition results ( Object detection results) or segmentation results may also be displayed. At this time, for example, a rectangular frame or the like may be superimposed and displayed around the object on the image. Furthermore, for example, a color or the like may be superimposed and displayed on an object in the image. Note that object recognition results and segmentation results are generated using a trained model (object recognition engine, object recognition It may be generated using a trained model, a segmentation engine, or a trained model for segmentation. Note that the analysis result generation and diagnosis result generation described above may be obtained by using the object recognition results and segmentation results described above. For example, analysis result generation or diagnostic result generation processing may be performed on a region of interest obtained through object recognition or segmentation processing.

また、異常部位を検出する場合には、画像処理装置101は、敵対的生成ネットワーク(GAN:Generative Adversarial Netwoks)や変分オートエンコーダー(VAE:Variational Auto-Encoder)を用いてもよい。例えば、医用画像の生成を学習して得た生成器と、生成器が生成した新たな医用画像と本物の医用画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。 Furthermore, when detecting an abnormal region, the image processing apparatus 101 may use a generative adversarial network (GAN) or a variational auto-encoder (VAE). For example, a DCGAN (Deep Convolutional GAN) consists of a generator obtained by learning to generate medical images and a discriminator obtained by learning to distinguish between new medical images generated by the generator and real medical images. can be used as a machine learning model.

DCGANを用いる場合には、例えば、識別器が入力された医用画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな医用画像を生成する。その後、入力された医用画像と生成された新たな医用画像との差分を異常部位として抽出(検出)することができる。また、VAEを用いる場合には、例えば、入力された医用画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな医用画像を生成する。その後、入力された医用画像と生成された新たな医用画像像との差分を異常部位として抽出することができる。 When using DCGAN, for example, a discriminator encodes an input medical image into a latent variable, and a generator generates a new medical image based on the latent variable. Thereafter, the difference between the input medical image and the generated new medical image can be extracted (detected) as an abnormal site. Further, when using VAE, for example, an input medical image is encoded by an encoder to become a latent variable, and a new medical image is generated by decoding the latent variable by a decoder. Thereafter, the difference between the input medical image and the generated new medical image can be extracted as an abnormal site.

さらに、画像処理装置101は、畳み込みオートエンコーダー(CAE:Convolutional Auto-Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ医用画像を学習させる。これにより、推定時に異常部位がある医用画像をCAEに入力すると、学習の傾向に従って異常部位がない医用画像が出力される。その後、CAEに入力された医用画像とCAEから出力された医用画像の差分を異常部位として抽出することができる。 Furthermore, the image processing apparatus 101 may detect an abnormal site using a convolutional auto-encoder (CAE). When using CAE, the same medical images are used as input data and output data during learning. As a result, when a medical image with an abnormal region is input to CAE at the time of estimation, a medical image without an abnormal region is output according to the learning tendency. Thereafter, the difference between the medical image input to CAE and the medical image output from CAE can be extracted as an abnormal site.

これらの場合、画像処理装置101は、敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、画像処理装置101は、高速に精度よく異常部位を検出することが期待できる。例えば、異常部位の検出精度の向上のために異常部位を含む医用画像を学習データとして数多く集めることが難しい場合であっても、比較的に数多く集め易い正常な被検体の医用画像を学習データとして用いることができる。このため、例えば、異常部位を精度よく検出するための学習を効率的に行うことができる。ここで、オートエンコーダーには、VAEやCAE等が含まれる。また、敵対的生成ネットワークの生成部の少なくとも一部がVAEで構成されてもよい。これにより、例えば、同じようなデータを生成してしまう現象を低減しつつ、比較的鮮明な画像を生成することができる。例えば、画像処理装置101は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された医用画像との差に関する情報を、異常部位に関する情報として生成することができる。また、例えば、表示制御部101-5は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された医用画像との差に関する情報を、異常部位に関する情報として出力部103に表示させることができる。 In these cases, the image processing device 101 converts information about the difference between the medical image obtained using the adversarial generative network or autoencoder and the medical image input to the adversarial generative network or autoencoder into information about the abnormal site. It can be generated as Thereby, the image processing apparatus 101 can be expected to detect an abnormal region at high speed and with high accuracy. For example, even if it is difficult to collect a large number of medical images containing abnormal parts as training data to improve the detection accuracy of abnormal parts, medical images of normal subjects, which are relatively easy to collect, can be used as training data. Can be used. Therefore, for example, learning for accurately detecting an abnormal region can be efficiently performed. Here, the autoencoder includes VAE, CAE, and the like. Further, at least a part of the generating unit of the generative adversarial network may be configured with a VAE. Thereby, for example, a relatively clear image can be generated while reducing the phenomenon of generating similar data. For example, the image processing device 101 may provide information regarding the difference between a medical image obtained from various medical images using an adversarial generative network or an autoencoder, and a medical image input to the adversarial generative network or the autoencoder. , can be generated as information regarding the abnormal site. Furthermore, for example, the display control unit 101-5 can display medical images obtained from various medical images using an adversarial generative network or an autoencoder, and medical images input to the adversarial generative network or the autoencoder. Information regarding the difference can be displayed on the output unit 103 as information regarding the abnormal site.

また、特に診断結果生成用の学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとする入力データ等も考えられる。また、異なる種類の複数の医療画像は、異なるモダリティ、異なる光学系、又は異なる原理等により取得されたものであれば何でもよい。 In particular, the trained model for generating diagnostic results may be a trained model obtained by training with training data that includes input data that is a set of multiple medical images of different types of predetermined parts of the subject. good. At this time, as the input data included in the learning data, for example, input data including a set of a motion contrast frontal image and a brightness frontal image (or a brightness tomographic image) of the fundus can be considered. Further, as the input data included in the learning data, for example, input data including a set of a tomographic image of the fundus (B scan image) and a color fundus image (or a fluorescent fundus image) can be considered. Furthermore, the plurality of medical images of different types may be of any type as long as they are obtained using different modalities, different optical systems, or different principles.

また、特に診断結果生成用の学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の黄斑の三次元OCT画像(三次元断層画像)と眼底の視神経乳頭のサークルスキャン(又はラスタスキャン)断層画像とをセットとする入力データ等も考えられる。 In particular, the trained model for generating diagnostic results may be a trained model obtained by learning using learning data that includes input data that is a set of a plurality of medical images of different parts of the subject. At this time, as input data included in the learning data, for example, input data including a set of a tomographic image of the fundus (B-scan image) and a tomographic image of the anterior segment (B-scan image) can be considered. Furthermore, as input data included in the learning data, for example, input data that is a set of a three-dimensional OCT image (three-dimensional tomographic image) of the macula in the fundus and a circle scan (or raster scan) tomographic image of the optic disc in the fundus, etc. can also be considered.

なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。このとき、パノラマ画像のような広画角画像を学習データとして用いることにより、狭画角画像よりも情報量が多い等の理由から画像の特徴量を精度良く取得できる可能性があるため、処理の結果を向上することができる。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。 Note that the input data included in the learning data may be a plurality of medical images of different parts and different types of the subject. At this time, the input data included in the learning data may be, for example, input data that includes a tomographic image of the anterior segment of the eye and a color fundus image. Further, the above-mentioned trained model may be a trained model obtained by learning using learning data including input data that is a set of a plurality of medical images of a predetermined region of a subject at different photographing angles of view. Further, the input data included in the learning data may be a combination of a plurality of medical images obtained by time-divisionally dividing a predetermined region into a plurality of regions, such as a panoramic image. At this time, by using wide-angle images such as panoramic images as learning data, it is possible to obtain image features with higher accuracy because they contain more information than narrow-angle images, so processing results can be improved. Furthermore, the input data included in the learning data may be input data that is a set of a plurality of medical images of a predetermined region of the subject at different times.

また、上述した解析結果と診断結果と物体認識結果とセグメンテーション結果とのうち少なくとも1つの結果が表示される表示画面は、レポート画面に限らない。このような表示画面は、例えば、撮影確認画面、経過観察用の表示画面、及び撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されてもよい。例えば、上述した学習済モデルを用いて得た上記少なくとも1つの結果を撮影確認画面に表示させることにより、操作者は、撮影直後であっても精度の良い結果を確認することができる。 Furthermore, the display screen on which at least one of the above-mentioned analysis results, diagnosis results, object recognition results, and segmentation results is displayed is not limited to the report screen. Such display screens include, for example, at least one display screen such as a shooting confirmation screen, a display screen for progress observation, and a preview screen for various adjustments before shooting (a display screen on which various live video images are displayed). may be displayed. For example, by displaying the above-mentioned at least one result obtained using the above-described learned model on the photographing confirmation screen, the operator can confirm highly accurate results even immediately after photographing.

また、例えば、特定の物体が認識されると、認識された物体を囲う枠がライブ動画像に重畳表示させるように構成されてもよい。このとき、物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、例えば、物体を囲う枠の色が変更される等のように強調表示されてもよい。これにより、検者は、物体をライブ動画上で容易に識別することができる。 Further, for example, when a specific object is recognized, a frame surrounding the recognized object may be displayed superimposed on the live video image. At this time, if information indicating the certainty of the object recognition result (for example, a numerical value indicating a percentage) exceeds a threshold, it may be highlighted, for example by changing the color of the frame surrounding the object. good. This allows the examiner to easily identify objects on the live video.

なお、上述した様々な学習済モデルの学習に用いられる正解データの生成には、ラベル付け(アノテーション)等の正解データを生成するための正解データ生成用の学習済モデルが用いられてもよい。このとき、正解データ生成用の学習済モデルは、検者がラベル付け(アノテーション)して得た正解データを(順次)追加学習することにより得られたものであってもよい。すなわち、正解データ生成用の学習済モデルは、ラベル付け前のデータを入力データとし、ラベル付け後のデータを出力データとする学習データを追加学習することにより得られたものであってもよい。また、動画像等のような連続する複数フレームにおいて、前後のフレームの物体認識やセグメンテーション等の結果を考慮して、結果の精度が低いと判定されたフレームの結果を修正するように構成されてもよい。このとき、検者からの指示に応じて、修正後の結果を正解データとして追加学習するように構成されてもよい。また、例えば、結果の精度が低い医用画像については、検者が該医用画像上に、学習済モデルが抽出した特徴量を可視化したマップ(注意マップ、活性化マップ)の一例である、特徴量をカラーで示したカラーマップ(ヒートマップ)を確認しながらラベル付け(アノテーション)した画像を入力データとして追加学習するように構成されてもよい。例えば、学習済モデルにおける結果を出力する直前等のレイヤー上のヒートマップにおいて、注目すべき箇所が検者の意図と異なる場合には、検者が注目すべきと考える箇所にラベル付け(アノテーション)した医用画像を追加学習してもよい。これにより、例えば、学習済モデルは、医用画像上の部分領域であって、学習済モデルの出力結果に対して比較的影響が大きな部分領域の特徴量を、他の領域よりも優先して(重みを付けて)追加学習することができる。 Note that a learned model for generating correct data for generating correct data such as labeling (annotation) may be used to generate correct data used for learning the various learned models described above. At this time, the trained model for generating correct answer data may be obtained by (sequentially) additionally learning correct answer data obtained by labeling (annotation) by the examiner. That is, the learned model for generating correct data may be obtained by additionally learning learning data in which unlabeled data is input data and labeled data is output data. In addition, in multiple consecutive frames such as a moving image, the system is configured to take into account the results of object recognition, segmentation, etc. of the previous and subsequent frames and correct the results of frames determined to have low accuracy. Good too. At this time, the corrected results may be additionally learned as correct data in response to instructions from the examiner. For example, for medical images with low accuracy of results, the examiner can create a feature map (attention map, activation map), which is an example of a map (attention map, activation map) that visualizes the feature values extracted by the trained model, on the medical image. It may be configured such that additional learning is performed using an image labeled (annotated) as input data while checking a color map (heat map) showing the image in color. For example, in a heat map on a layer immediately before outputting the results of a trained model, if the points of interest are different from the examiner's intention, label (annotate) the points that the examiner thinks should be noted. It is also possible to additionally learn medical images. As a result, for example, the trained model prioritizes feature amounts of partial regions on a medical image that have a relatively large influence on the output results of the trained model over other regions ( additional learning can be performed (by adding weights).

ここで、上述した様々な学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワークを用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダー(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。また、学習には、各ユニット(各ニューロン、あるいは各ノード)をランダムに不活性化する手法(ドロップアウト)が用いられてもよい。また、学習には、多階層のニューラルネットワークの各層に伝わったデータを、活性化関数(例えばReLu関数)が適用される前に、正規化する手法(バッチ正規化)が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。また、学習データとは、入力データ及び出力データ(正解データ)のペアで構成される。ここで、学習データを教師データという場合もあるし、あるいは、正解データを教師データという場合もある。 Here, the various learned models described above can be obtained by machine learning using learning data. Machine learning includes, for example, deep learning that consists of multilayer neural networks. Further, for example, a convolutional neural network can be used for at least a portion of the multi-layer neural network. Further, a technique related to an autoencoder (self-encoder) may be used for at least a portion of the multi-layer neural network. Furthermore, a technique related to backpropagation (error backpropagation method) may be used for learning. Furthermore, a method (dropout) of randomly inactivating each unit (each neuron or each node) may be used for learning. Further, for learning, a method (batch normalization) may be used in which data transmitted to each layer of a multilayer neural network is normalized before an activation function (for example, a ReLu function) is applied. However, machine learning is not limited to deep learning, and may be any type of learning that uses a model that can self-extract (express) features of learning data such as images through learning. Here, the machine learning model refers to a learning model using a machine learning algorithm such as deep learning. Further, a trained model is a model that has been trained (performed learning) using appropriate learning data in advance for a machine learning model based on an arbitrary machine learning algorithm. However, the trained model does not undergo any further learning, and additional learning can be performed on the trained model. Further, the learning data is composed of a pair of input data and output data (correct data). Here, the learning data may be referred to as teacher data, or the correct answer data may be referred to as teacher data.

なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本変形例では、学習部(不図示)の一例である画像処理装置101による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPU又はGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Note that the GPU can perform efficient calculations by processing more data in parallel. For this reason, when learning is performed multiple times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in this modification, a GPU is used in addition to a CPU for processing by the image processing device 101, which is an example of a learning unit (not shown). Specifically, when a learning program including a learning model is executed, learning is performed by the CPU and GPU working together to perform calculations. Note that the processing of the learning section may be performed by only the CPU or GPU. Furthermore, the processing unit (estimation unit) that executes processing using the various learned models described above may also use a GPU, similar to the learning unit. Further, the learning section may include an error detection section and an updating section (not shown). The error detection unit obtains an error between output data output from the output layer of the neural network and correct data according to input data input to the input layer. The error detection unit may use a loss function to calculate the error between the output data from the neural network and the correct data. Furthermore, the updating section updates the connection weighting coefficients between the nodes of the neural network, etc., based on the error obtained by the error detection section, so that the error becomes smaller. This updating unit updates the connection weighting coefficients and the like using, for example, an error backpropagation method. The error backpropagation method is a method of adjusting connection weighting coefficients between nodes of each neural network so that the above-mentioned error is reduced.

また、上述した物体認識や、セグメンテーション、高画質化等に用いられる機械学習モデルとしては、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU-net型の機械学習モデルが適用可能である。U-net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 In addition, the machine learning model used for object recognition, segmentation, high image quality, etc. mentioned above has the function of an encoder consisting of multiple layers including multiple downsampling layers, and the function of an encoder consisting of multiple layers including multiple upsampling layers. A U-net type machine learning model having a decoder function consisting of In the U-net type machine learning model, position information (spatial information) that is made ambiguous in multiple layers configured as encoders is transferred to layers of the same dimension (layers that correspond to each other) in multiple layers configured as decoders. ) (e.g., using skip connections).

また、上述した物体認識や、セグメンテーション、高画質化等に用いられる機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Moreover, as a machine learning model used for the above-mentioned object recognition, segmentation, high image quality, etc., for example, FCN (Fully Convolutional Network), SegNet, etc. can also be used. Alternatively, a machine learning model that performs object recognition in area units may be used depending on a desired configuration. As a machine learning model for object recognition, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Furthermore, YOLO (You Only Look Once) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used as a machine learning model that performs object recognition in area units.

また、機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン、あるいは各ノード)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。 Further, the machine learning model may be, for example, a capsule network (CapsNet). Here, in a general neural network, each unit (each neuron or each node) is configured to output a scalar value, so that, for example, the spatial positional relationship (relative position) between features in an image is configured such that spatial information regarding the location is reduced. Thereby, for example, learning can be performed such that the influence of local distortion or parallel movement of the image is reduced. On the other hand, in a capsule network, each unit (each capsule) is configured to output spatial information as a vector, so that, for example, spatial information is held. Thereby, for example, learning can be performed that takes into account the spatial positional relationship between features in an image.

[変形例6]
上述した様々な実施形態及び変形例におけるプレビュー画面において、ライブ動画像の少なくとも1つのフレーム毎に上述した種々の学習済モデルが用いられるように構成されてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。
[Modification 6]
In the preview screen in the various embodiments and modifications described above, the various learned models described above may be used for each at least one frame of a live video image. At this time, if a plurality of live moving images of different parts or types are displayed on the preview screen, a learned model corresponding to each live moving image may be used. With this, for example, even for live moving images, the processing time can be shortened, so the examiner can obtain highly accurate information before starting imaging. Therefore, for example, it is possible to reduce failures in re-imaging, etc., and thus it is possible to improve the accuracy and efficiency of diagnosis.

なお、複数のライブ動画像は、例えば、XYZ方向のアライメントのための前眼部の動画像、及び眼底観察光学系のフォーカス調整やOCTフォーカス調整のための眼底の正面動画像であってよい。また、複数のライブ動画像は、例えば、OCTのコヒーレンスゲート調整(測定光路長と参照光路長との光路長差の調整)のための眼底の断層動画像等であってもよい。このようなプレビュー画像が表示される場合、上述した物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された領域が所定の条件を満たすように、上述した各種調整が行われるように画像処理装置101を構成してもよい。例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層等に関する値(例えば、コントラスト値あるいは強度値)が閾値を超える(あるいはピーク値になる)ように、OCTフォーカス調整等の各種調整が行われるように構成されてもよい。また、例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層が深さ方向における所定の位置になるように、OCTのコヒーレンスゲート調整が行われるように構成されてもよい。 Note that the plurality of live moving images may be, for example, a moving image of the anterior segment of the eye for alignment in the XYZ directions, and a frontal moving image of the fundus for focus adjustment of the fundus observation optical system or OCT focus adjustment. Further, the plurality of live moving images may be, for example, tomographic moving images of the fundus for OCT coherence gate adjustment (adjustment of the optical path length difference between the measurement optical path length and the reference optical path length). When such a preview image is displayed, the various adjustments described above are performed so that the regions detected using the trained model for object recognition and the trained model for segmentation meet predetermined conditions. The image processing apparatus 101 may be configured as follows. For example, a value (for example, a contrast value or an intensity value) related to a predetermined retinal layer such as the vitreous region or RPE detected using a trained model for object recognition or a trained model for segmentation exceeds a threshold value ( Alternatively, the configuration may be such that various adjustments such as OCT focus adjustment are performed so that the peak value is reached. In addition, for example, OCT may be applied so that a predetermined retinal layer such as the vitreous region or RPE detected using a trained model for object recognition or a trained model for segmentation is at a predetermined position in the depth direction. It may be configured such that coherence gate adjustment is performed.

これらの場合には、画像処理装置101は、学習済モデルを用いて、動画像について高画質化処理を行って、高画質な動画像を生成することができる。また、撮影制御部101-2は、高画質な動画像が表示された状態で、セグメンテーション処理等により得た注目部位等の部分領域が表示領域における所定の位置になるように、参照ミラー221の撮影範囲を変更するための光学部材を駆動制御することができる。このような場合には、撮影制御部101-2は、精度の高い情報に基づいて、所望される領域が表示領域の所定の位置になるように自動的にアライメント処理を行うことができる。なお、撮影範囲を変更する光学部材としては、例えばコヒーレンスゲート位置を調整する光学部材であってよく、具体的には参照光を反射する参照ミラー221であってよい。また、コヒーレンスゲート位置は、測定光路長及び参照光路長の光路長差を変更する光学部材によって調整されることができ、当該光学部材は、例えば、不図示の測定光の光路長を変更するためのミラー等であってもよい。なお、撮影範囲を変更する光学部材は、例えばステージ部100-2であってもよい。また、撮影制御部101-2、撮影開始に関する指示に応じて、撮影の途中あるいは撮影の最後に、セグメンテーション処理等により得たアーチファクト領域等の部分領域が再度撮影(リスキャン)されるように、走査手段を駆動制御してもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各種調整や撮影開始等を自動的に行うように構成されてもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を検者からの指示に応じて実行可能な状態に変更(実行禁止状態を解除)するように構成されてもよい。 In these cases, the image processing apparatus 101 can generate a high-quality moving image by performing image quality enhancement processing on the moving image using the learned model. The imaging control unit 101-2 also controls the reference mirror 221 so that a partial area such as a region of interest obtained through segmentation processing or the like is located at a predetermined position in the display area while a high-quality moving image is displayed. It is possible to drive and control the optical member for changing the photographing range. In such a case, the imaging control unit 101-2 can automatically perform alignment processing based on highly accurate information so that the desired area is located at a predetermined position in the display area. Note that the optical member that changes the imaging range may be, for example, an optical member that adjusts the coherence gate position, and specifically, may be the reference mirror 221 that reflects the reference light. Further, the coherence gate position can be adjusted by an optical member that changes the optical path length difference between the measurement optical path length and the reference optical path length. It may also be a mirror, etc. Note that the optical member that changes the photographing range may be, for example, the stage section 100-2. In addition, the imaging control unit 101-2 performs scanning so that partial areas such as artifact areas obtained by segmentation processing etc. are re-imaged (rescanned) during or at the end of imaging, in response to an instruction regarding the start of imaging. The means may be driven and controlled. Furthermore, for example, if information indicating the certainty of object recognition results regarding the region of interest (for example, a numerical value indicating a percentage) exceeds a threshold, it may be configured to automatically perform various adjustments, start shooting, etc. good. Additionally, for example, if information indicating the certainty of object recognition results regarding the region of interest (e.g., a numerical value indicating a percentage) exceeds a threshold, various adjustments and start of imaging can be performed in accordance with instructions from the examiner. It may be configured to change the state to a state (release the execution prohibited state).

また、上述した種々の学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部101-3に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部101-3に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化用の学習済モデルにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成してもよい。 Furthermore, the moving images to which the various learned models described above can be applied are not limited to live moving images, and may be, for example, moving images stored (saved) in the storage unit 101-3. At this time, for example, a moving image obtained by aligning at least one frame of the tomographic moving image of the fundus oculi stored (saved) in the storage unit 101-3 may be displayed on the display screen. For example, if you want to observe the vitreous body in a suitable manner, you may first select a reference frame based on conditions such as as much vitreous body as possible on the frame. At this time, each frame is a tomographic image (B scan image) in the XZ direction. Then, a moving image in which other frames are aligned in the XZ directions with respect to the selected reference frame may be displayed on the display screen. At this time, for example, high-quality images (high-quality frames) sequentially generated by a trained model for improving image quality may be continuously displayed for each at least one frame of the moving image.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されてもよいし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層画像(Bスキャン像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 Note that as the above-mentioned method for positioning between frames, the same method may be applied for the positioning method in the X direction and the method for positioning in the Z direction (depth direction), or different methods may be applied. may be applied. Furthermore, alignment in the same direction may be performed multiple times using different techniques; for example, rough alignment may be followed by precise alignment. In addition, as a method for positioning, for example, positioning using retinal layer boundaries obtained by segmenting a tomographic image (B-scan image) (coarse in the Z direction), and positioning using multiple retinal layer boundaries obtained by dividing a tomographic image Positioning (accurate in the X and Z directions) using correlation information (similarity) between the region and the reference image, and one-dimensional projection images generated for each tomographic image (B scan image) (in the X direction) ) alignment, alignment (in the X direction) using a two-dimensional front image, etc. Alternatively, the configuration may be such that rough alignment is performed pixel by pixel, and then fine alignment is performed subpixel by subpixel.

ここで、各種の調整中では、被検眼の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。 Here, during various adjustments, there is a possibility that the object to be photographed, such as the retina of the eye to be examined, has not yet been successfully imaged. For this reason, since there is a large difference between the medical images input to the trained model and the medical images used as learning data, there is a possibility that high-quality images cannot be obtained with high accuracy. Therefore, when an evaluation value such as image quality evaluation of a tomographic image (B scan) exceeds a threshold value, display of high-quality moving images (continuous display of high-quality frames) may be automatically started. Further, when an evaluation value such as image quality evaluation of a tomographic image (B scan) exceeds a threshold value, the image quality improvement button may be changed to a state (active state) that can be specified by the examiner.

また、例えば、スキャンパターン等が異なる撮影モード毎に異なる高画質化用の学習済モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化用の学習済モデルが用いられてもよい。 In addition, for example, a different trained model for high image quality is prepared for each shooting mode with a different scan pattern, etc., and the trained model for high image quality corresponding to the selected shooting mode is selected. may be done. Alternatively, one trained model for improving image quality obtained by learning training data including various medical images obtained in different imaging modes may be used.

[変形例7]
上述した実施形態及び変形例においては、各種学習済モデルが追加学習の実行中である場合、追加学習の実行中の学習済モデル自体を用いて出力(推定・予測)することが難しい可能性がある。このため、追加学習の実行中の学習済モデルに対する学習データ以外の医用画像の入力を禁止するように構成されることがよい。また、追加学習の実行前の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意してもよい。このとき、追加学習の実行中には、予備の学習済モデルに対する学習データ以外の医用画像の入力が実行可能なように構成されることがよい。そして、追加学習が完了した後に、追加学習の実行後の学習済モデルを評価し、問題がなければ、予備の学習済モデルから追加学習の実行後の学習済モデルに置き換えればよい。また、問題があれば、予備の学習済モデルが用いられるようにしてもよい。
[Modification 7]
In the embodiments and modified examples described above, when various trained models are performing additional learning, it may be difficult to output (estimate/predict) using the trained model itself that is currently undergoing additional learning. be. For this reason, it is preferable that the input of medical images other than learning data to the learned model during the execution of additional learning is prohibited. Further, another trained model that is the same as the trained model before execution of additional learning may be prepared as a preliminary trained model. At this time, it is preferable to configure the system so that medical images other than learning data can be input to the preliminary trained model while the additional learning is being performed. Then, after the additional learning is completed, the trained model after performing the additional learning is evaluated, and if there is no problem, the preliminary trained model may be replaced with the trained model after performing the additional learning. Furthermore, if there is a problem, a preliminary trained model may be used.

なお、追加学習の実行後の学習済モデルの評価としては、例えば、高画質化用の学習済モデルで得た高画質画像を他の種類の画像と分類するための分類用の学習済モデルが用いられてもよい。分類用の学習済モデルは、例えば、高画質化用の学習済モデルで得た高画質画像と低画質画像とを含む複数の画像を入力データとし、これらの画像の種類がラベル付け(アノテーション)されたデータを正解データとして含む学習データを学習して得た学習済モデルであってもよい。このとき、推定時(予測時)の入力データの画像の種類が、学習時の正解データに含まれる画像の種類毎の確からしさを示す情報(例えば、割合を示す数値)と合わせて表示されてもよい。なお、分類用の学習済モデルの入力データとしては、上記の画像以外にも、複数の低画質画像の重ね合わせ処理(例えば、位置合わせして得た複数の低画質画像の平均化処理)等によって、高コントラスト化やノイズ低減等が行われたような高画質な画像が含まれてもよい。また、追加学習の実行後の学習済モデルの評価としては、例えば、追加学習の実行後の学習済モデルと追加学習の実行前の学習済モデル(予備の学習済モデル)とをそれぞれ用いて同一の画像から得た複数の高画質画像を比較、あるいは該複数の高画質画像の解析結果を比較してもよい。このとき、例えば、該複数の高画質画像の比較結果(追加学習による変化の一例)、あるいは該複数の高画質画像の解析結果の比較結果(追加学習による変化の一例)が所定の範囲であるか否かを判定し、判定結果が表示されてもよい。 In addition, as an evaluation of the trained model after performing additional learning, for example, the trained model for classification for classifying high-quality images obtained with the trained model for high image quality from other types of images is evaluated. may be used. For example, a trained model for classification uses as input data multiple images including high-quality images and low-quality images obtained by a trained model for high image quality, and the types of these images are labeled (annotated). The model may be a trained model obtained by learning training data that includes the correct data as correct data. At this time, the type of image of the input data at the time of estimation (during prediction) is displayed together with information indicating the probability of each type of image included in the correct data at the time of learning (for example, a numerical value indicating a percentage). Good too. In addition to the above-mentioned images, the input data for the trained model for classification may also include superposition processing of multiple low-quality images (for example, averaging processing of multiple low-quality images obtained by positioning), etc. may include high-quality images that have undergone high contrast, noise reduction, and the like. In addition, to evaluate the trained model after performing additional learning, for example, the trained model after performing additional learning and the trained model before performing additional learning (preliminary trained model) are used to evaluate the same model. A plurality of high-quality images obtained from the images may be compared, or analysis results of the plurality of high-quality images may be compared. At this time, for example, the comparison result of the plurality of high-quality images (an example of a change due to additional learning) or the comparison result of the analysis result of the plurality of high-quality images (an example of a change due to additional learning) is within a predetermined range. It may be determined whether or not, and the determination result may be displayed.

また、撮影部位毎に学習して得た学習済モデルを選択的に利用できるようにしてもよい。具体的には、第1の撮影部位(例えば、前眼部、後眼部等)を含む学習データを用いて得た第1の学習済モデルと、第1の撮影部位とは異なる第2の撮影部位を含む学習データを用いて得た第2の学習済モデルと、を含む複数の学習済モデルを用意することができる。そして、画像処理装置101は、これら複数の学習済モデルのいずれかを選択する選択手段を有してもよい。このとき、画像処理装置101は、選択された学習済モデルに対して追加学習を実行する制御手段を有してもよい。制御手段は、検者からの指示に応じて、選択された学習済モデルに対応する撮影部位と該撮影部位の撮影画像とがペアとなるデータを検索し、検索して得たデータを学習データとする学習を、選択された学習済モデルに対して追加学習として実行することができる。なお、選択された学習済モデルに対応する撮影部位は、データのヘッダの情報から取得したり、検者により手動入力されたりしたものであってよい。また、データの検索は、例えば、病院や研究所等の外部施設のサーバ等からネットワークを介して行われてよい。これにより、学習済モデルに対応する撮影部位の撮影画像を用いて、撮影部位毎に効率的に追加学習することができる。 Further, it may be possible to selectively use a learned model obtained by learning for each part to be imaged. Specifically, a first trained model obtained using training data including a first imaging region (e.g., anterior eye segment, posterior eye segment, etc.) and a second trained model that is different from the first imaging region. A plurality of trained models can be prepared, including a second trained model obtained using training data including the imaged body part. The image processing device 101 may include a selection unit for selecting one of the plurality of learned models. At this time, the image processing device 101 may include a control unit that performs additional learning on the selected learned model. The control means searches for data in which a photographed region corresponding to the selected trained model and a photographed image of the photographed region are paired, and uses the data obtained through the search as learning data. This learning can be performed as additional learning on the selected trained model. Note that the imaged region corresponding to the selected learned model may be obtained from information in the header of the data, or may be manually input by the examiner. Further, the data search may be performed via a network, for example, from a server in an external facility such as a hospital or research institute. Thereby, additional learning can be efficiently performed for each imaged body part using the photographed images of the body part corresponding to the learned model.

なお、選択手段及び制御手段は、画像処理装置101のCPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、選択手段及び制御手段は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 Note that the selection means and the control means may be constituted by a software module executed by a processor such as a CPU or an MPU of the image processing apparatus 101. Furthermore, the selection means and the control means may be constituted by a circuit that performs a specific function, such as an ASIC, or an independent device.

また、追加学習用の学習データを、病院や研究所等の外部施設のサーバ等からネットワークを介して取得する際には、改ざんや、追加学習時のシステムトラブル等による信頼性低下を低減することが有用である。そこで、デジタル署名やハッシュ化による一致性の確認を行うことで、追加学習用の学習データの正当性を検出してもよい。これにより、追加学習用の学習データを保護することができる。このとき、デジタル署名やハッシュ化による一致性の確認した結果として、追加学習用の学習データの正当性が検出できなかった場合には、その旨の警告を行い、その学習データによる追加学習を行わないものとする。なお、サーバは、その設置場所を問わず、例えば、クラウドサーバ、フォグサーバ、エッジサーバ等のどのような形態でもよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。 In addition, when acquiring learning data for additional learning via a network from a server in an external facility such as a hospital or research institute, it is necessary to reduce reliability degradation due to falsification or system trouble during additional learning. is useful. Therefore, the validity of the learning data for additional learning may be detected by checking the consistency using a digital signature or hashing. Thereby, learning data for additional learning can be protected. At this time, if the validity of the learning data for additional learning cannot be detected as a result of checking the consistency using digital signatures and hashing, a warning to that effect will be issued and additional learning will be performed using that learning data. Make it not exist. Note that the server may take any form, such as a cloud server, fog server, or edge server, regardless of its installation location. Note that when configuring a network within a facility, within a site that includes a facility, within an area that includes multiple facilities, etc. to enable wireless communication, for example, if a network is configured to enable wireless communication, The reliability of the network may be improved by configuring it to use radio waves in a dedicated wavelength band. Furthermore, the network may be constructed using wireless communication that is capable of high speed, large capacity, low delay, and multiple simultaneous connections.

また、上述したような一致性の確認によるデータの保護は、追加学習用の学習データに限らず、医用画像を含むデータに適用可能である。また、複数の施設のサーバの間の医用画像を含むデータの取引が分散型のネットワークにより管理されるように画像管理システムが構成されてもよい。また、取引履歴と、前のブロックのハッシュ値とが一緒に記録された複数のブロックを時系列につなぐように画像管理システムが構成されてもよい。なお、一致性の確認等を行うための技術としては、量子ゲート方式等の量子コンピュータを用いても計算が困難な暗号(例えば、格子暗号、量子鍵配送による量子暗号等)が用いられてもよい。ここで、画像管理システムは、撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムであってもよい。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。また、画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。 Further, data protection by checking the consistency as described above is applicable not only to learning data for additional learning but also to data including medical images. Furthermore, the image management system may be configured such that transactions of data including medical images between servers in multiple facilities are managed by a distributed network. Further, the image management system may be configured to connect a plurality of blocks in chronological order in which the transaction history and the hash value of the previous block are recorded together. In addition, as a technology for checking consistency, etc., even if cryptography such as a quantum gate method that is difficult to calculate even using a quantum computer (for example, lattice cryptography, quantum cryptography using quantum key distribution, etc.) is used. good. Here, the image management system may be a device and a system that receives and stores images taken by a photographing device or images subjected to image processing. The image management system can also send images in response to requests from connected devices, perform image processing on stored images, and request image processing from other devices. can. The image management system may include, for example, a picture archiving and communication system (PACS). The image management system also includes a database that can store various information such as information about the subject and time of imaging associated with the received images. In addition, the image management system is connected to a network and can send and receive images, convert images, and send and receive various information associated with stored images in response to requests from other devices. .

なお、各種学習済モデルについて、追加学習を行う際には、GPUを用いて高速に処理を行うことができる。GPUは、データをより多く並列処理することで効率的な演算を行うことができるため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合にはGPUで処理を行うことが有効である。なお、追加学習の処理は、GPUとCPU等が協働して行ってもよい。 Note that when additional learning is performed on various trained models, processing can be performed at high speed using the GPU. GPUs can perform efficient calculations by processing more data in parallel, so when learning multiple times using a learning model such as deep learning, it is possible to perform processing on the GPU. It is valid. Note that the additional learning process may be performed in cooperation with the GPU, CPU, and the like.

[変形例8]
上述した様々な実施形態及び変形例において、検者からの指示は、手動による指示(例えば、ユーザーインターフェース等を用いた指示)以外にも、音声等による指示であってもよい。このとき、例えば、機械学習により得た音声認識モデル(音声認識エンジン、音声認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力等による指示であってもよい。このとき、例えば、機械学習により得た文字認識モデル(文字認識エンジン、文字認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、検者からの指示は、ジェスチャー等による指示であってもよい。このとき、機械学習により得たジェスチャー認識モデル(ジェスチャー認識エンジン、ジェスチャー認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。
[Modification 8]
In the various embodiments and modified examples described above, the instructions from the examiner may be not only manual instructions (for example, instructions using a user interface or the like) but also instructions by voice or the like. At this time, for example, a machine learning model including a speech recognition model (speech recognition engine, trained model for speech recognition) obtained by machine learning may be used. Further, the manual instruction may be an instruction by inputting characters using a keyboard, a touch panel, or the like. At this time, for example, a machine learning model including a character recognition model (character recognition engine, trained model for character recognition) obtained by machine learning may be used. Further, the instruction from the examiner may be an instruction using a gesture or the like. At this time, a machine learning model including a gesture recognition model (gesture recognition engine, trained model for gesture recognition) obtained by machine learning may be used.

また、検者からの指示は、出力部103における表示画面上の検者の視線検出結果等であってもよい。視線検出結果は、例えば、出力部103における表示画面の周辺から撮影して得た検者の動画像を用いた瞳孔検出結果であってもよい。このとき、動画像からの瞳孔検出は、上述したような物体認識エンジンを用いてもよい。また、検者からの指示は、脳波、体を流れる微弱な電気信号等による指示であってもよい。 Further, the instruction from the examiner may be the result of detecting the examiner's line of sight on the display screen of the output unit 103, or the like. The line of sight detection result may be, for example, a pupil detection result using a moving image of the examiner taken from the periphery of the display screen in the output unit 103. At this time, the pupil detection from the moving image may be performed using the object recognition engine as described above. Further, the instructions from the examiner may be instructions based on brain waves, weak electrical signals flowing through the body, or the like.

このような場合、例えば、学習データとしては、上述したような種々の学習済モデルの処理による結果の表示の指示を示す文字データ又は音声データ(波形データ)等を入力データとし、種々の学習済モデルの処理による結果等を実際に出力部103に表示させるための実行命令を正解データとする学習データであってもよい。また、学習データとしては、例えば、撮影パラメータの自動設定を行うか否かの実行命令及び当該命令用のボタンをアクティブ状態に変更するための実行命令等を正解データとする学習データであってもよい。さらに、学習データとしては、例えば、高画質画像を得るために高画質化処理を行うか否かの実行命令及び当該命令用のボタンをアクティブ状態に変更するための実行命令等を正解データとする学習データであってもよい。なお、学習データとしては、例えば、文字データ又は音声データ等が示す指示内容と実行命令内容とが互いに対応するものであれば何でもよい。また、音響モデルや言語モデル等を用いて、音声データから文字データに変換してもよい。また、複数のマイクで得た波形データを用いて、音声データに重畳しているノイズデータを低減する処理を行ってもよい。また、文字又は音声等による指示と、マウス又はタッチパネル等による指示とを、検者からの指示に応じて選択可能に構成されてもよい。また、文字又は音声等による指示のオン・オフを、検者からの指示に応じて選択可能に構成されてもよい。 In such a case, for example, the learning data may be text data or audio data (waveform data) indicating instructions for displaying the results of processing the various trained models as described above, and The learning data may be an execution command for actually displaying the results of model processing on the output unit 103 as correct data. In addition, the learning data may be, for example, learning data whose correct answer data is an execution command for determining whether or not to automatically set shooting parameters, and an execution command for changing the button for the command to an active state. good. Furthermore, as the learning data, for example, an execution command for determining whether to perform high-quality image processing to obtain a high-quality image, and an execution command for changing the button for the command to an active state, etc., are used as correct answer data. It may be learning data. Note that any learning data may be used as long as the instruction content and the execution command content indicated by character data or audio data correspond to each other, for example. Furthermore, audio data may be converted into character data using an acoustic model, a language model, or the like. Furthermore, processing may be performed to reduce noise data superimposed on audio data using waveform data obtained by a plurality of microphones. Further, instructions using text or voice, etc., and instructions using a mouse, touch panel, etc. may be selectable in accordance with instructions from the examiner. Further, the device may be configured to be able to select whether to turn on or off instructions using text, voice, etc. in accordance with instructions from the examiner.

ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも一部には、例えば、RNNを用いることができる。ここで、本変形例に係る機械学習モデルの一例として、時系列情報を扱うニューラルネットワークであるRNNに関して、図15(a)及び図15(b)を参照して説明する。また、RNNの一種であるLong short-term memory(以下、LSTM)に関して、図16(a)及び図16(b)を参照して説明する。 Here, machine learning includes deep learning as described above, and for example, RNN can be used for at least a part of a multilayer neural network. Here, as an example of a machine learning model according to this modification, an RNN, which is a neural network that handles time-series information, will be described with reference to FIGS. 15(a) and 15(b). Further, a long short-term memory (hereinafter referred to as LSTM), which is a type of RNN, will be explained with reference to FIGS. 16(a) and 16(b).

図15(a)は、機械学習モデルであるRNNの構造を示す。RNN1520は、ネットワークにループ構造を持ち、時刻tにおいてデータx1510が入力され、データh1530を出力する。RNN1520はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図15(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx1510にはN個(Params1~ParamsN)のデータが含まれる。また、RNN1520より出力されるデータh1530には入力データに対応するN個(Params1~ParamsN)のデータが含まれる。 FIG. 15(a) shows the structure of RNN, which is a machine learning model. The RNN 1520 has a loop structure in its network, receives data x t 1510 at time t, and outputs data h t 1530. Since the RNN 1520 has a loop function in the network, it is possible to take over the state at the current time to the next state, so it can handle time-series information. FIG. 15(b) shows an example of input/output of the parameter vector at time t. The data x t 1510 includes N pieces of data (Params1 to ParamsN). Furthermore, the data h t 1530 output from the RNN 1520 includes N pieces of data (Params1 to ParamsN) corresponding to the input data.

しかしながら、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができないため、LSTMが用いられることがある。LSTMは、忘却ゲート、入力ゲート、及び出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図16(a)にLSTMの構造を示す。LSTM1640において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct-1と出力データht-1である。なお、図の小文字(c、h、x)はベクトルを表している。 However, since RNN cannot handle long-term information during error backpropagation, LSTM is sometimes used. LSTM can learn long-term information by providing a forgetting gate, an input gate, and an output gate. Here, the structure of LSTM is shown in FIG. 16(a). In the LSTM 1640, the information that the network takes over at the next time t is the internal state c t-1 of the network called a cell and the output data h t-1 . Note that lowercase letters (c, h, x) in the figure represent vectors.

次に、図16(b)にLSTM1640の詳細を示す。図16(b)においては、忘却ゲートネットワークFG、入力ゲートネットワークIG、及び出力ゲートネットワークOGが示され、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。また、図16(b)においては、セル更新候補ネットワークCUが示され、セル更新候補ネットワークCUは活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。 Next, details of the LSTM 1640 are shown in FIG. 16(b). In FIG. 16(b), a forgetting gate network FG, an input gate network IG, and an output gate network OG are shown, each of which is a sigmoid layer. Therefore, a vector in which each element has a value between 0 and 1 is output. The forgetting gate network FG determines how much past information to retain, and the input gate network IG determines which value to update. Further, in FIG. 16(b), a cell update candidate network CU is shown, and the cell update candidate network CU is an activation function tanh layer. This creates a vector of new candidate values that is added to the cell. The output gate network OG selects the elements of the cell candidates and selects how much information to convey at the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。また、検者からの指示が文字又は音声等による入力の場合には、自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。このとき、自然言語処理に関する技術としては、例えば、入力される文章毎に出力されるモデルが適用されてもよい。また、上述した種々の学習済モデルは、検者からの指示に限らず、検者に対する出力に適用されてもよい。また、検者に対して文字又は音声等による出力で応答する対話エンジン(対話モデル、対話用の学習済モデル)が適用されてもよい。 Note that since the LSTM model described above is a basic form, it is not limited to the network shown here. Coupling between networks may be changed. Instead of LSTM, QRNN (Quasi Recurrent Neural Network) may be used. Furthermore, the machine learning model is not limited to neural networks, and boosting, support vector machines, etc. may also be used. Furthermore, if the examiner's instructions are input by text or voice, techniques related to natural language processing (for example, sequence to sequence) may be applied. At this time, as a technique related to natural language processing, for example, a model that is output for each input sentence may be applied. Furthermore, the various learned models described above may be applied not only to instructions from the examiner but also to outputs to the examiner. Further, a dialogue engine (a dialogue model, a trained model for dialogue) that responds to the examiner by outputting text or voice may be applied.

また、自然言語処理に関する技術としては、文書データを教師なし学習により事前学習して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、事前学習して得た学習済モデルをさらに目的に応じて転移学習(あるいはファインチューニング)して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、例えば、BERT(Bidirectional Encoder Representations from Transformers)が適用されてもよい。また、自然言語処理に関する技術としては、文章内の特定の単語を左右両方の文脈から予測することで、文脈(特徴量)を自ら抽出(表現)可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、入力される時系列データにおける2つのシーケンス(センテンス)の関係性(連続性)を判断可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、隠れ層にTransformerのEncoderが用いられ、ベクトルのシーケンスが入力、出力されるモデルが適用されてもよい。 Further, as a technique related to natural language processing, a trained model obtained by pre-learning document data by unsupervised learning may be used. Further, as a technique related to natural language processing, a trained model obtained by further performing transfer learning (or fine tuning) on a trained model obtained by pre-learning according to the purpose may be used. Further, as a technique related to natural language processing, for example, BERT (Bidirectional Encoder Representations from Transformers) may be applied. Further, as a technology related to natural language processing, a model that can extract (express) the context (feature amount) by itself by predicting a specific word in a sentence from both left and right contexts may be applied. Furthermore, as a technology related to natural language processing, a model that can determine the relationship (continuity) between two sequences (sentences) in input time series data may be applied. Further, as a technology related to natural language processing, a model may be applied in which a Transformer encoder is used in the hidden layer and a sequence of vectors is input and output.

ここで、本変形例が適用可能な検者からの指示は、上述した様々な実施形態及び変形例に記載のような種々の画像や解析結果の表示の変更、En-Face画像の生成のための深度範囲の選択、追加学習用の学習データとして用いるか否かの選択、学習済モデルの選択、種々の学習済モデルを用いて得た結果の出力(表示や送信等)や保存等、に関する少なくとも1つの指示であれば何でもよい。また、本変形例が適用可能な検者からの指示は、撮影後の指示だけでなく、撮影前の指示であってもよく、例えば、種々の調整に関する指示、種々の撮影条件の設定に関する指示、撮影開始に関する指示であってもよい。また、本変形例が適用可能な検者からの指示は、表示画面の変更(画面遷移)に関する指示であってもよい。 Here, instructions from the examiner to which this modification can be applied include changing the display of various images and analysis results as described in the various embodiments and modifications described above, and generating En-Face images. selection of depth range, selection of whether to use it as learning data for additional learning, selection of trained models, output (display, transmission, etc.) and storage of results obtained using various trained models, etc. Any instruction may be used as long as it includes at least one instruction. Further, instructions from the examiner to which this modification is applicable may be not only instructions after imaging but also instructions before imaging, such as instructions regarding various adjustments and instructions regarding setting various imaging conditions. , or an instruction regarding the start of shooting. Further, the instruction from the examiner to which this modification is applicable may be an instruction regarding changing the display screen (screen transition).

なお、機械学習モデルとしては、CNN等の画像に関する機械学習モデルとRNN等の時系列データに関する機械学習モデルとを組み合わせた機械学習モデルであってもよい。このような機械学習モデルでは、例えば、画像に関する特徴量と時系列データに関する特徴量との関係性を学習することができる。機械学習モデルの入力層側がCNNで、出力層側がRNNである場合には、例えば、医用画像を入力データとし、該医用画像に関する文章(例えば、病変の有無、病変の種類、次の検査のレコメンド等)を出力データとする学習データを用いて学習が行われてもよい。これにより、例えば、医用画像に関する医療情報が自動的に文章で説明されるため、医療経験が浅い検者であっても、医用画像に関する医療情報を容易に把握することができる。また、機械学習モデルの入力層側がRNNで、出力層側がCNNである場合には、例えば、病変、所見、診断等の医療に関する文章を入力データとし、該医療に関する文章に対応する医用画像を出力データとする学習データを用いて学習が行われてもよい。これにより、例えば、検者が確認したい症例に関係する医用画像を容易に検索することができる。 Note that the machine learning model may be a machine learning model that combines a machine learning model related to images such as CNN and a machine learning model related to time series data such as RNN. In such a machine learning model, for example, it is possible to learn the relationship between a feature amount related to an image and a feature amount related to time-series data. When the input layer side of a machine learning model is a CNN and the output layer side is an RNN, for example, a medical image is used as input data, and sentences related to the medical image (e.g. presence or absence of a lesion, type of lesion, recommendation for the next examination) are input. Learning may be performed using learning data whose output data is (e.g.). As a result, for example, medical information related to medical images is automatically explained in text, so even an examiner with little medical experience can easily understand medical information related to medical images. In addition, when the input layer side of the machine learning model is an RNN and the output layer side is a CNN, for example, text related to medical care such as lesions, findings, diagnoses, etc. is input data, and a medical image corresponding to the text related to medical care is output. Learning may be performed using learning data as data. Thereby, for example, the examiner can easily search for medical images related to the case he or she wants to confirm.

また、検者からの指示や検者に対する出力には、文字や音声等の文章を任意の言語に機械翻訳する機械翻訳エンジン(機械翻訳モデル、機械翻訳用の学習済モデル)が用いられてもよい。なお、任意の言語は、検者からの指示に応じて選択可能に構成されてもよい。また、任意の言語は、言語の種類を自動認識する学習済モデルを用いることで自動選択可能に構成されてもよい。また、自動選択された言語の種類を検者からの指示に応じて修正可能に構成されてもよい。機械翻訳エンジンには、例えば、上述した自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。例えば、機械翻訳エンジンに入力された文章が機械翻訳された後に、機械翻訳された文章を文字認識エンジン等に入力するように構成されてもよい。また、例えば、上述した種々の学習済モデルから出力された文章を機械翻訳エンジンに入力し、機械翻訳エンジンから出力された文章が出力されるように構成されてもよい。 In addition, a machine translation engine (machine translation model, trained model for machine translation) that machine translates texts such as text and audio into any language may be used for instructions from the examiner and output to the examiner. good. Note that the arbitrary language may be configured to be selectable according to instructions from the examiner. Furthermore, any language may be configured to be automatically selectable by using a trained model that automatically recognizes the type of language. Furthermore, the automatically selected language type may be modified in accordance with instructions from the examiner. For example, the above-mentioned technology related to natural language processing (eg, sequence to sequence) may be applied to the machine translation engine. For example, after a sentence input to a machine translation engine is machine translated, the machine translated sentence may be input to a character recognition engine or the like. Further, for example, sentences output from the various trained models described above may be input to a machine translation engine, and the sentences output from the machine translation engine may be output.

また、上述した種々の学習済モデルが組み合わせて用いられてもよい。例えば、検者からの指示に対応する文字が文字認識エンジンに入力され、入力された文字から得た音声を他の種類の機械学習エンジン(例えば、機械翻訳エンジン等)に入力されるように構成されてもよい。また、例えば、他の種類の機械学習エンジンから出力された文字が文字認識エンジンに入力され、入力された文字から得た音声が出力されるように構成されてもよい。また、例えば、検者からの指示に対応する音声が音声認識エンジンに入力され、入力された音声から得た文字を他の種類の機械学習エンジン(例えば、機械翻訳エンジン等)に入力されるように構成されてもよい。また、例えば、他の種類の機械学習エンジンから出力された音声が音声認識エンジンに入力され、入力された音声から得た文字が出力部103に表示されるように構成されてもよい。このとき、検者に対する出力として文字による出力か音声による出力かを、検者からの指示に応じて選択可能に構成されてもよい。また、検者からの指示として文字による入力か音声による入力かを、検者からの指示に応じて選択可能に構成されてもよい。また、検者からの指示による選択によって、上述した種々の構成が採用されるようにしてもよい。 Further, the various learned models described above may be used in combination. For example, characters corresponding to instructions from the examiner are input into a character recognition engine, and the audio obtained from the input characters is input into another type of machine learning engine (for example, a machine translation engine). may be done. Furthermore, for example, characters output from another type of machine learning engine may be input to the character recognition engine, and the voice obtained from the input characters may be output. Also, for example, the voice corresponding to instructions from the examiner is input into a speech recognition engine, and the characters obtained from the input voice are input into another type of machine learning engine (for example, a machine translation engine, etc.). may be configured. Further, for example, the configuration may be such that speech output from another type of machine learning engine is input to the speech recognition engine, and characters obtained from the input speech are displayed on the output unit 103. At this time, the apparatus may be configured to be able to select whether the output to the examiner is in text or voice according to an instruction from the examiner. Further, it may be configured such that it is possible to select whether to input text or voice as an instruction from the examiner. Furthermore, the various configurations described above may be adopted by selection based on instructions from the examiner.

[変形例9]
本撮影により取得された画像に関するラベル画像や高画質画像等は、操作者からの指示に応じて記憶部101-3に保存されてもよい。このとき、例えば、高画質画像を保存するための操作者からの指示の後、ファイル名の登録の際に、推奨のファイル名として、ファイル名のいずれかの箇所(例えば、最初の箇所、又は最後の箇所)に、高画質化用の学習済モデルを用いた処理(高画質化処理)により生成された画像であることを示す情報(例えば、文字)を含むファイル名が、操作者からの指示に応じて編集可能な状態で表示されてもよい。なお、同様に、ラベル画像等についても、学習済モデルを用いた処理により生成された画像である情報を含むファイル名が表示されてもよい。
[Modification 9]
Label images, high-quality images, and the like related to images acquired through actual photography may be stored in the storage unit 101-3 according to instructions from the operator. At this time, for example, after receiving an instruction from the operator to save a high-quality image, when registering a file name, any part of the file name (for example, the first part, or In the last part), the file name containing information (for example, characters) indicating that the image is generated by processing using a trained model for high image quality (high image quality processing) is specified by the operator. It may be displayed in an editable state according to instructions. Note that, similarly, for label images and the like, a file name including information that the image is an image generated by processing using a learned model may be displayed.

また、レポート画面等の種々の表示画面において、出力部103に高画質画像を表示させる際に、表示されている画像が高画質化モデルを用いた処理により生成された高画質画像であることを示す表示が、高画質画像とともに表示されてもよい。この場合には、操作者は、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、高画質化モデルを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。また、高画質化モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルを用いた処理により生成された結果であることを示す表示が、その結果とともに表示されてもよい。例えば、画像セグメンテーション処理用の学習済モデルを用いたセグメンテーション結果の解析結果を表示する際にも、画像セグメンテーション用の学習済モデルを用いた結果に基づいた解析結果であることを示す表示が、解析結果とともに表示されてもよい。 In addition, when displaying a high-quality image on the output unit 103 on various display screens such as a report screen, it is possible to confirm that the displayed image is a high-quality image generated by processing using a high-quality model. The display shown may be displayed together with a high-quality image. In this case, the display allows the operator to easily identify that the displayed high-quality image is not the image obtained by photography, thereby reducing misdiagnosis and improving diagnostic efficiency. be able to. Note that the display indicating that the image is a high-quality image generated by processing using a high-quality model may be any form as long as it is possible to distinguish between the input image and the high-quality image generated by the processing. It may also be from. In addition, it is shown that not only processing using a high-quality model but also processing using various trained models such as those described above are results generated by processing using that type of trained model. A display may be displayed with the results. For example, when displaying the analysis results of segmentation results using a trained model for image segmentation processing, the display indicating that the analysis results are based on the results using a trained model for image segmentation It may be displayed along with the results.

このとき、レポート画面等の表示画面は、操作者からの指示に応じて、画像データとして記憶部101-3に保存されてもよい。例えば、高画質画像等と、これらの画像が学習済モデルを用いた処理により生成された画像であることを示す表示とが並んだ1つの画像としてレポート画面が記憶部101-3に保存されてもよい。 At this time, the display screen such as the report screen may be saved as image data in the storage unit 101-3 according to an instruction from the operator. For example, a report screen may be stored in the storage unit 101-3 as one image in which high-quality images, etc., and a display indicating that these images are images generated by processing using a trained model. Good too.

また、高画質化モデルを用いた処理により生成された高画質画像であることを示す表示について、高画質化モデルがどのような学習データによって学習を行ったものであるかを示す表示が出力部103に表示されてもよい。当該表示としては、学習データの入力データと正解データの種類の説明や、入力データと正解データに含まれる撮影部位等の正解データに関する任意の表示を含んでよい。なお、例えば画像セグメンテーション処理等上述した種々の学習済モデルを用いた処理についても、その種類の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が出力部103に表示されてもよい。 In addition, regarding the display indicating that the image is a high-quality image generated by processing using a high-quality model, there is also a display on the output section that indicates what kind of training data the high-quality model was trained with. 103 may be displayed. The display may include an explanation of the types of the input data and correct data of the learning data, and any display related to the correct data such as the imaged body part included in the input data and the correct data. Furthermore, for processing using the various trained models described above, such as image segmentation processing, for example, the output unit 103 displays a display indicating what kind of learning data was used to train the trained model of that type. May be displayed.

また、学習済モデルを用いた処理により生成された画像であることを示す情報(例えば、文字)を、画像等に重畳した状態で表示又は保存されるように構成されてもよい。このとき、画像上に重畳する箇所は、撮影対象となる注目部位等が表示されている領域には重ならない領域(例えば、画像の端)であればどこでもよい。また、重ならない領域を判定し、判定された領域に重畳させてもよい。なお、高画質化モデルを用いた処理だけでなく、例えば画像セグメンテーション処理等の上述した種々の学習済モデルを用いた処理により得た画像についても、同様に処理してよい。 Further, information (for example, text) indicating that the image is generated by processing using a learned model may be displayed or saved in a state superimposed on the image. At this time, the location to be superimposed on the image may be any region (for example, the edge of the image) that does not overlap with the region in which the region of interest to be photographed is displayed. Alternatively, a non-overlapping area may be determined and the area may be overlapped with the determined area. Note that, in addition to the processing using the high image quality model, images obtained by processing using the various learned models described above, such as image segmentation processing, may also be processed in the same way.

また、レポート画面の初期表示画面として、高画質化処理ボタン等がアクティブ状態(高画質化処理がオン)となるようにデフォルト設定されている場合には、検者からの指示に応じて、高画質画像等を含むレポート画面に対応するレポート画像がサーバに送信されるように構成されてもよい。また、当該ボタンがアクティブ状態となるようにデフォルト設定されている場合には、検査終了時(例えば、検者からの指示に応じて、撮影確認画面やプレビュー画面からレポート画面に変更された場合)に、高画質画像等を含むレポート画面に対応するレポート画像がサーバに(自動的に)送信されるように構成されてもよい。このとき、デフォルト設定における各種設定(例えば、レポート画面の初期表示画面におけるEn-Face画像の生成のための深度範囲、解析マップの重畳の有無、高画質画像か否か、経過観察用の表示画面か否か等の少なくとも1つに関する設定)に基づいて生成されたレポート画像がサーバに送信されるように構成されてもよい。なお、当該ボタンが画像セグメンテーション処理の切り替えを表す場合に関しても、同様に処理されてよい。 In addition, if the initial display screen of the report screen is set so that the high image quality processing button etc. is in the active state (high image quality processing is turned on), the It may be configured such that a report image corresponding to a report screen including a quality image etc. is transmitted to the server. In addition, if the button is set to be active by default, it will be activated at the end of the examination (for example, when the shooting confirmation screen or preview screen is changed to the report screen in response to instructions from the examiner). Furthermore, the report image corresponding to the report screen including high-quality images may be (automatically) transmitted to the server. At this time, various settings in the default settings (for example, the depth range for generating the En-Face image on the initial display screen of the report screen, whether or not the analysis map is superimposed, whether or not it is a high-quality image, the display screen for follow-up observation) A report image generated based on at least one setting such as whether or not the report image is sent to the server may be configured. Note that the same processing may be performed when the button represents switching of image segmentation processing.

[変形例10]
上述した実施形態及び変形例において、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルで得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、領域認識結果を示す画像、セグメンテーション結果を示す画像)を、第1の種類とは異なる第2の種類の学習済モデルに入力してもよい。このとき、第2の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、領域認識結果、セグメンテーション結果)が生成されるように構成されてもよい。
[Modification 10]
In the embodiments and modifications described above, images obtained with the first type of trained model among the various trained models described above (e.g., high-quality images, images showing analysis results such as analysis maps, (an image showing a region recognition result, an image showing a segmentation result) may be input to a second type of trained model different from the first type. At this time, the configuration may be such that results (for example, analysis results, diagnosis results, area recognition results, and segmentation results) are generated by processing the second type of learned model.

また、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、領域認識結果、セグメンテーション結果)を用いて、第1の種類の学習済モデルに入力した画像から、第1の種類とは異なる第2の種類の学習済モデルに入力する画像を生成してもよい。このとき、生成された画像は、第2の種類の学習済モデルを用いて処理する画像として適した画像である可能性が高い。このため、生成された画像を第2の種類の学習済モデルに入力して得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、領域認識結果を示す画像、セグメンテーション結果を示す画像)の精度を向上することができる。 Further, among the various trained models described above, the results of processing the first type of trained model (for example, analysis results, diagnosis results, area recognition results, segmentation results) are used to generate the first type of trained model. An image to be input to a second type of trained model different from the first type may be generated from an image input to the trained model. At this time, the generated image is highly likely to be an image suitable for processing using the second type of learned model. For this reason, images obtained by inputting the generated image to the second type of trained model (for example, high-quality images, images showing analysis results such as analysis maps, images showing area recognition results, and segmentation results) The accuracy of images shown) can be improved.

なお、共通の画像が、第1の種類の学習済モデルと第2の種類の学習済モデルとに入力されることで、これらの学習済モデルを用いた各処理結果の生成(あるいは表示)を実行するように構成されてもよい。このとき、例えば、検者からの指示に応じて、これらの学習済モデルを用いた各処理結果の生成(あるいは表示)を一括して(連動して)実行するように構成されてもよい。 Note that by inputting a common image to the first type of trained model and the second type of trained model, it is possible to generate (or display) each processing result using these trained models. may be configured to execute. At this time, for example, the generation (or display) of each processing result using these learned models may be executed at once (in conjunction with each other) in response to an instruction from the examiner.

また、入力させる画像の種類(例えば、高画質画像、領域認識結果、物体認識結果、セグメンテーション結果、類似症例画像)、生成(あるいは表示)させる処理結果の種類(例えば、高画質画像、領域認識結果、診断結果、解析結果、物体認識結果、セグメンテーション結果、類似症例画像)、入力の種類や出力の種類(例えば、文字、音声、言語)等をそれぞれ検者からの指示に応じて選択可能に構成されてもよい。さらに入力の種類は、入力の種類を自動認識する学習済モデルを用いることで自動選択可能に構成されてもよい。また、出力の種類は、入力の種類と対応する(例えば、同じ種類になる)ように自動選択可能に構成されてもよい。さらに、自動選択された種類を検者からの指示に応じて修正可能に構成されてもよい。このとき、選択された種類に応じて少なくとも1つの学習済モデルが選択されるように構成されてもよい。このとき、複数の学習済モデルが選択された場合には、選択された種類に応じて複数の学習済モデルの組み合わせ方(例えば、データを入力させる順番等)が決定されてもよい。なお、例えば、入力させる画像の種類と、生成(あるいは表示)させる処理結果の種類とが、異なるように選択可能に構成されてもよいし、同じである場合には異なるように選択することを促す情報を検者に対して出力するように構成されてもよい。 In addition, the types of images to be input (e.g., high-quality images, region recognition results, object recognition results, segmentation results, similar case images), and the types of processing results to be generated (or displayed) (e.g., high-quality images, region recognition results) , diagnosis results, analysis results, object recognition results, segmentation results, similar case images), input type, output type (e.g. text, voice, language), etc. can be selected according to instructions from the examiner. may be done. Furthermore, the type of input may be configured to be automatically selectable by using a trained model that automatically recognizes the type of input. Further, the type of output may be configured to be automatically selectable so as to correspond to (for example, be the same type) as the type of input. Furthermore, the automatically selected type may be modified in accordance with instructions from the examiner. At this time, at least one trained model may be selected depending on the selected type. At this time, if a plurality of trained models are selected, how to combine the plurality of trained models (for example, the order in which data is input, etc.) may be determined according to the selected type. Note that, for example, the type of image to be input and the type of processing result to be generated (or displayed) may be configured so that they can be selected differently, or if they are the same, they may be selected differently. It may be configured to output prompting information to the examiner.

また、各学習済モデルはどの場所で実行されてもよい。例えば、複数の学習済モデルのうちの一部がクラウドサーバで用いられ、他はフォグサーバやエッジサーバ等の別のサーバで用いられるように構成されてもよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。これらにより、例えば、硝子体、白内障、緑内障、角膜屈折矯正、外眼等の手術や、レーザ光凝固等の治療が、遠隔であってもリアルタイムに支援することができる。このとき、例えば、これらの手術や治療に関する装置により得た種々の医用画像の少なくとも1つを無線により受信したフォグサーバやエッジサーバ等が種々の学習済モデルの少なくとも1つを用いて得た情報を手術や治療に関する装置に無線で送信するように構成されてもよい。また、例えば、手術や治療に関する装置に無線で受信した情報が、上述したような光学系や光学部材の移動量(ベクトル)であってもよく、この場合、手術や治療に関する装置が自動制御されるように構成されてもよい。また、例えば、検者による操作の支援を目的として、検者の許可を伴う自動制御(半自動制御)として構成されてもよい。 Furthermore, each trained model may be executed at any location. For example, some of the plurality of trained models may be used in a cloud server, and the others may be configured to be used in another server such as a fog server or an edge server. Note that when configuring a network within a facility, within a site that includes a facility, within an area that includes multiple facilities, etc. to enable wireless communication, for example, if a network is configured to enable wireless communication, The reliability of the network may be improved by configuring it to use radio waves in a dedicated wavelength band. Furthermore, the network may be constructed using wireless communication that is capable of high speed, large capacity, low delay, and multiple simultaneous connections. As a result, for example, operations such as vitreous body, cataract, glaucoma, corneal refractive correction, external eye surgery, and treatments such as laser photocoagulation can be supported in real time even remotely. At this time, for example, a fog server or an edge server that wirelessly receives at least one of various medical images obtained by these devices related to surgery or treatment uses information obtained using at least one of various learned models. may be configured to wirelessly transmit the information to a surgical or therapeutic device. Further, for example, the information received wirelessly by a device related to surgery or treatment may be the amount of movement (vector) of an optical system or optical member as described above, and in this case, the device related to surgery or treatment is automatically controlled. It may also be configured to do so. Furthermore, for example, automatic control (semi-automatic control) with permission from the examiner may be configured for the purpose of supporting operations by the examiner.

また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。また、上述したような種々の学習済モデルの処理による物体認識結果やセグメンテーション結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の医用画像が、既に機械学習等によって該複数の医用画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、医用画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。例えば、画像処理装置101は、(高画質化用の学習済モデルとは異なる)類似症例画像検索用の学習済モデルを用いて、種々の医用画像から該医用画像に関連する類似症例画像の検索を行うことができる。 Further, a similar case image search may be performed using an external database stored in a server or the like using the analysis results, diagnosis results, etc. obtained by processing the learned model as described above as a search key. Further, a similar case image search may be performed using an external database stored in a server or the like using object recognition results, segmentation results, etc. obtained by processing various trained models as described above as search keys. Note that in cases where multiple medical images stored in a database are already managed using machine learning, etc., with the feature amounts of each of the multiple medical images attached as additional information, the medical images themselves may be A similar case image search engine (similar case image search model, trained model for similar case image search) may be used as a search key. For example, the image processing device 101 uses a trained model for similar case image retrieval (different from a trained model for image quality improvement) to search for similar case images related to the medical image from various medical images. It can be performed.

また、例えば、表示制御部101-5は、種々の医用画像から類似症例画像検索用の学習済モデルを用いて得た類似症例画像を出力部103に表示させることができる。このとき、類似症例画像は、例えば、学習済モデルに入力された医用画像の特徴量と類似する特徴量の画像である。また、類似症例画像は、例えば、学習済モデルに入力された医用画像において異常部位等の部分領域が含まれる場合には、異常部位等の部分領域の特徴量と類似する特徴量の画像である。このため、例えば、類似症例画像を精度よく検索するための学習を効率的に行うことができるだけでなく、医用画像において異常部位が含まれる場合には、検者は異常部位の診断を効率よく行うことができる。また、複数の類似症例画像が検索されてもよく、特徴量が類似する順番が識別可能に複数の類似症例画像が表示されてもよい。また、複数の類似症例画像のうち、検者からの指示に応じて選択された画像と該画像との特徴量とを含む学習データを用いて、類似症例画像検索用の学習済モデルが追加学習されるように構成されてもよい。 Further, for example, the display control unit 101-5 can cause the output unit 103 to display similar case images obtained from various medical images using a learned model for searching similar case images. At this time, the similar case image is, for example, an image with a feature amount similar to the feature amount of the medical image input to the learned model. In addition, for example, when a medical image input to a trained model includes a partial region such as an abnormal region, the similar case image is an image with a feature amount similar to the feature amount of the partial region such as the abnormal region. . Therefore, for example, not only can learning be performed efficiently to accurately search for similar case images, but also when medical images include abnormal areas, the examiner can efficiently diagnose the abnormal areas. be able to. Further, a plurality of similar case images may be searched, and a plurality of similar case images may be displayed such that the order in which the feature amounts are similar can be identified. In addition, the trained model for similar case image search is additionally trained using training data that includes an image selected according to instructions from the examiner from among multiple similar case images and the feature values of the image. It may be configured so that

また、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 In addition, the learning data for various trained models is not limited to data obtained using the ophthalmological apparatus itself that performs actual imaging, but may also be data obtained using the same type of ophthalmological apparatus or data obtained using the same type of ophthalmological apparatus depending on the desired configuration. It may also be data obtained using an ophthalmological device.

なお、上述した実施形態及び変形例に係る各種学習済モデルは画像処理装置101に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、画像処理装置101と接続される別のサーバの装置等に設けられてもよい。この場合には、画像処理装置101は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。 Note that various learned models according to the embodiments and modifications described above can be provided in the image processing apparatus 101. The trained model may be configured with a software module executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be configured with a circuit that performs a specific function such as an ASIC. Further, these trained models may be provided in another server device connected to the image processing device 101. In this case, the image processing apparatus 101 can use the trained model by connecting to a server or the like that includes the trained model via an arbitrary network such as the Internet. Here, the server provided with the trained model may be, for example, a cloud server, a fog server, an edge server, or the like. Note that when configuring a network within a facility, within a site that includes a facility, within an area that includes multiple facilities, etc. to enable wireless communication, for example, if a network is configured to enable wireless communication, The reliability of the network may be improved by configuring it to use radio waves in a dedicated wavelength band. Furthermore, the network may be constructed using wireless communication that is capable of high speed, large capacity, low delay, and multiple simultaneous connections.

[変形例11]
上述した様々な実施形態及び変形例による画像処理装置101によって処理される医用画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や、医用画像処理装置又は医用画像処理方法によって作成された画像を含むことができる。
[Modification 11]
The medical images processed by the image processing apparatus 101 according to the various embodiments and modifications described above include images acquired using any modality (imaging device, imaging method). The medical images to be processed can include medical images acquired with any imaging device or the like, and images created by a medical image processing device or a medical image processing method.

さらに、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Furthermore, the medical image to be processed is an image of a predetermined region of a subject (subject), and the image of the predetermined region includes at least a part of the predetermined region of the subject. Further, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a black and white image or a color image. Furthermore, the medical image may be an image representing the structure (morphology) of a predetermined region, or an image representing its function. Images representing functions include, for example, images representing blood flow dynamics (blood flow volume, blood flow velocity, etc.) such as OCTA images, Doppler OCT images, fMRI images, and ultrasound Doppler images. The predetermined parts of the subject may be determined depending on the object to be imaged, and may include human eyes (eyes to be examined), organs such as the brain, lungs, intestines, heart, pancreas, kidneys, and liver, head, chest, Includes arbitrary parts such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底又は前眼部のSLO画像、蛍光撮影された眼底画像、OCTで取得したデータ(3次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn-Face画像を含む。En-Face画像は、3次元のOCTAデータ(3次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn-Face画像(モーションコントラスト正面画像)であってもよい。また、3次元のOCTデータや3次元のモーションコントラストデータは、3次元の医用画像データの一例である。 Furthermore, the medical image may be a tomographic image of the subject or a frontal image. The frontal image includes, for example, an SLO image of the fundus or anterior segment of the eye, a fluorescently photographed fundus image, and data acquired by OCT (three-dimensional OCT data) in at least a partial range in the depth direction of the object to be imaged. Contains the En-Face image generated using the En-Face image. The En-Face image is an OCTA En-Face image (motion contrast frontal image) generated using data of at least a partial range in the depth direction of the imaging target regarding the three-dimensional OCTA data (three-dimensional motion contrast data). ). Furthermore, three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.

ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn-Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。なお、略同一位置を測定光が複数回走査されるように走査手段を制御する際に、一つの走査(一つのBスキャン)と次の走査(次のBスキャン)との時間間隔(タイムインターバル)が変更(決定)されるように構成されてもよい。これにより、例えば、血管の状態によって血流速度が異なる場合があっても、血管領域を精度よく可視化することができる。このとき、例えば、検者からの指示に応じて、上記時間間隔が変更可能に構成されてもよい。また、例えば、検者からの指示に応じて、予め設定されている複数の時間間隔に対応する複数のモーションコントラスト画像から、いずれかのモーションコントラスト画像が選択可能に構成されてもよい。また、例えば、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータとを対応づけて記憶部101-3に記憶可能に構成されてもよい。また、例えば、表示制御部101-5、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータに対応するモーションコントラスト画像とを出力部103に表示させてもよい。また、例えば、上記時間間隔が自動的に決定、あるいは上記時間間隔の少なくとも1つの候補が決定されるように構成されてもよい。このとき、例えば、機械学習モデルを用いて、モーションコントラスト画像から、上記時間間隔が決定(出力)されるように構成されてもよい。このような機械学習モデルは、例えば、複数の時間間隔に対応する複数のモーションコントラスト画像を入力データとし、該複数の時間間隔から所望のモーションコントラスト画像を取得した際の時間間隔までの差を正解データとする学習データを学習することにより得ることができる。 Here, the motion contrast data is data indicating changes among a plurality of volume data obtained by controlling the measurement light to scan the same area (same position) of the eye to be examined multiple times. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, by obtaining data indicating changes between a plurality of tomographic images obtained at substantially the same position at each different position, motion contrast data can be obtained as volume data. Note that the motion contrast front image is also called an OCTA front image (OCTA En-Face image) related to OCT angiography (OCTA) that measures the movement of blood flow, and the motion contrast data is also called OCTA data. Motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a value obtained by dividing the maximum value by the minimum value (maximum value/minimum value) between two tomographic images or their corresponding interference signals. , may be determined by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measuring light to scan the same area (same position) of the eye to be examined multiple times. Note that when controlling the scanning means so that the measurement light scans approximately the same position multiple times, the time interval between one scan (one B scan) and the next scan (next B scan) ) may be changed (determined). Thereby, for example, even if the blood flow velocity varies depending on the condition of the blood vessel, the blood vessel region can be visualized with high accuracy. At this time, the time interval may be configured to be changeable, for example, according to instructions from the examiner. Further, for example, it may be configured such that one of the motion contrast images can be selected from a plurality of motion contrast images corresponding to a plurality of preset time intervals in response to an instruction from the examiner. Furthermore, for example, the storage unit 101-3 may be configured to be able to store the motion contrast data in association with the time interval at which the motion contrast data is acquired. Further, for example, the display control unit 101-5 may cause the output unit 103 to display the time interval at which the motion contrast data was acquired and the motion contrast image corresponding to the motion contrast data. Further, for example, the time interval may be automatically determined, or at least one candidate for the time interval may be determined. At this time, the time interval may be determined (output) from the motion contrast image using, for example, a machine learning model. Such a machine learning model, for example, uses multiple motion contrast images corresponding to multiple time intervals as input data, and calculates the difference between the multiple time intervals and the time interval when the desired motion contrast image was acquired as the correct answer. It can be obtained by learning learning data used as data.

また、En-Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像である。このとき、正面画像は、光干渉を用いて得たボリュームデータ(3次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影又は積算して生成される。En-Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを2次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En-Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En-Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 Further, the En-Face image is, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the front image is data that corresponds to at least a partial depth range of volume data (three-dimensional tomographic image) obtained using optical interference, and that corresponds to a depth range determined based on two reference planes. It is generated by projecting or integrating onto a two-dimensional plane. The En-Face image is a frontal image generated by projecting data corresponding to a depth range determined based on the detected retinal layer out of the volume data onto a two-dimensional plane. Note that as a method of projecting data corresponding to a depth range determined based on two reference planes onto a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. method can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range that includes a predetermined number of pixels in a deeper direction or a shallower direction with one of the two layer boundaries regarding the detected retinal layer as a reference. Good too. Furthermore, the depth range related to the En-Face image may be, for example, a range changed (offset) from the range between the two layer boundaries regarding the detected retinal layers in accordance with the operator's instructions. good.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、上述した様々な実施形態及び変形例に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。なお、上述の各実施形態や変形例に係る構成を、これら撮影装置に適用することができる。この場合、上述の予測すべき被検眼の動きに対応する被検体の動きとしては、例えば、顔や体の動き、心臓の動き(心拍)等であってよい。 Further, the photographing device is a device for photographing images used for diagnosis. The imaging device is, for example, a device that obtains an image of a predetermined region of a subject by irradiating the subject with radiation such as light, X-rays, electromagnetic waves, or ultrasound, or a device that detects radiation emitted from the subject. includes a device for obtaining an image of a predetermined region. More specifically, the imaging devices according to the various embodiments and modifications described above include at least an X-ray imaging device, a CT device, an MRI device, a PET device, a SPECT device, an SLO device, an OCT device, an OCTA device, and a fundus. Includes cameras, endoscopes, etc. Note that the configurations according to the above-described embodiments and modifications can be applied to these imaging devices. In this case, the movement of the subject corresponding to the movement of the eye to be predicted described above may be, for example, the movement of the face or body, the movement of the heart (heartbeat), or the like.

なお、OCT装置としては、タイムドメインOCT(TD-OCT)装置やフーリエドメインOCT(FD-OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD-OCT)装置や波長掃引型OCT(SS-OCT)装置を含んでよい。また、OCT装置は、ライン光を用いたLine-OCT装置(あるいはSS-Line-OCT装置)を含んでよい。また、OCT装置は、エリア光を用いたFull Field-OCT装置(あるいはSS-Full Field-OCT装置)を含んでよい。また、OCT装置は、Doppler-OCT装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO-SLO)装置や波面補償OCT(AO-OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS-SLO)装置や偏光OCT(PS-OCT)装置等を含んでよい。また、SLO装置やOCT装置として、病理顕微鏡SLO装置や病理顕微鏡OCT装置等を含んでよい。また、SLO装置やOCT装置として、ハンドヘルド型のSLO装置やハンドヘルド型のOCT装置等を含んでよい。また、SLO装置やOCT装置として、カテーテルSLO装置やカテーテルOCT装置等を含んでよい。また、SLO装置やOCT装置として、ヘッドマウント型のSLO装置やヘッドマウント型のOCT装置等を含んでよい。また、SLO装置やOCT装置として、双眼鏡型のSLO装置や双眼鏡型のOCT装置等を含んでよい。また、SLO装置やOCT装置は、光学変倍可能な構成によって、撮影画角を変更可能なものであってもよい。また、SLO装置は、RGBの各光源を用いて、1つの受光素子で時分割に受光する構成又は複数の受光素子で同時に受光する構成によって、カラー画像や蛍光画像を取得可能なものであってもよい。 Note that the OCT device may include a time domain OCT (TD-OCT) device and a Fourier domain OCT (FD-OCT) device. Further, the Fourier domain OCT device may include a spectral domain OCT (SD-OCT) device or a wavelength swept OCT (SS-OCT) device. Further, the OCT device may include a Line-OCT device (or SS-Line-OCT device) using line light. Further, the OCT device may include a Full Field-OCT device (or SS-Full Field-OCT device) using area light. Additionally, the OCT device may include a Doppler-OCT device. Furthermore, the SLO device and OCT device may include a wavefront compensated SLO (AO-SLO) device using a wavefront adaptive optical system, a wavefront compensated OCT (AO-OCT) device, and the like. Furthermore, the SLO device and OCT device may include a polarization SLO (PS-SLO) device, a polarization OCT (PS-OCT) device, etc. for visualizing information regarding polarization phase difference and depolarization. Furthermore, the SLO device and OCT device may include a pathological microscope SLO device, a pathological microscope OCT device, and the like. Furthermore, the SLO device and OCT device may include a handheld SLO device, a handheld OCT device, and the like. Further, the SLO device and OCT device may include a catheter SLO device, a catheter OCT device, and the like. Further, the SLO device and OCT device may include a head-mounted SLO device, a head-mounted OCT device, and the like. Furthermore, the SLO device and OCT device may include a binocular-type SLO device, a binocular-type OCT device, and the like. Further, the SLO device and the OCT device may be configured to have variable optical magnification, so that the imaging angle of view can be changed. In addition, the SLO device is capable of acquiring color images and fluorescence images by using RGB light sources and having a configuration in which one light receiving element receives light in a time-division manner or a configuration in which multiple light receiving elements simultaneously receive light. Good too.

また、上述の実施形態及び変形例では、画像処理装置101はOCT装置の一部として構成されているが、画像処理装置101はOCT装置と別体として構成されてもよい。この場合、画像処理装置101は、OCT装置の撮影装置100等とインターネット等を介して接続されてもよい。また、OCT装置の構成は、上記の構成に限られず、OCT装置に含まれる構成の一部を、例えばSLO撮影部等をOCT装置と別体の構成としてもよい。 Further, in the above-described embodiments and modified examples, the image processing device 101 is configured as a part of the OCT device, but the image processing device 101 may be configured separately from the OCT device. In this case, the image processing device 101 may be connected to the imaging device 100 of the OCT device or the like via the Internet or the like. Further, the configuration of the OCT device is not limited to the above configuration, and a part of the configuration included in the OCT device, such as an SLO imaging unit, may be configured separately from the OCT device.

なお、音声認識用や文字認識用、ジェスチャー認識用等の学習済モデルでは、入力される連続する時系列のデータ値間の傾きを特徴量の一部として抽出し、推定処理に用いているものと考えられる。このような学習済モデルは、具体的な数値の時間的な変化による影響を推定処理に用いることで、精度のよい推定を行うことができると期待される。また、上述の実施形態及び変形例に係る、高画質化用、領域認識用、セグメンテーション処理用、画像解析用、診断結果生成用の学習済モデルでも、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。 In addition, in trained models for voice recognition, character recognition, gesture recognition, etc., the slope between input continuous time-series data values is extracted as part of the feature quantity and used for estimation processing. it is conceivable that. Such a trained model is expected to be able to perform highly accurate estimation by using the influence of temporal changes in specific numerical values in estimation processing. In addition, even in the trained models for high image quality, area recognition, segmentation processing, image analysis, and diagnostic result generation according to the above-mentioned embodiments and modifications, the brightness values of tomographic images, bright areas, It is thought that the order, slope, position, distribution, continuity, etc. of dark areas are extracted as part of the feature quantities and used in the estimation process.

(その他の実施形態)
本発明は、上述した様々な実施形態及び変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
(Other embodiments)
The present invention provides software (programs) that implement one or more functions of the various embodiments and modifications described above to a system or device via a network or a storage medium, and the computer of the system or device executes the programs. This can also be realized by reading and executing processing. A computer has one or more processors or circuits and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

このとき、プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), microprocessing unit (MPU), graphics processing unit (GPU), application specific integrated circuit (ASIC), or field programmable gateway (FPGA). The processor or circuit may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

以上、実施形態及び変形例を参照して本発明について説明したが、本発明は上記実施形態及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to the embodiments and modified examples, the present invention is not limited to the above embodiments and modified examples. The present invention includes inventions modified within the scope of the spirit of the present invention and inventions equivalent to the present invention. Furthermore, the above-described embodiments and modifications can be combined as appropriate within the scope of the invention.

101:画像処理装置、101-47:高画質化部、200:被検眼(被検体)、301:高画質化処理部(高画質化部)302:領域認識部、304:ブレンド処理部(画像処理部)、305:BC調整部(画像処理部) 101: Image processing device, 101-47: Image quality improvement unit, 200: Eye to be examined (subject), 301: Image quality improvement processing unit (high image quality improvement unit) 302: Area recognition unit, 304: Blend processing unit (image processing unit), 305: BC adjustment unit (image processing unit)

Claims (27)

被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得する高画質化部と、
被検体の医用画像における対象領域を検出する検出部と、
前記第2の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行う画像処理部と、
被検体に関する画像を含む学習データを学習して得た学習済モデルの入力データとして被検体の医用画像を入力することにより得られた高画質画像をライブ動画像として表示部に表示させる表示制御部と、
を備え
前記表示制御部は、前記高画質画像として得られた正面画像であって、前記高画質画像として得られた断層画像の位置を示すラインが重畳表示された正面画像を前記ライブ動画像として前記表示部に表示させ、該正面画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させる、画像処理装置。
By performing image quality enhancement processing on the first image, which is the medical image of the subject, using a trained model obtained through learning using the medical image of the subject as learning data, the medical image of the subject is a high image quality improvement unit that obtains a second image that is
a detection unit that detects a target area in a medical image of a subject;
An image in which image processing is performed on the target area in the second image so that the difference between the pixel value of the target area and the pixel value of an area other than the target area increases and the pixel value of the target area becomes lower. a processing section;
A display control unit that displays a high-quality image obtained by inputting a medical image of the subject as input data of a trained model obtained by learning learning data including images related to the subject as a live moving image on the display unit. and,
Equipped with
The display control unit is configured to display, as the live video image, a frontal image obtained as the high-quality image, on which a line indicating the position of the tomographic image obtained as the high-quality image is superimposed and displayed. The image processing device displays the tomographic image corresponding to the position of the line on the front image on the display unit as the live moving image.
前記画像処理は、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように前記第1の画像と前記第2の画像とをブレンドする処理を含む、請求項1に記載の画像処理装置。 The image processing includes processing to blend the first image and the second image so that a difference between a pixel value of a target region and a pixel value of a region other than the target region is widened. image processing device. 前記検出部は、前記第1の画像を用いて対象領域を検出し、
前記画像処理部は、前記第1の画像における検出された対象領域に対応する前記第2の画像における対象領域に対して前記画像処理を行う、請求項1又は2に記載の画像処理装置。
The detection unit detects a target area using the first image,
The image processing device according to claim 1 or 2, wherein the image processing unit performs the image processing on a target area in the second image that corresponds to a detected target area in the first image.
前記検出部は、前記第2の画像を用いて対象領域を検出する、請求項1又は2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the detection unit detects a target area using the second image. 被検体の医用画像における対象領域を検出する検出部と、
被検体の医用画像である第1の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行う画像処理部と、
被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、前記画像処理が行われた第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得する高画質化部と、
を備える、画像処理装置。
a detection unit that detects a target area in a medical image of a subject;
With respect to the target region in the first image, which is a medical image of the subject, the difference between the pixel value of the target region and the pixel value of a region other than the target region is widened, and the pixel value of the target region is lowered. an image processing unit that performs image processing;
By performing image quality enhancement processing on the first image that has been subjected to the image processing using a trained model obtained by learning using the medical image of the subject as learning data, the medical image of the subject is a high image quality improvement unit that obtains a second image that is
An image processing device comprising:
前記検出部は、前記第1の画像を用いて対象領域を検出する、請求項5に記載の画像処理装置。 The image processing device according to claim 5, wherein the detection unit detects a target area using the first image. 前記検出部は、前記画像処理が行われていない前記第1の画像を高画質化処理した画像を用いて対象領域を検出する、請求項5に記載の画像処理装置。 The image processing device according to claim 5, wherein the detection unit detects the target area using an image obtained by performing high-quality processing on the first image on which the image processing has not been performed. 前記検出部は、被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、対象領域を検出する、請求項1乃至7のいずれか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 7, wherein the detection unit detects the target area using a learned model obtained by learning using a medical image of a subject as learning data. 医用画像は正面画像であり、
前記検出部は、複数の深度範囲に対応する被検体の複数の正面画像を学習データとした学習により得た学習済モデルを用いて、2次元の対象領域を検出する、請求項1乃至8のいずれか一項に記載の画像処理装置。
Medical images are frontal images;
9. The detection unit detects a two-dimensional target area using a trained model obtained by learning using a plurality of frontal images of a subject corresponding to a plurality of depth ranges as learning data. The image processing device according to any one of the items.
医用画像は正面画像であり、
前記検出部は、複数の深度範囲に対応する被検体の複数の正面画像をそれぞれの学習データとした学習により得た複数の学習済モデルのうち、検者からの指示に応じて選択された深度範囲に対応する学習済モデルを選択し、選択された学習済モデルを用いて、2次元の対象領域を検出する、請求項1乃至8のいずれか一項に記載の画像処理装置。
Medical images are frontal images;
The detection unit selects a depth selected according to an instruction from the examiner from among a plurality of trained models obtained through learning using a plurality of frontal images of the subject corresponding to a plurality of depth ranges as learning data respectively. The image processing device according to any one of claims 1 to 8, wherein a trained model corresponding to a range is selected, and a two-dimensional target area is detected using the selected trained model.
医用画像は3次元の医用画像であり、
前記検出部は、被検体の3次元の医用画像を学習データとした学習により得た学習済モデルを用いて、3次元の対象領域を検出する、請求項1乃至8のいずれか一項に記載の画像処理装置。
A medical image is a three-dimensional medical image,
The detection unit detects a three-dimensional target area using a trained model obtained by learning using a three-dimensional medical image of a subject as learning data. image processing device.
前記検出部は、前記第1の画像を用いて、被検体の構造に基づくルールベースの処理により対象領域を検出する、請求項1乃至3、5、及び6のいずれか一項に記載の画像処理装置。 The image according to any one of claims 1 to 3, 5, and 6, wherein the detection unit uses the first image to detect the target area by rule-based processing based on the structure of the subject. Processing equipment. 前記画像処理は、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように明るさ及びコントラストの少なくとも一方を補正する処理を含む、請求項1乃至12のいずれか一項に記載の画像処理装置。 13. The image processing includes processing for correcting at least one of brightness and contrast so as to widen the difference between pixel values in the target area and pixel values in areas other than the target area. The image processing device described in . 被検体の医用画像は、被検眼のモーションコントラスト画像であり、
前記対象領域は無灌流領域、中心窩血管領域、及び視神経乳頭領域の少なくとも1つを含む、請求項1乃至13のいずれか一項に記載の画像処理装置。
The medical image of the subject is a motion contrast image of the subject's eye,
The image processing device according to any one of claims 1 to 13, wherein the target area includes at least one of a non-perfused area, a foveal blood vessel area, and an optic disc area.
検体の医用画像を学習データとした学習により得た第1の学習済モデルを用いた高画質化処理と、対象領域における画像処理とが行われた被検体の医用画像を学習データとした学習により得た第2の学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得する高画質化部と、
被検体に関する画像を含む学習データを学習して得た学習済モデルの入力データとして被検体の医用画像を入力することにより得られた高画質画像をライブ動画像として表示部に表示させる表示制御部と、
を備え
前記表示制御部は、前記高画質画像として得られた正面画像であって、前記高画質画像として得られた断層画像の位置を示すラインが重畳表示された正面画像を前記ライブ動画像として前記表示部に表示させ、該正面画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させる、画像処理装置。
The medical image of the subject was used as the learning data, and the medical image of the subject was subjected to image quality enhancement processing using the first trained model obtained through learning using the medical image of the subject as learning data, and the image processing in the target area was performed. By performing image quality enhancement processing on the first image, which is a medical image of the subject, using the second trained model obtained through learning, the second image, which is a medical image of the subject, is A high image quality unit to obtain,
A display control unit that displays a high-quality image obtained by inputting a medical image of the subject as input data of a trained model obtained by learning learning data including images related to the subject as a live moving image on the display unit. and,
Equipped with
The display control unit is configured to display, as the live video image, a frontal image obtained as the high-quality image, on which a line indicating the position of the tomographic image obtained as the high-quality image is superimposed and displayed. The image processing device displays the tomographic image corresponding to the position of the line on the front image on the display unit as the live moving image.
被検体に関する画像を含む学習データを学習して得た学習済モデルの入力データとして被検体の医用画像を入力することにより得られた高画質画像をライブ動画像として表示部に表示させる表示制御部を更に備える、請求項乃至のいずれか一項に記載の画像処理装置。 A display control unit that displays a high-quality image obtained by inputting a medical image of the subject as input data of a trained model obtained by learning learning data including images related to the subject as a live moving image on the display unit . The image processing device according to any one of claims 5 to 7 , further comprising: 前記表示制御部は、前記高画質画像として得られた前眼画像を前記ライブ画像として前記表示部に表示させる、請求項16に記載の画像処理装置。 The image processing device according to claim 16, wherein the display control unit displays the anterior eye image obtained as the high-quality image on the display unit as the live image . 前記表示制御部は、前記高画質画像として得られた正面画像であって、前記高画質画像として得られた断層画像の位置を示すラインが重畳表示された正面画像を前記ライブ動画像として前記表示部に表示させ、該正面画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させる、請求項16又は17に記載の画像処理装置。 The display control unit is configured to select, as the live video image , a frontal image obtained as the high-quality image, on which a line indicating the position of the tomographic image obtained as the high-quality image is superimposed and displayed. The image processing device according to claim 16 or 17, wherein the display unit displays the tomographic image corresponding to the position of the line on the front image as the live moving image. 前記表示制御部は、前記高画質画像として生成された断層画像であって、前記ラインの位置に対応する断層画像における血管領域を示す情報を、前記ラインの位置に対応する前記断層画像に重畳表示させる、請求項1乃至4、15、及び18のいずれか一項に記載の画像処理装置。 The display control unit displays information indicating a blood vessel region in the tomographic image generated as the high-quality image corresponding to the position of the line, superimposed on the tomographic image corresponding to the position of the line. The image processing apparatus according to any one of claims 1 to 4, 15, and 18. 被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得する高画質化部と、By performing high-quality processing on the first image, which is the medical image of the subject, using a trained model obtained through training using the medical image of the subject as training data, the medical image of the subject is a high image quality improvement unit that obtains a certain second image;
前記第2の画像である断層画像の位置を示すラインが重畳表示された正面画像をライブ動画像として表示部に表示させ、該正面画像上の該ラインに対応する該断層画像をライブ動画像として前記表示部に表示させる表示制御部と、A frontal image on which a line indicating the position of the tomographic image, which is the second image, is superimposed is displayed on the display unit as a live moving image, and the tomographic image corresponding to the line on the frontal image is displayed as a live moving image. a display control unit that causes the display unit to display information;
を備える、画像処理装置。An image processing device comprising:
前記表示制御部は、
被検体に関する画像を含む学習データを学習して得た解析結果生成用の学習済モデルを用いて生成された解析結果であって、被検体に関する画像を入力して得た解析結果と、
被検体に関する画像を含む学習データを学習して得た診断結果生成用の学習済モデルを用いて生成された診断結果であって、被検体に関する画像を入力して得た診断結果と、
敵対的生成ネットワーク又はオートエンコーダーを用いて生成された画像であって、被検体に関する画像を入力して得た画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された該被検体に関する画像との差に関する情報である異常部位に関する情報と、
被検体に関する画像を含む学習データを学習して得た類似症例画像検索用の学習済モデルを用いて検索された類似症例画像であって、被検体に関する画像を入力して得た類似症例画像と、
被検体に関する画像を含む学習データを学習して得た物体認識用の学習済モデル又はセグメンテーション用の学習済モデルを用いて生成された物体認識結果又はセグメンテーション結果であって、被検体に関する画像を入力して得た物体認識結果又はセグメンテーション結果と、のうちの少なくとも1つを前記表示部に表示させる、請求項1乃至4、及び15乃至20のいずれか一項に記載の画像処理装置。
The display control section includes:
An analysis result generated using a trained model for generating analysis results obtained by learning training data including images related to a subject, the analysis results obtained by inputting images related to the subject;
Diagnosis results generated using a trained model for generating diagnostic results obtained by learning learning data including images related to the subject, and obtained by inputting images related to the subject;
An image generated using a generative adversarial network or an autoencoder, which is obtained by inputting an image related to a subject, and an image related to the subject inputted to the generative adversarial network or autoencoder. Information regarding the abnormal area, which is information regarding the difference;
A similar case image searched using a trained model for searching similar case images obtained by learning learning data including images related to the subject, and similar case images obtained by inputting images related to the subject. ,
Object recognition results or segmentation results generated using a trained model for object recognition or a trained model for segmentation obtained by learning learning data that includes images related to the subject, and input images related to the subject. The image processing device according to any one of claims 1 to 4 and 15 to 20 , wherein at least one of the obtained object recognition result or segmentation result is displayed on the display unit.
前記第2の画像を取得するための操作者の指示は、文字認識用の学習済モデルと音声認識用の学習済モデルとジェスチャー認識用の学習済モデルとのうち少なくとも1つの学習済モデルを用いて得た情報である、請求項1乃至21のいずれか一項に記載の画像処理装置。 The operator's instruction to obtain the second image uses at least one trained model among a trained model for character recognition, a trained model for speech recognition, and a trained model for gesture recognition. The image processing device according to any one of claims 1 to 21 , wherein the image processing device is information obtained by. 被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得することと、
被検体の医用画像における対象領域を検出することと、
前記第2の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行うことと、
被検体に関する画像を含む学習データを学習して得た学習済モデルの入力データとして被検体の医用画像を入力することにより得られた高画質画像をライブ動画像として表示部に表示させることと、
を含み、
前記表示させることは、前記高画質画像として得られた正面画像であって、前記高画質画像として得られた断層画像の位置を示すラインが重畳表示された正面画像を前記ライブ動画像として前記表示部に表示させ、該正面画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させることを含む、画像処理方法。
By performing image quality enhancement processing on the first image, which is the medical image of the subject, using a trained model obtained through learning using the medical image of the subject as learning data, the medical image of the subject is obtaining a second image with
Detecting a target area in a medical image of a subject;
Image processing is performed on the target area in the second image so that the difference between the pixel value of the target area and the pixel value of an area other than the target area is widened and the pixel value of the target area is lowered. and,
Displaying a high-quality image obtained by inputting a medical image of the subject as input data of a trained model obtained by learning learning data including images related to the subject as a live video image on a display unit;
including;
The displaying includes displaying, as the live video image, a frontal image obtained as the high-quality image, on which a line indicating the position of the tomographic image obtained as the high-quality image is superimposed and displayed. and displaying the tomographic image corresponding to the position of the line on the front image on the display unit as the live moving image.
被検体の医用画像における対象領域を検出することと、
被検体の医用画像である第1の画像における対象領域に対して、対象領域の画素値と対象領域以外の領域の画素値との差が広がるように且つ対象領域の画素値がより低くなるように画像処理を行うことと、
被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、前記画像処理が行われた第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得することと、
含む、画像処理方法。
Detecting a target area in a medical image of a subject;
With respect to the target region in the first image, which is a medical image of the subject, the difference between the pixel value of the target region and the pixel value of a region other than the target region is widened, and the pixel value of the target region is lowered. Performing image processing on
By performing image quality enhancement processing on the first image that has been subjected to the image processing using a trained model obtained by learning using the medical image of the subject as learning data, the medical image of the subject is obtaining a second image with
image processing methods, including;
検体の医用画像を学習データとした学習により得た第1の学習済モデルを用いた高画質化処理と、対象領域における画像処理とが行われた被検体の医用画像を学習データとした学習により得た第2の学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得することと、
被検体に関する画像を含む学習データを学習して得た学習済モデルの入力データとして被検体の医用画像を入力することにより得られた高画質画像をライブ動画像として表示部に表示させることと、
を含
前記表示させることは、前記高画質画像として得られた正面画像であって、前記高画質画像として得られた断層画像の位置を示すラインが重畳表示された正面画像を前記ライブ動画像として前記表示部に表示させ、該正面画像上の該ラインの位置に対応する該断層画像を前記ライブ動画像として前記表示部に表示させることを含む、画像処理方法。
Learning using a medical image of a subject as learning data, which has been subjected to image quality enhancement processing using the first trained model obtained through learning using a medical image of the subject as learning data, and image processing in the target area. A second image, which is a medical image of the subject , is obtained by performing image quality enhancement processing on the first image, which is the medical image of the subject, using the second trained model obtained by to do and
Displaying a high-quality image obtained by inputting a medical image of the subject as input data of a trained model obtained by learning learning data including images related to the subject as a live video image on a display unit;
including ;
The displaying includes displaying, as the live video image, a frontal image obtained as the high-quality image, on which a line indicating the position of the tomographic image obtained as the high-quality image is superimposed and displayed. and displaying the tomographic image corresponding to the position of the line on the front image on the display unit as the live moving image.
被検体の医用画像を学習データとした学習により得た学習済モデルを用いて、被検体の医用画像である第1の画像に対して高画質化処理を行うことで、被検体の医用画像である第2の画像を取得することと、By performing high-quality processing on the first image, which is the medical image of the subject, using a trained model obtained through training using the medical image of the subject as training data, the medical image of the subject is obtaining a certain second image;
前記第2の画像である断層画像の位置を示すラインが重畳表示された正面画像をライブ動画像として表示部に表示させ、該正面画像上の該ラインに対応する該断層画像をライブ動画像として前記表示部に表示させることと、A frontal image on which a line indicating the position of the tomographic image, which is the second image, is superimposed is displayed on the display unit as a live moving image, and the tomographic image corresponding to the line on the frontal image is displayed as a live moving image. displaying it on the display section;
を含む、画像処理方法。image processing methods, including
コンピュータによって実行されると、該コンピュータに請求項23乃至26のいずれか一項に記載の画像処理方法の各工程を実行させるプログラム。 A program that, when executed by a computer, causes the computer to execute each step of the image processing method according to any one of claims 23 to 26 .
JP2020113336A 2020-06-30 2020-06-30 Image processing device, image processing method, and program Active JP7344847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020113336A JP7344847B2 (en) 2020-06-30 2020-06-30 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020113336A JP7344847B2 (en) 2020-06-30 2020-06-30 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2022011912A JP2022011912A (en) 2022-01-17
JP7344847B2 true JP7344847B2 (en) 2023-09-14

Family

ID=80149107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020113336A Active JP7344847B2 (en) 2020-06-30 2020-06-30 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7344847B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115170536B (en) * 2022-07-22 2023-05-05 北京百度网讯科技有限公司 Image detection method, training method and device of model

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153813A (en) 2012-01-27 2013-08-15 Olympus Corp Endoscope apparatus, image processing method and program
JP2016209198A (en) 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2019208851A (en) 2018-06-04 2019-12-12 株式会社ニデック Fundus image processing device and fundus image processing program
JP2020058800A (en) 2018-10-10 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and image processing program
JP2020058629A (en) 2018-10-10 2020-04-16 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program
CN111127425A (en) 2019-12-23 2020-05-08 北京至真互联网技术有限公司 Target detection positioning method and device based on retina fundus image
JP2020093076A (en) 2018-08-14 2020-06-18 キヤノン株式会社 Medical image processing device, learned model, medical image processing method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013153813A (en) 2012-01-27 2013-08-15 Olympus Corp Endoscope apparatus, image processing method and program
JP2016209198A (en) 2015-05-01 2016-12-15 キヤノン株式会社 Image generation apparatus, image generation method, and program
JP2019208851A (en) 2018-06-04 2019-12-12 株式会社ニデック Fundus image processing device and fundus image processing program
JP2020093076A (en) 2018-08-14 2020-06-18 キヤノン株式会社 Medical image processing device, learned model, medical image processing method and program
JP2020058800A (en) 2018-10-10 2020-04-16 キヤノン株式会社 Image processing device, image processing method, and image processing program
JP2020058629A (en) 2018-10-10 2020-04-16 キヤノン株式会社 Medical image processing apparatus, medical image processing method, and program
CN111127425A (en) 2019-12-23 2020-05-08 北京至真互联网技术有限公司 Target detection positioning method and device based on retina fundus image

Also Published As

Publication number Publication date
JP2022011912A (en) 2022-01-17

Similar Documents

Publication Publication Date Title
JP7250653B2 (en) Image processing device, image processing method and program
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7341874B2 (en) Image processing device, image processing method, and program
WO2021039339A1 (en) Information processing device, information processing method, information processing system, and program
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7413147B2 (en) Image processing device, image processing method, and program
GB2589250A (en) Medical image processing device, medical image processing method and program
JP2021039748A (en) Information processor, information processing method, information processing system, and program
US11887288B2 (en) Image processing apparatus, image processing method, and storage medium
US20210224957A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
US20220151483A1 (en) Ophthalmic apparatus, method for controlling ophthalmic apparatus, and computer-readable medium
JP2022155690A (en) Image processing device, image processing method, and program
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP7362403B2 (en) Image processing device and image processing method
WO2020138128A1 (en) Image processing device, image processing method, and program
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
JP2021164535A (en) Image processing device, image processing method and program
JP7344847B2 (en) Image processing device, image processing method, and program
JP2021086560A (en) Medical image processing apparatus, medical image processing method, and program
JP7406901B2 (en) Information processing device and information processing method
JP7478216B2 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP2022121202A (en) Image processing device and image processing method
JP2023010308A (en) Image processing device and image processing method
JP2021119973A (en) Photographing device, photographing method and program
JP2021069667A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220613

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7344847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151