JP7362403B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7362403B2
JP7362403B2 JP2019183351A JP2019183351A JP7362403B2 JP 7362403 B2 JP7362403 B2 JP 7362403B2 JP 2019183351 A JP2019183351 A JP 2019183351A JP 2019183351 A JP2019183351 A JP 2019183351A JP 7362403 B2 JP7362403 B2 JP 7362403B2
Authority
JP
Japan
Prior art keywords
image
quality
octa
display
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019183351A
Other languages
Japanese (ja)
Other versions
JP2020163100A5 (en
JP2020163100A (en
Inventor
学 山添
好彦 岩瀬
理宇眞 ▲高▼橋
弘樹 内田
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2019/044244 priority Critical patent/WO2020183791A1/en
Priority to CN201980093820.0A priority patent/CN113543695A/en
Publication of JP2020163100A publication Critical patent/JP2020163100A/en
Priority to US17/468,297 priority patent/US11887288B2/en
Publication of JP2020163100A5 publication Critical patent/JP2020163100A5/ja
Application granted granted Critical
Publication of JP7362403B2 publication Critical patent/JP7362403B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、光干渉断層計(OCT;Optical Coherence Tomography)によって取得した被検体の断層画像に対して処理を行う画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method that process a tomographic image of a subject obtained by optical coherence tomography (OCT).

OCTなどの医用断層画像撮影装置は網膜層内部の状態を三次元的に観察することが可能であり、例えばAMDのような眼科網膜疾患の診断をより有用である。近年、臨床現場で用いられているOCTには、例えば、高速に画像を取得する方法として、広帯域光源を用い、分光器でインターフェログラムを取得するSD-OCT(Spectral domain OCT)、と光源として高速波長掃引光源を用いることで、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS-OCT(Swept Source OCT)の2方式に大別されるが、最近は両方式のOCTにおいて、造影剤を用いない血管を造影するOCT血管造影法(OCT Angiography:OCTA)が注目されてきた。OCTAは、OCTにより取得したOCT画像からモーションコントラストデータを生成する。ここで、モーションコントラストデータとは、測定対象の同一断面をOCTで繰り返し撮影し、その撮影間における測定対象の時間的な変化を検出したデータであり、例えば、複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算される。 Medical tomographic imaging devices such as OCT are capable of three-dimensionally observing the internal state of the retinal layer, and are more useful in diagnosing ophthalmological and retinal diseases such as AMD, for example. In recent years, OCT that has been used in clinical practice includes SD-OCT (Spectral domain OCT), which uses a broadband light source to obtain interferograms with a spectrometer, as a method of acquiring images at high speed, and SS-OCT (Swept Source OCT) is broadly divided into two methods, which use a high-speed wavelength swept light source to measure spectral interference with a single-channel photodetector. OCT angiography (OCTA), which images blood vessels without using agents, has been attracting attention. OCTA generates motion contrast data from OCT images acquired by OCT. Here, motion contrast data is data obtained by repeatedly photographing the same cross-section of a measurement object using OCT and detecting temporal changes in the measurement object between the images, such as the phase, vector, and intensity of a complex OCT signal. It is calculated from the difference, ratio, correlation, etc. over time.

またOCTA画像の表示に際しては、取得された三次元OCT画像から算出された三次元モーションコントラストデータを二次元平面に投影することにより二次元化したOCTA正面画像として表示されることが通例となりつつあるが、この際、投影するモーションコントラストデータの深さ方向の範囲を指定することで二次元正面画像を生成する技術が特許文献1に開示されている。 In addition, when displaying an OCTA image, it is becoming common to display it as a two-dimensional OCTA frontal image by projecting three-dimensional motion contrast data calculated from the acquired three-dimensional OCT image onto a two-dimensional plane. However, at this time, Patent Document 1 discloses a technique for generating a two-dimensional front image by specifying a range in the depth direction of motion contrast data to be projected.

特開2017-6179号公報JP 2017-6179 Publication

しかしながら、OCTデータまたはモーションコントラストデータの解析処理等については、種々の面で改善の余地があり得る。例えば、OCTデータまたはモーションコントラストデータの解析処理等の対象となる関心領域を設定する際に、各々の正面画像だけでは適切な設定が難しい場合があった。 However, there may be room for improvement in various aspects regarding analysis processing of OCT data or motion contrast data. For example, when setting a region of interest to be subjected to analysis processing of OCT data or motion contrast data, it may be difficult to appropriately set it using only each frontal image.

本発明の目的の一つは、上記課題に鑑みてなされたものであり、解析処理等の対象となる関心領域を好適に設定可能に構成することである。 One of the objects of the present invention, which has been made in view of the above-mentioned problems, is to provide a system that can suitably set a region of interest that is a target of analysis processing and the like.

本発明に係る画像処理装置の一つは、
光干渉断層計によって被検体における互いに対応する領域で且つ互いに対応する深度範囲のOCT正面画像OCTA正面画像とを取得する取得手段と、
被検体のOCTA正面画像を学習して得た高画質化用の学習済モデルであって、前記取得されたOCTA正面画像を前記学習済モデルの入力データとして入力して得た高画質なOCTA正面画像と、前記取得されたOCT正面画像とを用いて、検者からの指示に応じて変更可能な透過率によブレンド処理を行うことにより得たブレンド画像を表示し、前記透過率の変更に関する検者からの指示を受け付ける情報を表示するように、表示手段を制御する表示制御手段と、を備え、
前記表示制御手段は、前記表示されたブレンド画像において検者からの指示に応じて設定された関心領域であって、前記高画質なOCTA正面像における前記設定された関心領域に対する解析処理の種類のうち検者からの指示に応じて選択された種類の解析処理の結果を表示し、前記高画質なOCTA正面画像から前記取得されたOCTA正面画像への変更に関する検者からの指示を受け付けた場合には、前記解析処理の結果の表示を、前記取得されたOCTA正面画像における前記設定された関心領域に対する前記選択された種類の解析処理の結果の表示に変更するように、前記表示手段を制御する
One of the image processing devices according to the present invention is
acquisition means for acquiring an OCT front image and an OCTA front image in mutually corresponding regions and mutually corresponding depth ranges in the subject using an optical coherence tomography;
A trained model for high image quality obtained by learning an OCTA frontal image of a subject, the high-quality OCTA frontal image obtained by inputting the acquired OCTA frontal image as input data to the trained model. Displaying a blended image obtained by performing a blending process using the image and the acquired OCT frontal image using a transmittance that can be changed according to instructions from the examiner , and changing the transmittance. display control means for controlling the display means to display information that accepts instructions from the examiner regarding the
The display control means is configured to display a region of interest set in the displayed blended image according to an instruction from the examiner , and to display a region of interest corresponding to the set region of interest in the high-quality OCTA frontal image . Displays the results of the type of analysis processing selected in response to instructions from the examiner among the types of analysis processing performed, and displays the results of the type of analysis processing selected according to instructions from the examiner, and receives information from the examiner regarding changing from the high-quality OCTA frontal image to the acquired OCTA frontal image. If the instruction is received, the display of the result of the analysis process is changed to the display of the result of the selected type of analysis process for the set region of interest in the acquired OCTA frontal image. , controlling the display means .

本発明の一つによれば、解析処理等の対象となる関心領域を好適に設定可能に構成することができる。 According to one aspect of the present invention, it is possible to configure a region of interest that is a target of analysis processing, etc. to be suitably settable.

第1の実施形態に係る画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image processing device according to a first embodiment. 第1の実施形態に係る断層画像撮影装置を説明する図である。FIG. 1 is a diagram illustrating a tomographic imaging apparatus according to a first embodiment. 視神経乳頭の正面画像を表示する表示画面と、透過処理で得たブレンド画像を表示する表示画面を説明する図である。FIG. 3 is a diagram illustrating a display screen that displays a front image of an optic disc and a display screen that displays a blended image obtained by transmission processing. 第1の実施形態に係る画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image processing device according to a first embodiment. 第1の実施形態に係る解析処理を示すフローチャートである。7 is a flowchart showing analysis processing according to the first embodiment. 第4の実施形態に係る高画質化処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network related to high image quality processing according to the fourth embodiment is shown. 第4の実施形態に係る画像処理の流れの一例を示すフロー図である。FIG. 7 is a flow diagram showing an example of the flow of image processing according to the fourth embodiment. 第4の実施形態に係る高画質化処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network related to high image quality processing according to the fourth embodiment is shown. 変形例6に係る機械学習エンジンとして用いられるニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network used as a machine learning engine according to modification 6 is shown. 変形例6に係る機械学習エンジンとして用いられるニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network used as a machine learning engine according to modification 6 is shown. 第5の実施形態に係るユーザーインターフェースの一例を示す。An example of a user interface according to a fifth embodiment is shown. 高画質化処理に関する教師画像の一例を示す。An example of a teacher image related to image quality enhancement processing is shown. 高画質化処理に関する入力画像の一例を示す。An example of an input image related to high image quality processing is shown. 第5の実施形態に係るユーザーインターフェースの一例を示す。An example of a user interface according to a fifth embodiment is shown. 第4の実施形態に係る高画質化処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network related to high image quality processing according to the fourth embodiment is shown.

[第1の実施形態]
本実施形態に係る画像処理装置は、OCTAデータの解析に対してOCTデータの正面画像を参照しながら、解析位置や解析領域を設定しながら解析処理を行う場合について説明する。以下、図面を参照しながら、本発明の第1の実施形態に係る画像処理装置を備える画像処理システムについて説明する。
[First embodiment]
A case will be described in which the image processing apparatus according to the present embodiment performs analysis processing while setting an analysis position and an analysis region while referring to a front image of OCT data for analysis of OCTA data. DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing system including an image processing apparatus according to a first embodiment of the present invention will be described below with reference to the drawings.

(画像処理装置の構成)
本実施形態の画像処理装置101の構成と他機器との接続について図1を用いて説明する。画像処理装置101は断層画像撮影装置100に接続されたパーソナルコンピュータ(PC)であり、各機能ブロックである、画像取得部101-01、撮影制御部101-03、画像処理部101-04、表示制御部101-05の有する各機能は、図示しない演算処理装置CPUが記憶部101-02に記憶されたソフトウェアモジュールを実行することで実現される。もちろん本発明はこのようなPCの構成に限定されず、例えば画像処理部101-04をASIC等の専用のハードウェアで実現してもよいし、表示制御部101-05をCPUとは異なるGPU等の専用プロセッサを用いて実現してもよい。さらに断層画像撮影装置100と画像処理装置101との接続はネットワークを介した構成であってもよいし、外部記憶部102もネットワークワーク上に置き、データを複数の画像処理装置で共有できるように構成してもよい。
(Configuration of image processing device)
The configuration of the image processing apparatus 101 of this embodiment and the connection with other devices will be explained using FIG. 1. The image processing device 101 is a personal computer (PC) connected to the tomographic imaging device 100, and includes functional blocks such as an image acquisition section 101-01, an imaging control section 101-03, an image processing section 101-04, and a display. Each function of the control unit 101-05 is realized by a not-shown arithmetic processing unit CPU executing software modules stored in the storage unit 101-02. Of course, the present invention is not limited to such a PC configuration; for example, the image processing unit 101-04 may be implemented using dedicated hardware such as an ASIC, or the display control unit 101-05 may be implemented using a GPU different from the CPU. It may be realized using a dedicated processor such as. Furthermore, the connection between the tomographic imaging apparatus 100 and the image processing apparatus 101 may be configured via a network, and the external storage unit 102 may also be placed on the network so that data can be shared by multiple image processing apparatuses. may be configured.

画像取得部101-01は被検体を断層画像撮影装置100により撮影したSLO眼底像や断層画像の信号データを取得し画像を生成する機能ブロックであり、断層画像生成部101―11及びモーションコントラストデータ生成部101-12を有する。断層画像生成部101―11は断層画像撮影装置100により撮影された断層画像の信号データ(干渉信号)を取得して信号処理により断層画像を生成し、生成した断層画像を記憶部101-02に格納する。モーションコントラストデータ生成部101-12は、断層画像生成部101―11が生成した同一部位(被検体における互いに対応する領域)の複数の断層画像に基づいて、モーションコントラストデータを生成する。 The image acquisition unit 101-01 is a functional block that acquires the signal data of the SLO fundus image and tomographic image taken of the subject by the tomographic image capturing apparatus 100 and generates an image. It has a generation section 101-12. The tomographic image generation unit 101-11 acquires the signal data (interference signal) of the tomographic image taken by the tomographic imaging apparatus 100, generates a tomographic image by signal processing, and stores the generated tomographic image in the storage unit 101-02. Store. The motion contrast data generation unit 101-12 generates motion contrast data based on the plurality of tomographic images of the same region (mutually corresponding regions of the subject) generated by the tomographic image generation unit 101-11.

まず断層画像生成部101-11は画像取得部101-01が取得した干渉信号に対して波数変換及び高速フーリエ変換(FFT;Fast Fourier Transform)、絶対値変換(振幅の取得)を行うことで1クラスタ分の断層画像を生成する。 First, the tomographic image generation unit 101-11 performs wave number transformation, fast Fourier transform (FFT), and absolute value conversion (acquisition of amplitude) on the interference signal acquired by the image acquisition unit 101-01. Generate tomographic images for clusters.

次に位置合わせ部101-41は同一クラスタに属する断層画像同士を位置合わせし、重ねあわせ処理を行う。画像特徴取得部101-44が該重ね合わせ断層画像から層境界データを取得する。本実施形態では層境界の取得法として可変形状モデルを用いるが、任意の公知の層境界取得手法を用いてもよい。なお層境界の取得処理は必須ではなく、例えばモーションコントラスト画像の生成を三次元のみで行い、深度方向に投影した二次元のモーションコントラスト画像を生成しない場合には層境界の取得処理は省略できる。モーションコントラストデータ生成部101-12が同一クラスタ内の隣接する断層画像間でモーションコントラストを算出する。本実施形態では、モーションコントラストとして脱相関値Mxyを以下の式(1)に基づき求める。 Next, the alignment unit 101-41 aligns the tomographic images belonging to the same cluster and performs superimposition processing. An image feature acquisition unit 101-44 acquires layer boundary data from the superimposed tomographic image. In this embodiment, a variable shape model is used as a layer boundary acquisition method, but any known layer boundary acquisition method may be used. Note that the layer boundary acquisition process is not essential; for example, if a motion contrast image is generated only in three dimensions and a two-dimensional motion contrast image projected in the depth direction is not generated, the layer boundary acquisition process can be omitted. A motion contrast data generation unit 101-12 calculates motion contrast between adjacent tomographic images within the same cluster. In this embodiment, a decorrelation value Mxy is determined as the motion contrast based on the following equation (1).

Figure 0007362403000001
Figure 0007362403000001

ここで、Axyは断層画像データAの位置(x,y)における(FFT処理後の複素数データの)振幅、Bxyは断層データBの同一位置(x,y)における振幅を示している。0≦Mxy≦1であり、両振幅値の差異が大きいほど1に近い値をとる。式(1)のような脱相関演算処理を(同一クラスタに属する)任意の隣接する断層画像間で行い、得られた(1クラスタあたりの断層画像数-1)個のモーションコントラスト値の平均を画素値として持つ画像を最終的なモーションコントラスト画像として生成する。 Here, Axy indicates the amplitude (of complex number data after FFT processing) at the position (x, y) of the tomographic image data A, and Bxy indicates the amplitude at the same position (x, y) of the tomographic data B. 0≦Mxy≦1, and the larger the difference between both amplitude values, the closer the value is to 1. Perform the decorrelation calculation process as shown in Equation (1) between arbitrary adjacent tomographic images (belonging to the same cluster), and calculate the average of the obtained (number of tomographic images per cluster - 1) motion contrast values. An image having pixel values is generated as a final motion contrast image.

なお、ここではFFT処理後の複素数データの振幅に基づいてモーションコントラストを計算したが、モーションコントラストの計算法は上記に限定されない。例えば複素数データの位相情報に基づいてモーションコントラストを計算してもよいし、振幅と位相の両方の情報に基づいてモーションコントラストを計算してもよい。あるいは、複素数データの実部や虚部に基づいてモーションコントラストを計算してもよい。 Note that although the motion contrast is calculated here based on the amplitude of the complex number data after FFT processing, the method of calculating the motion contrast is not limited to the above. For example, motion contrast may be calculated based on phase information of complex number data, or may be calculated based on both amplitude and phase information. Alternatively, motion contrast may be calculated based on the real part or imaginary part of complex number data.

また、本実施形態ではモーションコントラストとして脱相関値を計算したが、モーションコントラストの計算法はこれに限定されない。例えば二つの値の差分に基づいてモーションコントラストを計算してもよいし、二つの値の比に基づいてモーションコントラストを計算してもよい。 Further, in this embodiment, a decorrelation value is calculated as the motion contrast, but the method of calculating the motion contrast is not limited to this. For example, the motion contrast may be calculated based on the difference between two values, or the motion contrast may be calculated based on the ratio of two values.

さらに、上記では取得された複数の脱相関値の平均値を求めることで最終的なモーションコントラスト画像を得ているが、本発明はこれに限定されない。例えば取得された複数の脱相関値の中央値、あるいは最大値を画素値として持つ画像を最終的なモーションコントラスト画像として生成してもよい。 Further, in the above, the final motion contrast image is obtained by calculating the average value of the plurality of acquired decorrelation values, but the present invention is not limited to this. For example, an image having the median value or maximum value of the plurality of acquired decorrelation values as a pixel value may be generated as the final motion contrast image.

撮影制御部101-03は、断層画像撮影装置100に対する撮影制御を行う機能ブロックであり、断層画像撮影装置100に対して撮影パラメータの設定に関して指示することや、撮影の開始もしくは終了に関して指示することも含まれる。画像処理部101-04は、位置合わせ部101-41、合成部101-42、補正部101-43、画像特徴取得部101-44、投影部101-45、解析部101-46を有する機能ブロックである。合成部101-42は、例えば、合成法指定部101-421、同一モダリティ画像合成部101-422、異なる種類のモダリティ画像合成部101-423を有する。合成部101-42は、複数の二次元画像からひとつの画像を合成する。具体的には、合成法指定部101-421は合成対象画像の種類(断層画像/モーションコントラスト画像/断層画像及びモーションコントラスト画像)と、合成処理法(重ね合わせ/貼り合わせ/並置表示)を指定する。同一モダリティ画像合成部101-422は、断層画像間、もしくはモーションコントラスト画像間の合成処理を行う。複数モダリティ画像合成部101-423は、断層画像―モーションコントラスト画像間の合成処理を行う。ここで、合成部101-42は、モーションコントラストデータを高画質化する高画質化手段の一例である。なお、本実施形態においても、高画質化手段による処理として、合成部101-42による処理の他に、例えば、後述する第4の実施形態における機械学習による高画質化処理を適用することが可能である。また、補正部101-43は、モーションコントラスト画像内に生じるプロジェクションアーティファクトを抑制する処理を行う。ここで、プロジェクションアーティファクトは、網膜表層血管内のモーションコントラストが深層側(網膜深層や網膜外層・脈絡膜)に映り込み、実際には血管の存在しない深層側の領域に高い脱相関値が生じる現象を指す。例えば、補正部は、合成されたモーションコントラストデータにおけるプロジェクションアーティファクトを低減する処理を行う。すなわち、補正部101-43は、合成されたモーションコントラストデータに対してプロジェクションアーティファクトを低減する処理を行う処理手段の一例に相当する。また、投影部101-45は、画像特徴取得部101-44が取得した境界位置に基づく深度範囲で断層画像もしくはモーションコントラスト画像を投影し、輝度正面画像(輝度断層画像)もしくはモーションコントラスト正面画像を生成する。このとき、任意の深度範囲で投影してよいが、本実施形態においては、網膜表層及び網膜外層の深度範囲で2種類の正面合成モーションコントラスト画像を生成する。また、投影法としては、最大値投影(MIP;Maximum Intensity Projection)・平均値投影(AIP;Average Intensity Projection)のいずれかを選択することができる。ここで、モーションコントラスト正面画像を生成するための投影範囲は、不図示の選択リスト等に表示された既定の深度範囲セットから操作者が選択することにより変更することができる。また、投影範囲の指定に用いる層境界の種類とオフセット位置をユーザーインターフェースから変更したり、断層画像上に重畳された層境界データを入力部103から操作して移動させたりすることで、投影範囲を変更することができる。なお、表示部104に表示されるモーションコントラスト画像は、モーションコントラスト正面画像に限定されるものではなく、三次元的にレンダリングした三次元モーションコントラスト画像を表示してもよい。さらに、上述した投影法やプロジェクションアーティファクト抑制処理の有無を、例えばコンテキストメニューのようなユーザーインターフェースから選択することにより変更してもよい。例えば、プロジェクションアーティファクト抑制処理後のモーションコントラスト画像を三次元画像として表示部104に表示してもよい。また、解析部101-46は、強調部101-461、抽出部101-462、計測部101-463、比較部101-464を有する機能ブロックである。ここで、抽出部101-462は、断層画像から網膜や脈絡膜の層境界、篩状板の前面や後面の境界、中心窩や視神経乳頭中心の位置を取得する。また、抽出部101-462は、モーションコントラスト正面画像から血管領域を抽出する。計測部101-463は、抽出された該血管領域や該血管領域を細線化することで取得した血管中心線データを用いて血管密度等の計測値を算出する。 The imaging control unit 101-03 is a functional block that performs imaging control for the tomographic imaging apparatus 100, and instructs the tomographic imaging apparatus 100 regarding the setting of imaging parameters and the start or end of imaging. Also included. The image processing section 101-04 is a functional block including a positioning section 101-41, a composition section 101-42, a correction section 101-43, an image feature acquisition section 101-44, a projection section 101-45, and an analysis section 101-46. It is. The synthesis section 101-42 includes, for example, a synthesis method specification section 101-421, a same modality image synthesis section 101-422, and a different type of modality image synthesis section 101-423. The composition unit 101-42 composes one image from a plurality of two-dimensional images. Specifically, the synthesis method specification unit 101-421 specifies the type of images to be synthesized (tomographic image/motion contrast image/tomographic image and motion contrast image) and the synthesis processing method (superimposition/stitching/juxtaposed display). do. The same modality image synthesis unit 101-422 performs synthesis processing between tomographic images or between motion contrast images. The multiple modality image synthesis unit 101-423 performs synthesis processing between a tomographic image and a motion contrast image. Here, the synthesizing unit 101-42 is an example of an image quality improving unit that improves the image quality of motion contrast data. In addition, in this embodiment as well, in addition to the processing by the compositing unit 101-42, as the processing by the image quality improvement means, for example, the image quality improvement processing by machine learning in the fourth embodiment described later can be applied. It is. Further, the correction unit 101-43 performs processing to suppress projection artifacts occurring within the motion contrast image. Here, projection artifact is a phenomenon in which the motion contrast within the superficial retinal blood vessels is reflected in the deep layers (deep retina, outer retina, and choroid), resulting in high decorrelation values in deep regions where no blood vessels actually exist. Point. For example, the correction unit performs processing to reduce projection artifacts in the combined motion contrast data. That is, the correction unit 101-43 corresponds to an example of a processing unit that performs processing to reduce projection artifacts on the synthesized motion contrast data. Furthermore, the projection unit 101-45 projects a tomographic image or a motion contrast image in a depth range based on the boundary position acquired by the image feature acquisition unit 101-44, and generates a brightness front image (brightness tomographic image) or a motion contrast front image. generate. At this time, projection may be performed in any depth range, but in this embodiment, two types of frontal composite motion contrast images are generated in the depth range of the retinal surface layer and the retinal outer layer. Further, as the projection method, either maximum intensity projection (MIP) or average intensity projection (AIP) can be selected. Here, the projection range for generating the motion contrast front image can be changed by the operator selecting from a predetermined depth range set displayed in a selection list (not shown) or the like. In addition, the projection range can be changed by changing the type and offset position of the layer boundary used for specifying the projection range from the user interface, or by moving the layer boundary data superimposed on the tomographic image by operating from the input unit 103. can be changed. Note that the motion contrast image displayed on the display unit 104 is not limited to a motion contrast front image, and a three-dimensional motion contrast image rendered three-dimensionally may be displayed. Furthermore, the above-described projection method and the presence or absence of projection artifact suppression processing may be changed by selecting from a user interface such as a context menu, for example. For example, the motion contrast image after projection artifact suppression processing may be displayed on the display unit 104 as a three-dimensional image. Furthermore, the analysis section 101-46 is a functional block that includes an emphasis section 101-461, an extraction section 101-462, a measurement section 101-463, and a comparison section 101-464. Here, the extraction unit 101-462 acquires the layer boundaries of the retina and choroid, the boundaries of the anterior and posterior surfaces of the lamina cribrosa, and the positions of the fovea and the center of the optic disc from the tomographic image. Furthermore, the extraction unit 101-462 extracts a blood vessel region from the motion contrast frontal image. The measurement unit 101-463 calculates measured values such as blood vessel density using the extracted blood vessel region and blood vessel centerline data obtained by thinning the blood vessel region.

画像処理装置101は、インターフェースを介して断層画像撮影装置100、外部記憶部102、入力部103、表示部104と接続されることにより構成されている。画像処理装置101は、ステージ部100-2の制御、アラインメント動作の制御を行う。外部記憶部102は、断層撮像用のプログラム、被検眼の情報(患者の氏名、年齢、性別など)と、撮影した画像(断層画像及びSLO画像・OCTA画像)や合成画像、撮影パラメータ、過去検査の画像データや計測データ、操作者が設定したパラメータなどを関連付けて保持している。 The image processing device 101 is configured by being connected to a tomographic imaging device 100, an external storage section 102, an input section 103, and a display section 104 via an interface. The image processing device 101 controls the stage section 100-2 and the alignment operation. The external storage unit 102 stores programs for tomographic imaging, information on the eye to be examined (patient's name, age, gender, etc.), captured images (tomographic images, SLO images, OCTA images), composite images, imaging parameters, and past examinations. Image data, measurement data, parameters set by the operator, etc. are stored in association with each other.

入力部103はコンピュータへの指示を行うための、例えば、マウス、キーボード、タッチ操作画面などであり、操作者は、入力部103を介して、画像処理装置101や断層画像撮影装置100へ指示を行う。表示部104は、例えばモニタであり、タッチUIがあってもよい。 The input unit 103 is, for example, a mouse, a keyboard, a touch operation screen, etc., for giving instructions to the computer. conduct. The display unit 104 is, for example, a monitor, and may have a touch UI.

(断層画像撮影装置の構成)
断層画像撮影装置100は、眼部の断層画像を撮影する装置である。本実施形態の断層画像撮影装置100における測定光学系及び分光器の構成について図2を用いて説明する。
(Configuration of tomographic imaging device)
The tomographic image capturing apparatus 100 is a device that captures tomographic images of the eye. The configuration of the measurement optical system and spectrometer in the tomographic imaging apparatus 100 of this embodiment will be described using FIG. 2.

本実施形態においては、断層画像撮影装置100としてSD-OCTを用いるものとする。これに限らず、例えばSS-OCTを用いて構成してもよい。 In this embodiment, SD-OCT is used as the tomographic imaging apparatus 100. The configuration is not limited to this, and may be configured using SS-OCT, for example.

測定光学系100-1は前眼部像、被検眼のSLO眼底像、断層画像を取得するための光学系である。ステージ部100-2は、測定光学系100-1を前後左右に移動可能にする。ベース部100-3は、後述の分光器を内蔵している。 The measurement optical system 100-1 is an optical system for acquiring an anterior segment image, an SLO fundus image of the eye to be examined, and a tomographic image. The stage section 100-2 allows the measurement optical system 100-1 to move back and forth and left and right. The base portion 100-3 incorporates a spectrometer to be described later.

まず、測定光学系100-1の内部について説明する。被検眼200に対向して対物レンズ201が設置され、その光軸上に第1ダイクロイックミラー202及び第2ダイクロイックミラー203が配置されている。これらのダイクロイックミラーによってOCT光学系の光路250、SLO光学系と固視灯用の光路251、及び前眼観察用の光路252とに波長帯域ごとに分岐される。SLO光学系と固視灯用の光路251は、SLO走査手段204、レンズ205及び206、ミラー207、第3ダイクロイックミラー208、APD(Avalanche Photodiode)209、SLO光源210、固視灯211を有している。ミラー207は、穴あきミラーや中空のミラーが蒸着されたプリズムであり、SLO光源210による照明光と、被検眼からの戻り光とを分離する。第3ダイクロイックミラー208はSLO光源210の光路と固視灯211の光路とに波長帯域ごとに分離する。SLO走査手段204は、SLO光源210から発せられた光を被検眼200上で走査するものであり、X方向に走査するXスキャナ、Y方向に走査するYスキャナから構成されている。本実施形態では、Xスキャナは高速走査を行う必要があるためポリゴンミラーで、Yスキャナはガルバノミラーによって構成されている。レンズ205はSLO光学系及び固視灯211の焦点合わせのため、不図示のモータによって駆動される。SLO光源210は780nm付近の波長の光を発生する。APD209は、被検眼からの戻り光を検出する。固視灯211は可視光を発生して被検者の固視を促すものである。SLO光源210から発せられた光は、第3ダイクロイックミラー208で反射され、ミラー207を通過し、レンズ206及び205を通ってSLO走査手段204によって被検眼200上で走査される。被検眼200からの戻り光は、照明光と同じ経路を戻った後、ミラー207によって反射され、APD209へと導かれ、SLO眼底像が得られる。固視灯211から発せられた光は、第3ダイクロイックミラー208、ミラー207を透過し、レンズ206及び205を通り、SLO走査手段204によって被検眼200上の任意の位置に所定の形状を作り、被検者の固視を促す。前眼観察用の光路252には、レンズ212及び213、スプリットプリズム214、赤外光を検知する前眼部観察用のCCD215が配置されている。このCCD215は、不図示の前眼部観察用照射光の波長、具体的には970nm付近に感度を持つものである。スプリットプリズム214は、被検眼200の瞳孔と共役な位置に配置されており、被検眼200に対する測定光学系100-1のZ軸方向(光軸方向)の距離を、前眼部のスプリット像として検出できる。OCT光学系の光路250は前述の通りOCT光学系を構成しており、被検眼200の断層画像を撮影するためのものである。より具体的には、断層画像を形成するための干渉信号を得るものである。XYスキャナ216は光を被検眼200上で走査するためのものであり、図2(b)では1枚のミラーとして図示されているが、実際はXY2軸方向の走査を行うガルバノミラーである。レンズ217及び218のうち、レンズ217については光カプラー219に接続されているファイバー224から出射するOCT光源220からの光を、被検眼200に焦点合わせするために不図示のモータによって駆動される。この焦点合わせによって、被検眼200からの戻り光は同時にファイバー224の先端に、スポット状に結像されて入射されることとなる。次に、OCT光源220からの光路と参照光学系、分光器の構成について説明する。220はOCT光源、221は参照ミラー、222は分散補償硝子、223はレンズ、219は光カプラー、224から227は光カプラーに接続されて一体化しているシングルモードの光ファイバー、230は分光器である。これらの構成によってマイケルソン干渉計を構成している。OCT光源220から出射された光は、光ファイバー225を通じ、光カプラー219を介して光ファイバー224側の測定光と、光ファイバー226側の参照光とに分割される。測定光は前述のOCT光学系光路を通じ、観察対象である被検眼200に照射され、被検眼200による反射や散乱により同じ光路を通じて光カプラー219に到達する。一方、参照光は光ファイバー226、レンズ223、測定光と参照光の波長分散を合わせるために挿入された分散補償ガラス222を介して参照ミラー221に到達し反射される。そして同じ光路を戻り、光カプラー219に到達する。光カプラー219によって、測定光と参照光は合波され干渉光となる。ここで、測定光の光路長と参照光の光路長がほぼ同一となったときに干渉を生じる。参照ミラー221は、不図示のモータおよび駆動機構によって光軸方向に調整可能に保持され、測定光の光路長に参照光の光路長を合わせることが可能である。干渉光は光ファイバー227を介して分光器230に導かれる。また、偏光調整部228、229は、各々光ファイバー224、226中に設けられ、偏光調整を行う。これらの偏光調整部は光ファイバーをループ状に引きまわした部分を幾つか持っている。このループ状の部分をファイバーの長手方向を中心として回転させることでファイバーに捩じりを加え、測定光と参照光の偏光状態を各々調整して合わせることができる。分光器230はレンズ232、234、回折格子233、ラインセンサ231から構成される。 First, the inside of the measurement optical system 100-1 will be explained. An objective lens 201 is placed facing the eye 200 to be examined, and a first dichroic mirror 202 and a second dichroic mirror 203 are placed on its optical axis. These dichroic mirrors branch the optical path into an optical path 250 for the OCT optical system, an optical path 251 for the SLO optical system and fixation lamp, and an optical path 252 for anterior eye observation for each wavelength band. The optical path 251 for the SLO optical system and fixation lamp includes an SLO scanning means 204, lenses 205 and 206, a mirror 207, a third dichroic mirror 208, an APD (Avalanche Photodiode) 209, an SLO light source 210, and a fixation lamp 211. ing. The mirror 207 is a prism in which a perforated mirror or a hollow mirror is vapor-deposited, and separates the illumination light from the SLO light source 210 and the return light from the eye to be examined. The third dichroic mirror 208 separates the optical path of the SLO light source 210 and the optical path of the fixation lamp 211 for each wavelength band. The SLO scanning means 204 scans the eye 200 with light emitted from the SLO light source 210, and is composed of an X scanner that scans in the X direction and a Y scanner that scans in the Y direction. In this embodiment, since it is necessary to perform high-speed scanning, the X scanner is configured with a polygon mirror, and the Y scanner is configured with a galvanometer mirror. The lens 205 is driven by a motor (not shown) to focus the SLO optical system and the fixation lamp 211. SLO light source 210 generates light at a wavelength around 780 nm. APD 209 detects return light from the eye to be examined. The fixation lamp 211 generates visible light to encourage the subject to fixate. The light emitted from the SLO light source 210 is reflected by the third dichroic mirror 208, passes through the mirror 207, passes through the lenses 206 and 205, and is scanned onto the eye 200 by the SLO scanning means 204. After the return light from the eye 200 to be examined returns along the same path as the illumination light, it is reflected by the mirror 207 and guided to the APD 209, whereby an SLO fundus image is obtained. The light emitted from the fixation lamp 211 passes through the third dichroic mirror 208 and the mirror 207, passes through the lenses 206 and 205, and forms a predetermined shape at an arbitrary position on the eye 200 by the SLO scanning means 204. Encourage the subject to fixate. Lenses 212 and 213, a split prism 214, and a CCD 215 for anterior eye observation that detects infrared light are arranged in the optical path 252 for anterior eye observation. This CCD 215 is sensitive to the wavelength of irradiation light for anterior ocular segment observation (not shown), specifically around 970 nm. The split prism 214 is arranged at a position conjugate with the pupil of the eye to be examined 200, and measures the distance in the Z-axis direction (optical axis direction) of the measurement optical system 100-1 to the eye to be examined 200 as a split image of the anterior segment of the eye. Can be detected. The optical path 250 of the OCT optical system constitutes the OCT optical system as described above, and is for capturing a tomographic image of the eye 200 to be examined. More specifically, the purpose is to obtain an interference signal for forming a tomographic image. The XY scanner 216 is for scanning light on the eye 200 to be examined, and although it is shown as a single mirror in FIG. 2(b), it is actually a galvanometer mirror that scans in two directions of the X and Y axes. Of the lenses 217 and 218, the lens 217 is driven by a motor (not shown) in order to focus the light from the OCT light source 220 emitted from the fiber 224 connected to the optical coupler 219 onto the eye 200 to be examined. By this focusing, the return light from the eye 200 to be examined is simultaneously formed into a spot image and incident on the tip of the fiber 224. Next, the configuration of the optical path from the OCT light source 220, the reference optical system, and the spectrometer will be explained. 220 is an OCT light source, 221 is a reference mirror, 222 is a dispersion compensating glass, 223 is a lens, 219 is an optical coupler, 224 to 227 are single mode optical fibers connected and integrated with the optical coupler, and 230 is a spectrometer. . These configurations constitute a Michelson interferometer. The light emitted from the OCT light source 220 passes through the optical fiber 225 and is split via the optical coupler 219 into measurement light on the optical fiber 224 side and reference light on the optical fiber 226 side. The measurement light is irradiated onto the eye 200 to be observed, which is the object of observation, through the optical path of the aforementioned OCT optical system, and reaches the optical coupler 219 through the same optical path due to reflection and scattering by the eye 200 to be examined. On the other hand, the reference light reaches the reference mirror 221 and is reflected through the optical fiber 226, the lens 223, and the dispersion compensating glass 222 inserted to match the wavelength dispersion of the measurement light and the reference light. Then, it returns along the same optical path and reaches the optical coupler 219. The measurement light and the reference light are combined by the optical coupler 219 to become interference light. Here, interference occurs when the optical path length of the measurement light and the optical path length of the reference light become almost the same. The reference mirror 221 is held adjustable in the optical axis direction by a motor and a drive mechanism (not shown), and can match the optical path length of the reference light to the optical path length of the measurement light. The interference light is guided to a spectrometer 230 via an optical fiber 227. Further, polarization adjustment units 228 and 229 are provided in the optical fibers 224 and 226, respectively, and perform polarization adjustment. These polarization adjustment sections have several sections in which optical fibers are routed in loops. By rotating this loop-shaped portion around the longitudinal direction of the fiber, it is possible to twist the fiber and adjust the polarization states of the measurement light and the reference light to match each other. The spectrometer 230 includes lenses 232 and 234, a diffraction grating 233, and a line sensor 231.

光ファイバー227から出射された干渉光はレンズ234を介して平行光となった後、回折格子233で分光され、レンズ232によってラインセンサ231に結像される。次に、OCT光源220の周辺について説明する。OCT光源220は、代表的な低コヒーレント光源であるSLD(Super Luminescent Diode)である。中心波長は855nm、波長バンド幅は約100nmである。ここで、バンド幅は、得られる断層画像の光軸方向の分解能に影響するため、重要なパラメータである。光源の種類は、ここではSLDを選択したが、低コヒーレント光が出射できればよく、ASE(Amplified Spontaneous Emission)等を用いることができる。中心波長は眼を測定することを鑑みると近赤外光が適する。また、中心波長は得られる断層画像の横方向の分解能に影響するため、なるべく短波長であることが望ましい。双方の理由から中心波長は855nmとした。本実施形態では干渉計としてマイケルソン干渉計を用いたが、マッハツェンダー干渉計を用いてもよい。測定光と参照光との光量差に応じて、光量差が大きい場合にはマッハツェンダー干渉計を、光量差が比較的小さい場合にはマイケルソン干渉計を用いることが望ましい。 The interference light emitted from the optical fiber 227 becomes parallel light through the lens 234 , is separated by the diffraction grating 233 , and is imaged onto the line sensor 231 by the lens 232 . Next, the surroundings of the OCT light source 220 will be described. The OCT light source 220 is an SLD (Super Luminescent Diode), which is a typical low coherent light source. The center wavelength is 855 nm, and the wavelength bandwidth is approximately 100 nm. Here, the bandwidth is an important parameter because it affects the resolution of the obtained tomographic image in the optical axis direction. As for the type of light source, SLD is selected here, but it is sufficient that it can emit low coherent light, and ASE (Amplified Spontaneous Emission) or the like may be used. Considering that the eye is to be measured, near-infrared light is suitable as the center wavelength. Furthermore, since the center wavelength affects the lateral resolution of the obtained tomographic image, it is desirable that the center wavelength be as short as possible. For both reasons, the center wavelength was set to 855 nm. In this embodiment, a Michelson interferometer is used as the interferometer, but a Mach-Zehnder interferometer may also be used. Depending on the difference in light intensity between the measurement light and the reference light, it is desirable to use a Mach-Zehnder interferometer when the difference in light intensity is large, and to use a Michelson interferometer when the difference in light intensity is relatively small.

(OCTAデータの解析処理)
以下、具体的にOCTモーションコントラストデータを対象とする解析処理について説明するが、実施形態の説明の中で使用する用語について簡単に定義しておく。まず、三次元ボリュームデータの情報をOCTデータまたはOCTAデータと表記する。次に、ボリュームデータから取り出せる二次元情報をOCT画像またはOCTA画像とし、特に、指定した深さ方向の範囲でボリュームデータを投影して作成した画像をOCT正面画像またはOCTA正面画像と表記する。また、深さ方向のデータを含む二次元情報を断層画像と表記する。
(OCTA data analysis processing)
Hereinafter, analysis processing targeting OCT motion contrast data will be specifically described, but the terms used in the description of the embodiments will be briefly defined. First, information on three-dimensional volume data is expressed as OCT data or OCTA data. Next, two-dimensional information that can be extracted from the volume data is referred to as an OCT image or an OCTA image, and in particular, an image created by projecting volume data in a specified depth direction range is referred to as an OCT front image or an OCTA front image. Further, two-dimensional information including data in the depth direction is referred to as a tomographic image.

図3(a)は視神経乳頭(ONH;Optive Nerve Head)のOCTA正面画像301を示している。スライドバー302は初期値として透過率0%を示しており、これは後述するOCT正面画像の透過率である。ここで、スライドバー302の透過率は前回設定された透過率を記憶してもよいし、別のOCTA正面画像に切り替えるときに初期値0%に戻してもよい。 FIG. 3A shows an OCTA frontal image 301 of the optic nerve head (ONH). The slide bar 302 indicates a transmittance of 0% as an initial value, which is the transmittance of an OCT front image to be described later. Here, the transmittance of the slide bar 302 may be stored as the previously set transmittance, or may be returned to the initial value of 0% when switching to another OCTA front image.

ONHの血管機能は緑内障の進行状況と密接な関係があることが知られており、その血管機能不全を定量的に解析することは臨床的な価値が大きいと言われている。ところが、神経管開口部(NCO;Neural Canal Opening)の境界を、OCTA正面画像上で設定することはやや難しい。OCT正面画像であればNCOの視認性があがるため解析領域を設定しやすくなる。緑内障においては、ONH循環障害の役割を評価するためには、微小循環に関しても信頼できる情報が得られることが重要となる。 It is known that ONH vascular function is closely related to the progress of glaucoma, and quantitative analysis of vascular dysfunction is said to be of great clinical value. However, it is somewhat difficult to set the boundary of the neural canal opening (NCO) on an OCTA frontal image. If it is an OCT frontal image, the visibility of the NCO will increase, making it easier to set the analysis area. In glaucoma, it is important to obtain reliable information regarding microcirculation in order to evaluate the role of ONH circulation disorders.

図3(b)は一例として、操作者がスライドバー302を60%に設定した場合を示している。OCTA正面画像と、それとは異なる第2のOCT正面画像から、設定された透過率に基づいて生成された画像303が表示される。すなわち、光干渉断層計によって取得した被検体の同一箇所のOCT画像及びOCT画像を用いて、変更可能な透過率に基づいてブレンド処理されたブレンド画像が生成される。そして、設定された解析領域304に対する解析処理が実行される。具体的には、図1および図4を参照しながら本実施形態の画像処理装置101の画像処理システムについて説明する。まず、操作者が対象画像として指定した深さ方向の範囲のOCTA正面画像を指定すると、記憶部101-02に記憶されているOCTA正面画像および第2の医用画像となるOCT正面画像が取得される。OCTA正面画像とOCT正面画像と深さ方向の範囲は必ずしも一致する必要はない。操作者がそれぞれ異なる深さ方向の範囲を指定することも可能である。透過率設定部402において、操作者がスライドバー302で設定した位置に基づいて透過率を設定し、第2の医用画像(ここではOCT正面画像)の透過係数α(0≦α≦1)を決定する。ここで、透過処理は一般的なアルファブレンド処理を用いて、画素ごとに2枚の画像の加重平均を行う。例えば、ブレンド処理は、OCT画像とOCTA画像との互いに対応する位置の画素値を加重平均処理することにより実行される。 FIG. 3B shows, as an example, a case where the operator sets the slide bar 302 to 60%. An image 303 generated from the OCTA front image and a second OCT front image different from the OCTA front image based on the set transmittance is displayed. That is, a blended image is generated that is subjected to blending processing based on changeable transmittance using an OCT image and an OCT image of the same location of the subject acquired by an optical coherence tomography. Then, analysis processing for the set analysis area 304 is executed. Specifically, the image processing system of the image processing apparatus 101 of this embodiment will be described with reference to FIGS. 1 and 4. First, when the operator specifies an OCTA front image in the specified depth direction range as the target image, the OCTA front image stored in the storage unit 101-02 and the OCT front image that becomes the second medical image are acquired. Ru. The ranges of the OCTA front image and the OCT front image in the depth direction do not necessarily have to match. It is also possible for the operator to specify different ranges in the depth direction. The transmittance setting unit 402 sets the transmittance based on the position set by the operator with the slide bar 302, and sets the transmittance coefficient α (0≦α≦1) of the second medical image (here, the OCT front image). decide. Here, the transparency process uses a general alpha blending process to perform a weighted average of two images for each pixel. For example, the blending process is performed by weighted averaging processing of pixel values at mutually corresponding positions in the OCT image and the OCTA image.

(透過画像)=(第1の医用画像)×(1-α)+(第2の医用画像)×α…(式2)
ブレンド処理部403は、上記の(式2)に基づくブレンド画像(以下、透過画像と表記)を生成し、表示制御部101-05は、生成されたブレンド画像を表示部104に表示させる。操作者は、表示部104に表示された透過画像を確認しながら、所望の透過画像となるまで透過率を変更してもよい。また、操作者は視認性を確認しながら、画像の深さ方向の範囲を変更してもよい。
(Transparent image) = (first medical image) x (1 - α) + (second medical image) x α... (Formula 2)
The blend processing unit 403 generates a blend image (hereinafter referred to as a transparent image) based on the above (Equation 2), and the display control unit 101-05 displays the generated blend image on the display unit 104. The operator may change the transmittance while checking the transparent image displayed on the display unit 104 until a desired transparent image is obtained. Further, the operator may change the range of the image in the depth direction while checking the visibility.

次に、ROI設定部404は、透過画像上で解析を行う関心領域(ROI;Region of Interest)を設定する。ROI情報は中心位置と大きさのようなパラメータとして設定されてもよいし、一般的な形状(例えば、円、楕円、矩形など)で設定されてもよい。また、ROI情報は自由領域として複数の制御点によるスプライン曲線などを用いた領域として設定されてもよい。ROI情報は透過画像上に重畳表示すればよい。さらに、設定されてROIが所望の領域であるかを確認するために、ROI情報を重畳表示した状態で、操作者が透過率を変更して透過画像を更新することもできる。このように、OCT正面画像の透過率を適宜変更することによって微小循環の状態またはNCO境界の視認性を調整することができる。 Next, the ROI setting unit 404 sets a region of interest (ROI) to be analyzed on the transparent image. The ROI information may be set as parameters such as a center position and size, or may be set as a general shape (for example, a circle, an ellipse, a rectangle, etc.). Further, the ROI information may be set as a free region using a spline curve or the like with a plurality of control points. The ROI information may be displayed in a superimposed manner on the transparent image. Furthermore, in order to confirm whether the set ROI is a desired region, the operator can update the transparent image by changing the transmittance while the ROI information is displayed in a superimposed manner. In this way, by appropriately changing the transmittance of the OCT front image, the state of microcirculation or the visibility of the NCO boundary can be adjusted.

最後に、画像における関心領域に対して処理を実行する実行手段の一例である解析部101-46は、種々の画像解析を実行する。解析の種別は、操作者が指定してもよいし、あらかじめ設定された解析でもよい。抽出部101-462が解析の種別に応じた画像の特徴量を抽出し、計測部101-463が種々の計測を行う。解析結果は表示部104に表示される。例えば、操作者は設定したROI情報に基づいた血管抽出処理を指示する。抽出部101-462は、OCTA正面画像を用いて、血管領域と非血管領域との判別処理による血管抽出を実行する。判別処理としては、一例として、閾値処理を用いて所定の閾値を満たす画素を血管領域として抽出すればよい。閾値は、あらかじめ設定された固定値でもよいし、被検者が任意に設定してもよい。また、閾値はOCTA正面画像に応じて所定のアルゴリズム(例えばヒストグラム解析)に基づいて適応的に設定されてもよい。血管抽出処理は血管/非血管の2値情報として表してもよいし、血管らしさの尺度(例えば、閾値からの距離)で連続値としてもよい。血管領域に関しては、特定の色情報を付加してもよいし、連続値とする場合には、所定のグラデーションで色情報を付加してもよい。血管情報を示す色やグラデーションは赤系統に限らず操作者が自由に選択できるようにしてもよい。 Finally, an analysis unit 101-46, which is an example of an execution unit that executes processing on a region of interest in an image, executes various image analyzes. The type of analysis may be specified by the operator or may be a preset analysis. An extraction unit 101-462 extracts image features according to the type of analysis, and a measurement unit 101-463 performs various measurements. The analysis results are displayed on the display unit 104. For example, the operator instructs blood vessel extraction processing based on the set ROI information. The extraction unit 101-462 uses the OCTA frontal image to perform blood vessel extraction by discriminating between blood vessel regions and non-vascular regions. As an example of the determination process, pixels satisfying a predetermined threshold may be extracted as blood vessel regions using threshold processing. The threshold value may be a fixed value set in advance, or may be arbitrarily set by the subject. Further, the threshold value may be adaptively set based on a predetermined algorithm (for example, histogram analysis) depending on the OCTA frontal image. The blood vessel extraction process may be expressed as binary information of blood vessel/non-blood vessel, or may be expressed as a continuous value as a measure of blood vessel-likeness (for example, distance from a threshold value). Regarding the blood vessel region, specific color information may be added, or in the case of continuous values, color information may be added with a predetermined gradation. The color and gradation indicating blood vessel information are not limited to reds, and may be freely selected by the operator.

また、OCTAデータに基づいて血管の深度に応じて色を付加してもよい。このように血管に色をつけることで、操作者がROIを設定する際の画像がより分かりやすいものとなる。もちろん、OCTAデータから血管抽出を行ってもよい。三次元情報として血管を抽出すれば、血管の位置や太さなどから色情報を付加することも可能となる。 Furthermore, colors may be added depending on the depth of blood vessels based on OCTA data. By coloring the blood vessels in this way, the image when the operator sets the ROI becomes easier to understand. Of course, blood vessels may be extracted from OCTA data. If blood vessels are extracted as three-dimensional information, it is also possible to add color information based on the position and thickness of the blood vessels.

表示制御部101-05は、抽出部101-462により抽出された血管情報に基づいて血管計測を行って、表示部104に表示させる。血管計測は、例えば、血管密度や血管面積などを用いればよい。血管領域の密度としては、例えば、ROIの領域全体における血管領域の比率を算出することによって、単位面積当たりの血管の面積が求められる。血管計測においては、これに限定されるわけではなく、血管総量、血管蛇行性等であってもよい。 The display control unit 101-05 performs blood vessel measurement based on the blood vessel information extracted by the extraction unit 101-462, and displays it on the display unit 104. Blood vessel measurement may be performed using, for example, blood vessel density or blood vessel area. As the density of the blood vessel region, for example, the area of the blood vessel per unit area is determined by calculating the ratio of the blood vessel region to the entire region of the ROI. Blood vessel measurement is not limited to this, but may also be the total volume of blood vessels, blood vessel tortuosity, etc.

さらに、ROIを複数の領域に分割して、それぞれの領域ごとの計測値の差分や比率を算出してもよい。こうすることで、例えば、血管の対称性などを評価することができる。血管密度は、所定の面積ごとの密度を色データに対応づけることでカラーマップ画像として解析結果として表示してもよい。カラーマップ画像とOCTA正面画像を所定の透過率(例えば50%)でブレンド表示してもよい。また、OCTA正面画像とOCT正面画像のブレンド画像とカラーマップ画像をブレンド表示してもよい。カラーマップ画像に対する透過率は固定でもよいし、操作者が指定できるようにしてもよい。 Furthermore, the ROI may be divided into a plurality of regions and the difference or ratio between the measured values for each region may be calculated. In this way, for example, the symmetry of blood vessels can be evaluated. The blood vessel density may be displayed as an analysis result as a color map image by associating the density of each predetermined area with color data. The color map image and the OCTA front image may be blended and displayed at a predetermined transmittance (for example, 50%). Further, a blended image of the OCTA frontal image and the OCT frontal image and a color map image may be displayed in a blended manner. The transmittance for the color map image may be fixed or may be specified by the operator.

なお、被検者のフォローアップとして、定期的な検査を行い、それぞれの解析結果を時系列的に並べる経過観察の表示画面を表示してもよい。その場合、比較部101-464において、解析結果の比較が行われ、さらに、強調部101-461において変化したところを強調して表示してもよい。 Note that as a follow-up for the subject, periodic examinations may be performed and a progress observation display screen may be displayed in which the respective analysis results are arranged in chronological order. In that case, the comparison section 101-464 compares the analysis results, and the emphasis section 101-461 may further highlight and display the changes.

(視神経乳頭の解析処理手順)
次に、図5を参照して本実施形態の画像処理装置101の処理手順を示す。S501において、視神経乳頭(ONH)のOCTA正面画像に対するOCT正面画像の透過率αがGUIの設定値に基づいて変更される。ここでαは0から1の実数とする。ただし、GUI上はパーセント表記などでもよい。S502において、変更された透過率に基づいて、2枚の画像の透過処理が行われ、透過画像が画面上に表示される。S503において、操作者が透過画像を確認しながら、ROI設定が行いやすい透過率を決定する。続いて、S504において、解析位置または解析領域であるROIが設定される。S505において、設定されたROI情報に基づいた血管抽出処理が指示される。最後に、S506において、視神経乳頭(ONH)の血管計測が行われ、その結果が画面上に表示される。
(Optic disc analysis processing procedure)
Next, the processing procedure of the image processing apparatus 101 of this embodiment will be described with reference to FIG. In S501, the transmittance α of the OCT front image with respect to the OCTA front image of the optic nerve head (ONH) is changed based on the setting value of the GUI. Here, α is a real number between 0 and 1. However, it may be expressed as a percentage on the GUI. In S502, transparency processing is performed on the two images based on the changed transmittance, and the transparent images are displayed on the screen. In S503, the operator determines a transmittance that makes it easy to set the ROI while checking the transparent image. Subsequently, in S504, an ROI, which is an analysis position or an analysis region, is set. In S505, a blood vessel extraction process based on the set ROI information is instructed. Finally, in S506, blood vessels of the optic nerve head (ONH) are measured, and the results are displayed on the screen.

以上、視神経乳頭(ONH)の解析を例に説明を行ったが、被検眼の黄斑部の解析や中心窩無血管領域の検出などでもよい。例えば、黄斑部の深い層での新生血管を解析するとき、OCTA正面画像に対応する層ではなく表層のOCT正面画像に対して透過処理をすることで黄斑部のROI設定が容易になる。つまり、OCTA正面画像とOCT正面画像の層は必ずしも一致している必要はなく、それぞれ異なる層の画像間で透過処理してもよい。 The above explanation has been made using the analysis of the optic nerve head (ONH) as an example, but analysis of the macular region of the eye to be examined, detection of the foveal avascular region, etc. may also be used. For example, when analyzing new blood vessels in a deep layer of the macular region, ROI setting for the macular region is facilitated by performing transparency processing on the OCT front image of the superficial layer instead of the layer corresponding to the OCTA front image. That is, the layers of the OCTA front image and the OCT front image do not necessarily have to match, and transparency processing may be performed between images of different layers.

(中心窩無血管領域の解析)
以下で、中心窩無血管領域(FAZ;Foveal Avascular Zone)の検出に関して説明する。FAZは無血管領域で輝度が低いため、例えば、FAZ解析領域の中心点を基準として、周辺部での輝度の連結性を判定することによってFAZを抽出する。抽出方法は既知の手法のいずれかで行えばよく、例えば、領域拡張法による抽出や、Snakeのような動的輪郭モデルによる抽出などがある。なお、上記解析処理は、血管に限定されるものではなく、脈管解析領域としての脈管解析(例えば、リンパ管)にも適用できる。さらに、本実施形態においては、OCTA正面画像を例として説明したが、モーションコントラストデータの次数を限定するものではない。例えば、OCTAデータとOCTデータから加重平均した三次元情報を生成し、三次元のROIを設定してもよい。もちろん、モーションコントラストデータとしては、1次元モーションコントラストデータ、二次元モーションコントラストデータであってもよい。
(Analysis of foveal avascular region)
Detection of the foveal avascular zone (FAZ) will be described below. Since the FAZ is an avascular region and has low brightness, the FAZ is extracted by, for example, determining the connectivity of brightness in the periphery using the center point of the FAZ analysis region as a reference. The extraction method may be performed using any known method, such as extraction using a region expansion method or extraction using a dynamic contour model such as Snake. Note that the above analysis process is not limited to blood vessels, but can also be applied to blood vessel analysis (for example, lymph vessels) as a blood vessel analysis area. Further, in this embodiment, an OCTA front image has been described as an example, but the order of motion contrast data is not limited. For example, a three-dimensional ROI may be set by generating weighted average three-dimensional information from OCTA data and OCT data. Of course, the motion contrast data may be one-dimensional motion contrast data or two-dimensional motion contrast data.

さらに、断層画像に対してROIの設定を行うことも可能である。図3(a)のチェックボタン305をオンにすると、OCTA正面画像上にライン306を表示する。操作者は、このラインをマウスでドラックしながらライン306の位置を上下に移動できる。その操作に連動して、断層画像307が対応する断層画像に更新される。設定されたROI304とライン306の交点を、断層画像307上に垂直方向のライン308として表示してもよい。操作者は、ライン308をマウスでドラッグしながら左右に移動することで、断層画像で確認しながらROIを調整してもよい。ライン308での調整に従って、ROI304の形状が滑らかにつながるように変更する。また、断層画像でのROI調整がROI304の形状として破綻しない範囲にライン308の可動域を抑制してもよい。 Furthermore, it is also possible to set an ROI for a tomographic image. When the check button 305 in FIG. 3(a) is turned on, a line 306 is displayed on the OCTA front image. The operator can move the position of line 306 up or down by dragging this line with the mouse. In conjunction with this operation, the tomographic image 307 is updated to a corresponding tomographic image. The intersection of the set ROI 304 and the line 306 may be displayed as a vertical line 308 on the tomographic image 307. The operator may adjust the ROI while checking the tomographic image by moving the line 308 left and right while dragging it with the mouse. According to the adjustment on line 308, the shape of ROI 304 is changed so that it is smoothly connected. Further, the range of motion of the line 308 may be suppressed within a range where ROI adjustment in the tomographic image does not destroy the shape of the ROI 304.

また、図示は行わないが、断層画像307においてもOCTA断層画像とOCT断層画像をブレンド表示してもよい。この場合、スライドバー302を共通に利用してもよいし、個別にスライドバーを追加してもよい。特に、健常眼ではないデータにおいては、OCT断層画像の透過率を高くすることで、OCTA断層画像上に抽出されている血管が適切であるかの確認がある程度まで可能な場合がある。すなわち、OCTAデータとOCTデータそれぞれの断層画像間で透過処理を行いながら、より詳細なROIが設定されてもよい。 Further, although not illustrated, the OCTA tomographic image and the OCT tomographic image may be displayed as a blend in the tomographic image 307 as well. In this case, the slide bar 302 may be used in common, or slide bars may be added individually. In particular, for data from non-healthy eyes, by increasing the transmittance of the OCT tomographic image, it may be possible to confirm to some extent whether the blood vessels extracted on the OCTA tomographic image are appropriate. That is, a more detailed ROI may be set while performing transparency processing between the tomographic images of OCTA data and OCT data.

また、透過処理に用いる第2の医用画像としては、SLOや眼底カメラの画像であってもよい。あるいは、別の層のOCTA正面画像であってもよい。この場合は、透過処理を行う画像間で、位置的なレジストレーションが行われていることが望ましい。 Further, the second medical image used for transmission processing may be an image from an SLO or a fundus camera. Alternatively, it may be an OCTA en-face image of another layer. In this case, it is desirable that positional registration be performed between the images to be subjected to transparency processing.

さらに、透過処理に用いる画像としては2枚に限定されるわけではない。場合によっては、第3の医用画像を重みづけ加算で加えることも考えられる。例えば、第1の透過率により第1の医用画像及び第2の医用画像をブレンド処理して得た第1のブレンド画像と第3の医用画像とが第2の透過率によりブレンド処理されることにより、第2のブレンド画像が取得されるように構成されてもよい。 Furthermore, the number of images used for transparency processing is not limited to two. Depending on the case, it may be possible to add a third medical image by weighted addition. For example, a first blend image obtained by blending a first medical image and a second medical image using a first transmittance and a third medical image are blended using a second transmittance. The second blended image may be obtained by:

[第2の実施形態]
本実施形態に係る画像処理装置は、OCTデータに対してOCTA正面画像を参照しながら、解析位置や解析領域を設定しながら解析処理を行う場合について説明する。
[Second embodiment]
A case will be described in which the image processing apparatus according to the present embodiment performs analysis processing on OCT data while setting an analysis position and an analysis region while referring to an OCTA front image.

OCTデータからは、視神経繊維層の厚みや視神経乳頭の凹み具合、眼球形状の曲率などが解析できる。このように層厚情報や眼球の曲率情報から種々の疾患の状態を知ることができる。また、層厚情報や曲率情報は、厚みや曲率を色のグラデーションとして表したカラーマップ化して画像として表示してもよいし、ROIを複数の領域に分割してそれぞれの平均値を表示してもよい。 From OCT data, it is possible to analyze the thickness of the optic nerve fiber layer, the degree of concavity of the optic disc, and the curvature of the eyeball shape. In this way, various disease states can be known from layer thickness information and eyeball curvature information. In addition, the layer thickness information and curvature information may be displayed as an image by converting the thickness and curvature into a color map as a color gradation, or by dividing the ROI into multiple regions and displaying the average value of each region. Good too.

あるいは、篩状板の状態を解析することも緑内障などの診断に有益であると考えられている。具体的には、OCTデータの断層画像に適切なセグメンテーション処理を施すことで、篩状板の厚みを計測することもできる。 Alternatively, analyzing the state of the lamina cribrosa is also considered useful for diagnosing glaucoma and the like. Specifically, the thickness of the lamina cribrosa can also be measured by performing appropriate segmentation processing on a tomographic image of OCT data.

被検眼によっては、より厳密な血管情報と比較しながらROIを設定することで有効な解析を行うことができる場合がある。例えば、強度近視の場合には、眼球の形状にひずみを持っているので、OCT正面画像に、指定された透過率でOCTA正面画像を透過処理することで、血管情報を同時に確認しながらROIの設定が可能となる。その設定されたROIに基づいて、層厚や曲率などが解析可能となる。 Depending on the eye to be examined, effective analysis may be possible by setting the ROI while comparing with more precise blood vessel information. For example, in the case of severe myopia, the shape of the eyeball is distorted, so by transmitting the OCT front image and the OCTA front image at a specified transmittance, it is possible to check the ROI while simultaneously checking blood vessel information. Settings are now possible. Based on the set ROI, layer thickness, curvature, etc. can be analyzed.

あるいは、OCT正面画像または解析結果の画像にOCTA正面画像を透過処理すれば、ROIの設定以外でも、複合的な判断を行う場合にも本発明は利用可能である。 Alternatively, if the OCTA front image is subjected to transparency processing on the OCT front image or the analysis result image, the present invention can be used for making complex judgments other than ROI setting.

具体的には、層厚のカラーマップ画像に対して、OCTA正面画像を透過処理することで、操作者は、例えば層厚の低い領域での血管の状態を視認することができる。曲率などのカラーマップ画像でも同様である。あるいは、篩状板の解析結果を確認するときに、指定した透過率で血管情報を加えることで、篩状板の厚みと篩状板に入る血流の状態を同時に確認できる。 Specifically, by performing transparency processing on the OCTA front image with respect to the color map image of the layer thickness, the operator can visually recognize, for example, the state of the blood vessel in the region where the layer thickness is low. The same applies to color map images such as curvature. Alternatively, when checking the analysis results of the lamina cribrosa, by adding blood vessel information at a specified transmittance, it is possible to simultaneously check the thickness of the lamina cribrosa and the state of blood flow entering the lamina cribrosa.

モーションコントラストデータの場合、血管の漏れや血流量の少ない場所は血管の視認は比較的困難である。そのため、より厳密に血流情報を透過処理したい場合には、第2の医用画像としてフルオレセインやインドシアニングリーンなどによる蛍光眼底造影検査による画像を用いてもよい。 In the case of motion contrast data, it is relatively difficult to visually recognize blood vessels in areas with leaky blood vessels or low blood flow. Therefore, if it is desired to perform transmission processing of blood flow information more strictly, an image obtained by a fluorescein ophthalmography examination using fluorescein, indocyanine green, or the like may be used as the second medical image.

以上、本実施形態ではOCTデータの解析について説明を行ったが、解析方法に関しては、これに限定されないことは言うまでもない。また、透過処理を行う第1の医用画像は、OCT正面画像に限定されるものではなく、解析結果を可視化した画像であってもよい。第1の実施形態と同様に、断層画像を利用してもよい。さらに、透過処理を行う第2の医用画像もOCTA正面画像に限定されるものでなく、第1の医用画像と異なる種類の画像であればよい。このとき、第1の医用画像と第2の医用画像とは、被検体における互いに対応する領域の画像であればよい。 Although the analysis of OCT data has been described above in this embodiment, it goes without saying that the analysis method is not limited to this. Furthermore, the first medical image to be subjected to transmission processing is not limited to an OCT frontal image, but may be an image that visualizes the analysis results. As in the first embodiment, tomographic images may be used. Further, the second medical image to be subjected to transparency processing is not limited to the OCTA frontal image, and may be any type of image different from the first medical image. At this time, the first medical image and the second medical image may be images of mutually corresponding regions of the subject.

[第3の実施形態]
本実施形態に係る画像処理装置は、上述した様々な実施形態における透過処理について、画素ごとに適応的に透過率を変更する場合について説明する。例えば、OCTA正面画像とOCT正面画像を透過処理する場合に、重要となるのは血管の情報である。
[Third embodiment]
Regarding the image processing apparatus according to the present embodiment, a case will be described in which the transmittance is adaptively changed for each pixel regarding the transparency processing in the various embodiments described above. For example, when performing transmission processing on an OCTA frontal image and an OCT frontal image, information on blood vessels is important.

そこで、透過処理を行う際に、画素ごとに血管領域か非血管領域か分類を属性としてあらかじめ与えることで、透過処理の方法を切り替える。血管領域の抽出については、第1の実施形態で説明した通りである。最も単純には、血管領域の画素には、透過処理を行わない属性を与え、非血管領域の画素には透過処理を行う属性を与える。血管属性を決定するための閾値は、画面上で操作者が指定できるようにしてもよい。変更された閾値によって属性情報が変更され、変更された属性に基づいて透過処理が更新される。なお、属性決定のための閾値は、複数指定できてもよく、例えば、指定された閾値間の範囲で血管か非血管を分離して属性が与えられてもよい。 Therefore, when performing transparency processing, the method of transparency processing is switched by giving each pixel a classification as a blood vessel region or a non-vascular region in advance as an attribute. Extraction of the blood vessel region is as described in the first embodiment. In the simplest case, pixels in blood vessel regions are given attributes that do not undergo transparency processing, and pixels in non-vascular regions are given attributes that undergo transparency processing. The operator may be able to specify the threshold value for determining the blood vessel attribute on the screen. Attribute information is changed according to the changed threshold, and transparency processing is updated based on the changed attribute. Note that a plurality of threshold values for attribute determination may be specified, and, for example, attributes may be assigned by separating blood vessels and non-blood vessels within the range between the specified threshold values.

こうすることで、血管情報は透過処理を行わず、非血管領域の画素にのみ、第2の医用画像を透過処理することが可能となる。あるいは、血管領域の属性をもつ画素に対しては、透過処理の透過率を抑制する形で透過処理を行ってもよい。例えば、操作者が第2の医用画像の透過率をαとした場合には、非血管領域はαで透過処理を行い、血管領域はα/2などに抑制して透過処理を行うなどが考えられる。この抑制方法は、あらかじめ決めた所定の比でもよいし、透過率αに基づく関数を用意しても構わない。 By doing so, it becomes possible to perform transparency processing on only pixels in the non-vascular region of the second medical image without performing transparency processing on the blood vessel information. Alternatively, for pixels having the attribute of a blood vessel region, transparency processing may be performed in a manner that suppresses the transmittance of the transparency processing. For example, if the operator sets the transmittance of the second medical image to α, it may be possible to perform transparency processing on non-vascular areas at α, and to suppress vascular areas to α/2. It will be done. This suppression method may be a predetermined ratio, or a function based on the transmittance α may be prepared.

また、血管領域か非血管領域を、血管らしさの尺度に関して連続値として別に保持してもよい。この場合には、例えば、操作者が指定する最大の透過率に対する血管属性の最大透過率をあらかじめ設定し、操作者が指定した透過率に対して、血管らしさの数値に基づいて透過率を決定してもよい。透過処理方法は、これに限定されるものではなく画素ごとの属性情報に基づいたものであれば、種々の変形は可能である。 Further, the vascular region or the non-vascular region may be separately held as a continuous value with respect to the measure of vascularity. In this case, for example, the maximum transmittance of the blood vessel attribute is set in advance relative to the maximum transmittance specified by the operator, and the transmittance is determined based on the value of blood vessel-likeness relative to the transmittance specified by the operator. You may. The transparency processing method is not limited to this, and various modifications are possible as long as it is based on attribute information for each pixel.

さらに、複数の属性を保持してもよい。OCTA正面画像の場合、OCTAデータの深さ方向に対して、少なくとも2つの範囲、例えば、浅い部分と深い部分に分けて血管の属性を管理する。操作者は、GUI上の指示で、瞬時にどちらの属性を利用するかを切り替えられるようにしてもよい。 Furthermore, multiple attributes may be held. In the case of an OCTA frontal image, blood vessel attributes are managed by dividing the OCTA data into at least two ranges in the depth direction, for example, a shallow part and a deep part. The operator may be able to instantly switch which attribute to use using instructions on the GUI.

なお、上記説明では、血管領域と非血管領域に基づいて画素に属性を与えることを示したが、これに限定されず、様々な属性を適用可能である。例えば、第2の医用画像で特定の信号値(例えば、0)となる画素については透過処理を行わない属性を与えてもよい。あるいは、属性をあらかじめ設定した部分領域に対して与えてもよい。例えば、出血が認められる領域をGUI上でマニュアル指定することで、出血領域と非出血領域に基づく属性を各画素に与えてもよい。 Note that in the above description, it has been shown that attributes are given to pixels based on blood vessel regions and non-vascular regions, but the present invention is not limited to this, and various attributes can be applied. For example, pixels having a specific signal value (for example, 0) in the second medical image may be given an attribute that does not undergo transparency processing. Alternatively, the attribute may be given to a preset partial area. For example, by manually specifying areas where bleeding is recognized on the GUI, attributes based on bleeding areas and non-bleeding areas may be given to each pixel.

さらに、OCTAデータには血管の深さ情報が得られるので、血管の深度情報に基づいて属性値を設定してもよい。モーションコントラスト正面画像になったときに血管が重なっている場合には、最大値または最小値を用いる、あるいは平均値を用いるなどあらかじめ決めておけばよい。また、OCTデータには、層厚情報があるため層厚に基づいた属性を設定してもよい。 Furthermore, since blood vessel depth information can be obtained from the OCTA data, attribute values may be set based on the blood vessel depth information. If blood vessels overlap when the motion contrast front image is obtained, it may be determined in advance that the maximum value, minimum value, or average value may be used. Further, since the OCT data includes layer thickness information, attributes based on the layer thickness may be set.

なお、属性情報としては、第1の医用画像と第2の医用画像それぞれに付与してもよいし、いずれか一方だけに付与してもよい。また透過処理に関しては、上述した方法に限定されるものではなく、少なくとも一方に設定された属性情報に基づく処理として、当業者であれば種々の変形が可能である。 Note that the attribute information may be provided to each of the first medical image and the second medical image, or may be provided to only one of them. Further, the transparent processing is not limited to the method described above, and those skilled in the art can make various modifications as processing based on attribute information set on at least one side.

以上、上記のそれぞれの実施形態においては、眼部の医用画像処理を例に説明をしたが、光干渉断層計によって取得される医用画像データ(例えば、皮膚組織のモーションコントラストデータ)に対しても適用可能である。 In each of the above embodiments, medical image processing of the eye has been explained as an example, but medical image data obtained by optical coherence tomography (for example, motion contrast data of skin tissue) can also be processed. Applicable.

[第4の実施形態]
以下、図6、図7及び図8を参照して、第4の実施形態による医用画像処理装置について説明する。本実施形態に係る画像処理装置101は、モーションコントラストデータを高画質化する高画質化手段として、例えば、上述した合成部101-42の代わりに、機械学習による高画質化処理を適用するための高画質化部(不図示)を備える。このとき、画像処理装置101(あるいは画像処理部101-04)における高画質化部には高画質化エンジンが備えられている。本実施形態に係る高画質化エンジンの備える高画質化手法では、機械学習アルゴリズムを用いた処理を行う。
[Fourth embodiment]
A medical image processing apparatus according to a fourth embodiment will be described below with reference to FIGS. 6, 7, and 8. The image processing device 101 according to the present embodiment is configured to apply image quality improvement processing based on machine learning, for example, instead of the above-mentioned synthesis unit 101-42, as an image quality improvement means for improving the image quality of motion contrast data. It includes a high image quality unit (not shown). At this time, the image quality improvement unit in the image processing device 101 (or image processing unit 101-04) is equipped with an image quality improvement engine. The image quality improvement method included in the image quality improvement engine according to this embodiment performs processing using a machine learning algorithm.

本実施形態では、機械学習アルゴリズムに係る機械学習モデルのトレーニングに、処理対象として想定される特定の撮影条件を持つ低画質画像である入力データと、入力データに対応する高画質画像である出力データのペア群で構成された教師データを用いる。なお、特定の撮影条件には、具体的には、予め決定された撮影部位、撮影方式、撮影画角、及び画像サイズ等が含まれる。 In this embodiment, for training a machine learning model related to a machine learning algorithm, input data is a low-quality image with specific shooting conditions assumed to be processed, and output data is a high-quality image corresponding to the input data. We use training data consisting of a group of pairs. Note that the specific imaging conditions specifically include a predetermined imaging site, imaging method, imaging angle of view, image size, and the like.

ここで、機械学習モデルとは、任意の機械学習アルゴリズムに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。教師データは、一つ以上の、入力データと出力データ(正解データ)とのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。 Here, the machine learning model is a model in which training (learning) is performed on an arbitrary machine learning algorithm using appropriate teacher data (learning data) in advance. The teaching data consists of one or more pairs of input data and output data (correct data). Note that the formats and combinations of the input data and output data of the pair groups that make up the training data may be such that one is an image and the other is a numerical value, one is composed of multiple image groups and the other is a character string, or both. may be an image, etc., which is suitable for the desired configuration.

具体的には、例えば、OCTによって取得された画像と、該画像に対応する撮影部位ラベルとのペア群によって構成された教師データ(以下、第1の教師データ)が挙げられる。なお、撮影部位ラベルは部位を表すユニークな数値や文字列である。また、その他の教師データの例として、OCTの通常撮影によって取得されたノイズの多い低画質画像と、OCTにより複数回撮影して高画質化処理した高画質画像とのペア群によって構成されている教師データ(以下、第2の教師データ)等が挙げられる。 Specifically, for example, teacher data (hereinafter referred to as first teacher data) configured by a pair group of an image acquired by OCT and a radiographed region label corresponding to the image can be mentioned. Note that the imaging site label is a unique numerical value or character string that represents the site. In addition, as an example of other training data, it is made up of a pair group of a noisy low-quality image obtained by normal OCT imaging and a high-quality image obtained by capturing multiple times using OCT and processing it to improve the image quality. Examples include teacher data (hereinafter referred to as second teacher data).

このとき、機械学習モデルに入力データを入力すると、該機械学習モデルの設計に従った出力データが出力される。機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、出力データの種類のそれぞれについて、入力データに対応する可能性を数値として出力する等を行うことができる。具体的には、例えば、第1の教師データでトレーニングされた機械学習モデルにOCTによって取得された画像を入力すると、機械学習モデルは、該画像に撮影されている撮影部位の撮影部位ラベルを出力したり、撮影部位ラベル毎の確率を出力したりする。また、例えば、第2の教師データでトレーニングされた機械学習モデルにOCTの通常撮影によって取得されたノイズの多い低画質画像を入力すると、機械学習モデルは、OCTにより複数回撮影して高画質化処理された画像相当の高画質画像を出力する。なお、機械学習モデルについては、品質保持の観点から、自身が出力した出力データを教師データとして用いないように構成することができる。 At this time, when input data is input to the machine learning model, output data according to the design of the machine learning model is output. A machine learning model outputs output data that is likely to correspond to input data, for example, according to trends trained using teacher data. Further, the machine learning model can, for example, output the possibility of corresponding to input data as a numerical value for each type of output data, according to trends trained using teacher data. Specifically, for example, when an image acquired by OCT is input to a machine learning model trained with the first teacher data, the machine learning model outputs the imaged region label of the imaged region captured in the image. or output the probability for each imaging site label. Also, for example, if a noisy, low-quality image obtained by normal OCT imaging is input to a machine learning model trained with the second teacher data, the machine learning model will take multiple images using OCT to improve the image quality. Outputs a high-quality image equivalent to the processed image. Note that, from the viewpoint of maintaining quality, the machine learning model can be configured not to use its own output data as training data.

また、機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データを用いてトレーニングされた傾向を出力データに再現可能な程度が異なる場合がある。例えば、第1の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、正しい撮影部位ラベルを出力する確率がより高くなる場合がある。また、例えば、第2の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、より高画質な画像を出力できる場合がある。 Furthermore, machine learning algorithms include techniques related to deep learning such as convolutional neural networks (CNN). In methods related to deep learning, if the parameter settings for the layers and nodes that make up the neural network differ, the extent to which trends trained using teacher data can be reproduced in output data may vary. For example, in a deep learning machine learning model using first training data, if more appropriate parameters are set, the probability of outputting a correct imaged region label may become higher. Further, for example, in a deep learning machine learning model using the second teacher data, if more appropriate parameters are set, a higher quality image may be output in some cases.

具体的には、CNNにおけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、教師データに基づいて、機械学習モデルの利用形態に好ましい値に設定することができる。例えば、教師データに基づいて、正しい撮影部位ラベルをより高い確率で出力したり、より高画質な画像を出力したりできるパラメータ群やエポック数を設定することができる。 Specifically, parameters in CNN include, for example, the kernel size of the filter, the number of filters, the stride value, and the dilation value set for the convolutional layer, as well as the number of output nodes of the fully connected layer. etc. can be included. Note that the parameter group and the number of training epochs can be set to values preferable for the usage pattern of the machine learning model based on the teacher data. For example, based on the training data, it is possible to set a parameter group and the number of epochs that can output correct imaging site labels with a higher probability or output higher quality images.

このようなパラメータ群やエポック数の決定方法の一つを例示する。まず、教師データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用としてランダムに設定する。次に、トレーニング用のペア群を用いて機械学習モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の機械学習モデルに入力したときの出力と、入力データに対応する出力データとを損失関数によって評価した値群の平均値である。最後に、最もトレーニング評価値が小さくなったときのパラメータ群及びエポック数を、当該機械学習モデルのパラメータ群やエポック数として決定する。なお、このように、教師データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、機械学習モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。 An example of a method for determining such a parameter group and the number of epochs will be described. First, 70% of the pairs forming the teacher data are used for training, and the remaining 30% are randomly set for evaluation. Next, a machine learning model is trained using the training pair group, and at the end of each epoch of training, a training evaluation value is calculated using the evaluation pair group. The training evaluation value is, for example, the average value of a group of values obtained by evaluating the output when the input data forming each pair is input to the machine learning model being trained and the output data corresponding to the input data using a loss function. be. Finally, the parameter group and epoch number when the training evaluation value becomes the smallest are determined as the parameter group and epoch number of the machine learning model. Note that by determining the number of epochs by dividing the pairs that make up the teaching data into those for training and those for evaluation, the machine learning model may overfit the pairs for training. can be prevented.

また、高画質化エンジン(高画質化用の学習済モデル)とは、入力された低画質画像を高画質化した高画質画像を出力するモジュールのことである。ここで、本明細書における高画質化とは、入力された画像を画像診断により適した画質の画像に変換することをいい、高画質画像とは、画像診断により適した画質の画像に変換された画像をいう。また、低画質画像とは、例えば、X線撮影、CT、MRI、OCT、PET、若しくはSPECT等により取得された二次元画像や三次元画像、又は連続撮影したCTの三次元動画像等の特に高画質になるような設定をされずに撮影されたものである。具体的には、低画質画像は、例えば、X線撮影装置やCTによる低線量での撮影や、造影剤を使用しないMRIによる撮影、OCTの短時間撮影等によって取得される画像、及び少ない撮影回数で取得されたOCTA画像等を含む。 Further, the image quality improvement engine (trained model for image quality improvement) is a module that outputs a high quality image obtained by enhancing the image quality of an input low quality image. Here, high image quality in this specification refers to converting an input image into an image with a quality more suitable for image diagnosis. refers to an image that In addition, low-quality images include, for example, two-dimensional images or three-dimensional images obtained by X-ray photography, CT, MRI, OCT, PET, or SPECT, or three-dimensional moving images of continuously captured CT, etc. This photo was taken without any high-quality settings. Specifically, low-quality images include, for example, images obtained by low-dose imaging using an X-ray imaging device or CT, imaging by MRI that does not use a contrast agent, short-time imaging with OCT, etc. Contains OCTA images etc. acquired several times.

また、画像診断に適した画質の内容は、各種の画像診断で何を診断したいのかということに依存する。そのため一概には言えないが、例えば、画像診断に適した画質は、ノイズが少なかったり、高コントラストであったり、撮影対象を観察しやすい色や階調で示していたり、画像サイズが大きかったり、高解像度であったりする画質を含む。また、画像生成の過程で描画されてしまった実際には存在しないオブジェクトやグラデーションが画像から除去されているような画質を含むことができる。 Further, the content of image quality suitable for image diagnosis depends on what is desired to be diagnosed by various image diagnoses. Therefore, it is difficult to make a general statement, but for example, image quality suitable for image diagnosis is one that has little noise, high contrast, shows the photographed subject in colors and gradations that are easy to observe, and has a large image size. Including image quality such as high resolution. Furthermore, the image quality can include images in which non-existent objects and gradations that were drawn during the image generation process have been removed from the image.

また、ノイズが少なかったり、高コントラストであったりする高画質画像を、OCTA等の画像の血管解析処理や、CTやOCT等の画像の領域セグメンテーション処理等の画像解析に利用すると、低画質画像を利用するよりも精度よく解析が行えることが多い。そのため、高画質化エンジンによって出力された高画質画像は、画像診断だけでなく、画像解析にも有用である場合がある。 In addition, when high-quality images with low noise or high contrast are used for image analysis such as blood vessel analysis processing of images such as OCTA, and region segmentation processing of images such as CT and OCT, low-quality images can be used. In many cases, analysis can be performed more accurately than when using Therefore, high-quality images output by the high-quality engine may be useful not only for image diagnosis but also for image analysis.

本実施形態における高画質化手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像処理手法では、機械学習アルゴリズムを用いた処理に加えて、各種画像フィルタ処理、類似画像に対応する高画質画像のデータベースを用いたマッチング処理、及び知識ベース画像処理等の既存の任意の処理を行ってもよい。 The image processing method that constitutes the image quality improvement method in this embodiment performs processing using various machine learning algorithms such as deep learning. In addition to processing using machine learning algorithms, this image processing method uses existing arbitrary methods such as various image filter processing, matching processing using a database of high-quality images corresponding to similar images, and knowledge-based image processing. You may also perform the following processing.

特に、二次元画像を高画質化するCNNの構成例として、図6に示す構成がある。当該CNNの構成には、複数の畳み込み処理ブロック100群が含まれる。畳み込み処理ブロック100は、畳み込み(Convolution)層101と、バッチ正規化(Batch Normalization)層102と、正規化線形関数(RectifierLinear Unit)を用いた活性化層103とを含む。また、当該CNNの構成には、合成(Merger)層104と、最後の畳み込み層105が含まれる。合成層104は、畳み込み処理ブロック100の出力値群と画像を構成する画素値群とを連結したり、加算したりして合成する。最後の畳み込み層105は、合成層104で合成された、高画質画像Im120を構成する画素値群を出力する。このような構成では、入力された画像Im110を構成する画素値群が畳み込み処理ブロック100群を経て出力された値群と、入力された画像Im110を構成する画素値群とが、合成層104で合成される。その後、合成された画素値群は最後の畳み込み層105で高画質画像Im120に成形される。
なお、例えば、畳み込み処理ブロック100の数を16とし、畳み込み層101群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の高画質化の効果を得られる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。
In particular, an example of the configuration of a CNN that improves the quality of a two-dimensional image is the configuration shown in FIG. The configuration of the CNN includes a plurality of convolution processing blocks 100 groups. The convolution processing block 100 includes a convolution layer 101, a batch normalization layer 102, and an activation layer 103 using a normalized linear function (Rectifier Linear Unit). Further, the configuration of the CNN includes a merging layer 104 and a final convolution layer 105. The composition layer 104 combines the output value group of the convolution processing block 100 and the pixel value group constituting the image by connecting or adding them together. The final convolution layer 105 outputs a group of pixel values that are synthesized in the synthesis layer 104 and constitute the high-quality image Im120. In such a configuration, the pixel value group forming the input image Im110 is outputted through the convolution processing block 100 group, and the pixel value group forming the input image Im110 is combined in the synthesis layer 104. be synthesized. Thereafter, the combined pixel value group is formed into a high-quality image Im120 in the final convolution layer 105.
For example, by setting the number of convolution processing blocks 100 to 16, setting the kernel size of the filter to 3 pixels in width and 3 pixels in height, and the number of filters to 64 as parameters of the convolution layer 101 group, a certain high image quality can be achieved. You can get the effect of However, in reality, as described in the explanation of the machine learning model above, a better parameter group can be set using training data that corresponds to the usage pattern of the machine learning model. Note that if it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be expanded to three-dimensional or four-dimensional.

また、本実施形態に係る高画質化部におけるCNNの構成例の別の例として、図15を用いて説明をする。図15は、高画質化部における機械学習モデル構成の一例を示している。図15で示す構成は、入力値群を加工して出力する処理を担う、複数の層群によって構成される。なお、前記構成に含まれる層の種類としては、図15に示すように、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、合成(Merger)層がある。畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、前記フィルタのカーネルサイズの次元数も変更してもよい。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。具体的には、例えば、Max Pooling処理がある。アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。このような構成では、入力された画像Im2410を構成する画素値群が畳み込み処理ブロックを経て出力された値群と、入力された画像Im2410を構成する画素値群が、合成層で合成される。その後、合成された画素値群は最後の畳み込み層で高画質画像Im2420に成形される。なお、図示はしないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。 Further, another example of the configuration of the CNN in the image quality improvement unit according to the present embodiment will be described using FIG. 15. FIG. 15 shows an example of a machine learning model configuration in the image quality improvement section. The configuration shown in FIG. 15 is composed of a plurality of layer groups that perform processing to process and output a group of input values. As shown in FIG. 15, the types of layers included in the configuration include a convolution layer, a downsampling layer, an upsampling layer, and a merge layer. The convolution layer is a layer that performs convolution processing on a group of input values according to parameters such as the set filter kernel size, the number of filters, the stride value, and the dilation value. Note that the number of dimensions of the kernel size of the filter may also be changed depending on the number of dimensions of the input image. The downsampling layer is a process of thinning out or combining input value groups to make the number of output value groups smaller than the number of input value groups. Specifically, for example, there is Max Pooling processing. The upsampling layer is a process of making the number of output value groups larger than the number of input value groups by duplicating the input value group or adding a value interpolated from the input value group. Specifically, for example, there is linear interpolation processing. The compositing layer is a layer that receives a group of values, such as a group of output values of a certain layer or a group of pixel values constituting an image, from a plurality of sources, and performs a process of combining them by concatenating or adding them. In such a configuration, the group of pixel values forming the input image Im2410 is outputted through the convolution processing block, and the group of pixel values forming the input image Im2410 are combined in the composition layer. Thereafter, the combined pixel value group is formed into a high-quality image Im2420 in the final convolution layer. Although not shown, examples of changes to the CNN configuration include incorporating a batch normalization layer or an activation layer using a rectifier linear unit after the convolution layer. You may.

ここで、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本実施形態では、学習部(不図示)の一例である画像処理部101-04による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPUまたはGPUのみにより演算が行われてもよい。また、高画質化部も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Here, the GPU can perform efficient calculations by processing more data in parallel. For this reason, when learning is performed multiple times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in this embodiment, a GPU is used in addition to a CPU for processing by the image processing unit 101-04, which is an example of a learning unit (not shown). Specifically, when a learning program including a learning model is executed, learning is performed by the CPU and GPU working together to perform calculations. Note that the processing of the learning section may be performed by only the CPU or GPU. Further, the image quality improvement section may also use a GPU like the learning section. Further, the learning section may include an error detection section and an updating section (not shown). The error detection unit obtains an error between output data output from the output layer of the neural network and correct data according to input data input to the input layer. The error detection unit may use a loss function to calculate the error between the output data from the neural network and the correct data. Furthermore, the updating section updates the connection weighting coefficients between the nodes of the neural network, etc., based on the error obtained by the error detection section, so that the error becomes smaller. This updating unit updates the connection weighting coefficients and the like using, for example, an error backpropagation method. The error backpropagation method is a method of adjusting connection weighting coefficients between nodes of each neural network so that the above-mentioned error is reduced.

なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、高画質画像の周辺部が十分に高画質化されない問題等の対策のため、入力する低画質画像と出力する高画質画像とで異なる画像サイズを要する場合があることに留意すべきである。 Note that when using some image processing techniques, such as image processing using CNN, it is necessary to be careful about the image size. Specifically, in order to prevent problems such as the peripheral areas of high-quality images not being sufficiently high-quality, it should be noted that different image sizes may be required for input low-quality images and output high-quality images. Should.

明瞭な説明のため、本実施形態において明記はしないが、高画質化エンジンに入力される画像と出力される画像とで異なる画像サイズを要する高画質化エンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、機械学習モデルをトレーニングするための教師データに用いる画像や、高画質化エンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に高画質化できるように高画質化手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 Although not specified in this embodiment for the sake of clear explanation, if a high image quality engine is adopted that requires different image sizes for the input image to the high image quality engine and the output image, the image size may be changed as appropriate. It is assumed that the Specifically, we perform padding on input images, such as images used as teacher data for training machine learning models and images input to high-quality engines, and image capturing areas around the input images. Adjust the image size by merging. Note that the area to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror padded, depending on the characteristics of the image quality improvement method, so that the image quality can be effectively improved.

また、高画質化手法は、一つの画像処理手法だけで実施されることもあるし、二つ以上の画像処理手法を組み合わせて実施されることもある。また、複数の高画質化手法群を並列に実施し、複数の高画質画像群を生成した上で、最も高画質な高画質画像を最終的に高画質画像として選択することもある。なお、最も高画質な高画質画像の選択は、画質評価指数を用いて自動的に行われてもよいし、任意の表示部等に備えられたユーザーインターフェースに複数の高画質画像群を表示して、検者(ユーザー)の指示に応じて行われてもよい。 Further, the image quality improvement method may be implemented using only one image processing method, or may be implemented by combining two or more image processing methods. Furthermore, after performing a plurality of image quality improvement method groups in parallel to generate a plurality of high-quality image groups, the highest-quality image may be finally selected as the high-quality image. Note that the selection of the highest quality image may be automatically performed using an image quality evaluation index, or a plurality of groups of high quality images may be displayed on a user interface provided on an arbitrary display unit, etc. It may also be performed according to instructions from the examiner (user).

なお、高画質化していない入力画像の方が、画像診断に適している場合もあるので、最終的な画像の選択の対象には入力画像を加えてよい。また、高画質化エンジンに対して、低画質画像とともにパラメータを入力してもよい。高画質化エンジンに対して、入力画像とともに、例えば、高画質化を行う程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを入力してもよい。 Note that input images that have not been improved in quality may be more suitable for image diagnosis, and therefore may be added to the final image selection target. Furthermore, parameters may be input to the high-quality image together with the low-quality image. For example, a parameter specifying the degree of image quality enhancement or a parameter specifying the image filter size used in the image processing method may be input to the image quality enhancement engine together with the input image.

ここで、本実施形態において、教師データの入力データは、断層画像撮影装置100と同じ機種、断層画像撮影装置100と同じ設定により取得された低画質画像である。また、教師データの出力データは、断層画像と同じ機種が備える設定や画像処理により取得された高画質画像である。具体的には、出力データは、例えば、複数回撮影することにより取得した画像(元画像)群に対して加算平均等の重ね合わせ処理を行うことにより得られる高画質画像(重ね合わせ画像)である。ここで、高画質画像と低画質画像についてOCTAのモーションコントラストデータを例として説明をする。ここで、モーションコントラストデータとは、OCTA等で用いられる、撮影対象の同一箇所を繰り返し撮影し、その撮影間における撮影対象の時間的な変化を検出したデータである。このとき、算出したモーションコントラストデータ(3次元の医用画像データの一例)のうち、撮影対象の深さ方向における所望の範囲のデータを用いて正面画像を生成することで、OCTAのEn-Face画像(モーションコントラスト正面画像)を生成することができる。なお、以下では同一箇所におけるOCTデータを繰り返し撮影することをNOR(Number Of Repeat)と呼ぶ。 Here, in this embodiment, the input data of the teacher data is a low-quality image acquired with the same model as the tomographic imaging apparatus 100 and the same settings as the tomographic imaging apparatus 100. Further, the output data of the teacher data is a high-quality image obtained by the settings and image processing of the same model as the tomographic image. Specifically, the output data is, for example, a high-quality image (superimposed image) obtained by performing superimposition processing such as averaging on a group of images (original images) obtained by shooting multiple times. be. Here, high-quality images and low-quality images will be explained using OCTA motion contrast data as an example. Here, the motion contrast data is data used in OCTA and the like, which is obtained by repeatedly photographing the same part of the photographic subject and detecting temporal changes in the photographic subject between the photographs. At this time, from among the calculated motion contrast data (an example of three-dimensional medical image data), a front image is generated using data in a desired range in the depth direction of the object to be imaged, thereby generating an OCTA En-Face image. (motion contrast frontal image) can be generated. Note that, hereinafter, repeatedly capturing OCT data at the same location will be referred to as NOR (Number of Repeats).

本実施形態において、重ね合わせ処理による高画質画像と低画質画像の生成例として異なる2種類の方法について図12を用いて説明をする。 In this embodiment, two different methods will be described as examples of generating a high-quality image and a low-quality image by overlapping processing with reference to FIG. 12.

第一の方法は、高画質画像の例として、撮影対象の同一箇所を繰り返し撮影したOCTデータから生成するモーションコントラストデータに関して、図12(a)を用いて説明する。図12(a)において、Im2810は3次元のモーションコントラストデータ、Im2811は3次元のモーションコントラストデータを構成する2次元のモーションコントラストデータを示す。そして、Im2811-1~Im2811-3は、Im2811を生成するためのOCT断層画像(Bスキャン)を示している。ここで、NORとは、図12(a)においては、Im2811-1~Im2811-3におけるOCT断層画像の数の事を示し、図の例においてNORは3である。Im2811-1~Im2811-3は所定の時間間隔(Δt)で撮影される。なお、同一箇所とは被検眼の正面方向(X-Y)において、1ラインの事を示し、図12(a)においては、Im2811の箇所に相当する。なお、正面方向は、深さ方向に対して交差する方向の一例である。モーションコントラストデータは時間的な変化を検出したデータであるため、このデータを生成するためには、少なくともNORは2回とする必要がある。例えば、NORが2の場合には、1つのモーションコントラストデータが生成される。NORが3の場合には、隣接する時間間隔(1回目と2回目、2回目と3回目)のOCTのみでモーションコントラストデータを生成する場合には、2つのデータが生成される。離れた時間間隔(1回目と3回目)のOCTデータも用いてモーションコントラストデータを生成する場合には、合計3つのデータが生成される。すなわち、NORを3回、4回、・・・と増やしていくと、同一箇所におけるモーションコントラストのデータ数も増加する。同一箇所を繰り返し撮影して取得した複数のモーションコントラストデータを位置合わせして加算平均等の重ね合わせ処理をすることで、高画質なモーションコントラストデータを生成することが出来る。そのため、NORを少なくとも3回以上とし、5回以上とするのが望ましい。一方、これに対応する低画質画像の例としては、加算平均等の重ね合わせ処理を行う前のモーションコントラストデータとする。この場合、低画質画像は加算平均等の重ね合わせ処理を行う際の基準画像とするのが望ましい。重ね合わせ処理をする際に、基準画像に対して対象画像の位置や形状を変形して位置合わせを行っておけば、基準画像と重ね合わせ処理後の画像とでは空間的な位置ずれがほとんどない。そのため、容易に低画質画像と高画質画像のペアとすることが出来る。なお、基準画像ではなく位置合わせの画像変形処理を行った対象画像を低画質画像としてもよい。元画像群(基準画像と対象画像)のそれぞれを入力データ、対応する重ね合わせ画像を出力データとすることで、複数のペア群を生成することができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合、元画像群のうちの一つ目の元画像と重ね合わせ画像とのペア、元画像群のうちの二つ目の元画像と重ね合わせ画像とのペアを生成することができる。このように、15の元画像群から1の重ね合わせ画像を得る場合には、元画像群のうちの一つの画像と重ね合わせ画像による15のペア群が生成可能である。なお、主走査(X)方向に同一箇所を繰り返し撮影し、それを副走査(Y)方向にずらしながらスキャンをすることで3次元の高画質データを生成することが出来る。 The first method will be described with reference to FIG. 12A regarding motion contrast data generated from OCT data obtained by repeatedly photographing the same location of a photographic target as an example of a high-quality image. In FIG. 12A, Im2810 indicates three-dimensional motion contrast data, and Im2811 indicates two-dimensional motion contrast data constituting the three-dimensional motion contrast data. Im2811-1 to Im2811-3 indicate OCT tomographic images (B scan) for generating Im2811. Here, NOR refers to the number of OCT tomographic images in Im2811-1 to Im2811-3 in FIG. 12(a), and in the example shown in the figure, NOR is 3. Im2811-1 to Im2811-3 are photographed at predetermined time intervals (Δt). Note that the same location refers to one line in the front direction (XY) of the subject's eye, and corresponds to the location Im2811 in FIG. 12(a). Note that the front direction is an example of a direction intersecting the depth direction. Since motion contrast data is data that detects temporal changes, NOR must be performed at least twice in order to generate this data. For example, if NOR is 2, one motion contrast data is generated. When NOR is 3, two pieces of data are generated when motion contrast data is generated only by OCT in adjacent time intervals (first and second, second and third). When motion contrast data is generated using OCT data obtained at separate time intervals (first and third times), a total of three pieces of data are generated. That is, as the NOR is increased 3 times, 4 times, etc., the number of motion contrast data at the same location also increases. High-quality motion contrast data can be generated by aligning a plurality of pieces of motion contrast data obtained by repeatedly photographing the same location and performing superimposition processing such as averaging. Therefore, NOR is performed at least 3 times or more, preferably 5 times or more. On the other hand, an example of a low-quality image corresponding to this is motion contrast data before superimposition processing such as averaging is performed. In this case, it is desirable to use the low-quality image as a reference image when performing overlay processing such as averaging. When performing overlay processing, if the position and shape of the target image are transformed and aligned with respect to the reference image, there will be almost no spatial misalignment between the reference image and the image after overlay processing. . Therefore, it is possible to easily create a pair of a low-quality image and a high-quality image. Note that the target image subjected to image deformation processing for alignment may be used as a low-quality image instead of the reference image. By using each of the original image groups (reference image and target image) as input data and the corresponding superimposed image as output data, a plurality of pair groups can be generated. For example, when obtaining one superimposed image from a group of 15 original images, a pair of the first original image of the original image group and the superimposed image, a pair of the second original image of the original image group, Pairs with superimposed images can be generated. In this way, when one superimposed image is obtained from a group of 15 original images, it is possible to generate 15 pairs of one image from the original image group and the superimposed image. Note that three-dimensional high-quality image data can be generated by repeatedly photographing the same location in the main scanning (X) direction and scanning while shifting it in the sub-scanning (Y) direction.

また、第二の方法は、撮影対象の同一領域を複数回撮影したモーションコントラストデータを重ね合わせ処理することで高画質画像を生成する処理に関して、図12(b)を用いて説明する。なお、同一領域とは被検眼の正面方向(X-Y)において、3×3mmや10×10mmのような領域の事を示し、断層画像の深さ方向を含めて3次元のモーションコントラストデータを取得することを意味する。同一領域を複数回撮影して重ね合わせ処理を行う際には、1回あたりの撮影を短くするため、NORは2回か3回とすることが望ましい。また、高画質な3次元モーションコントラストデータを生成するために、同一領域の3次元データを少なくとも2データ以上取得する。図12(b)では、複数の3次元モーションコントラストデータの例を示している。Im2820~Im2840は、図12(a)で説明したのと同様に3次元のモーションコントラストデータである。これら2データ以上の3次元モーションコントラストデータを用いて、正面方向(X-Y)と深度方向(Z)の位置合わせ処理を行い、それぞれのデータにおいてアーティファクトとなるデータを除外した後に、平均化処理を行う。それによりアーティファクトの除外された1つの高画質な3次元モーションコントラストデータを生成することが出来る。3次元モーションコントラストデータから任意の平面を生成することで高画質画像となる。一方、これに対応する低画質画像は加算平均等の重ね合わせ処理を行う際の基準データから生成する任意の平面とするのが望ましい。第一の方法で説明したように、基準画像と加算平均後の画像とでは空間的な位置ずれがほとんどないため、容易に低画質画像と高画質画像のペアとすることが出来る。なお、基準データではなく位置合わせの画像変形処理を行った対象データから生成した任意の平面を低画質画像としてもよい。 Further, the second method will be described with reference to FIG. 12(b) regarding a process of generating a high-quality image by superimposing motion contrast data obtained by photographing the same area of the photographing target multiple times. Note that the same area refers to an area such as 3 x 3 mm or 10 x 10 mm in the front direction (XY) of the subject's eye, and three-dimensional motion contrast data including the depth direction of the tomographic image is collected. means to obtain. When performing superimposition processing by photographing the same region multiple times, it is desirable to set NOR to two or three times in order to shorten the number of times each photograph is taken. Furthermore, in order to generate high-quality three-dimensional motion contrast data, at least two pieces of three-dimensional data of the same area are acquired. FIG. 12(b) shows an example of a plurality of three-dimensional motion contrast data. Im2820 to Im2840 are three-dimensional motion contrast data as described in FIG. 12(a). Using these two or more three-dimensional motion contrast data, alignment processing is performed in the front direction (X-Y) and depth direction (Z), and after removing data that would be artifacts from each data, averaging processing is performed. I do. As a result, it is possible to generate one piece of high-quality three-dimensional motion contrast data from which artifacts are excluded. A high-quality image can be created by generating an arbitrary plane from 3D motion contrast data. On the other hand, it is preferable that the corresponding low-quality image be an arbitrary plane generated from reference data when superimposing processing such as averaging is performed. As explained in the first method, since there is almost no spatial positional shift between the reference image and the image after averaging, they can easily be paired as a low-quality image and a high-quality image. Note that an arbitrary plane generated from target data subjected to image deformation processing for alignment instead of reference data may be used as a low-quality image.

第一の方法は、撮影自体が1回で終了するため被験者の負担は少ない。しかし、NORの回数を増やすほど1回の撮影時間が長くなってしまう。また、撮影途中に目の混濁や睫毛などのアーティファクトが入った場合には必ずしも良い画像が得られるとは限らない。第二の方法は、複数回撮影を行うため被験者の負担は少し増えてしまう。しかし、1回の撮影時間が短く済むのと、1回の撮影でアーティファクトが入ったとしても、別の撮影でアーティファクトが写らなければ最終的にはアーティファクトの少ないきれいな画像を得ることが出来る。これらの特徴を鑑みて、データを集める際には被験者の状況に合わせて任意の方法を選択する。 In the first method, the burden on the subject is low because the imaging itself is completed in one time. However, as the number of NOR operations increases, the time required for one imaging session becomes longer. Furthermore, if artifacts such as cloudy eyes or eyelashes appear during the shooting process, a good image may not necessarily be obtained. In the second method, the burden on the subject increases slightly because the images are taken multiple times. However, it takes less time to take one shot, and even if an artifact appears in one shot, as long as the artifact does not appear in another shot, you can ultimately obtain a clear image with fewer artifacts. Considering these characteristics, when collecting data, select any method that suits the subject's situation.

本実施形態では、モーションコントラストデータを例として説明をしたがこれに限らない。モーションコントラストデータを生成するためにOCTデータを撮影しているため、OCTデータでも上記の方法で同じことが可能である。さらに、本実施形態においてトラッキング処理について説明を省略したが、被検眼の同一箇所や同一領域を撮影するため、被検眼のトラッキングを行いながら撮影を行うことが望ましい。 Although the present embodiment has been described using motion contrast data as an example, the present invention is not limited to this. Since OCT data is captured in order to generate motion contrast data, the above method can also be used for OCT data. Furthermore, although a description of the tracking process has been omitted in this embodiment, since the same location or area of the eye to be examined is photographed, it is desirable to perform imaging while tracking the eye to be examined.

本実施形態において、3次元の高画質データと低画質データのペアが出来ているため、ここから任意の2次元画像のペアを生成することが出来る。これに関して、図13を用いて説明をする。例えば、対象画像をOCTAのEn-Face画像とする場合、3次元データから所望の深度範囲でOCTAのEn-Face画像を生成する。所望の深度範囲とは、図12においてZ方向における範囲の事を示す。ここで生成するOCTAのEn-Face画像の例を図13(a)に示す。OCTAのEn-Face画像としては、表層(Im2910)、深層(Im2920)、外層(Im2930)、脈絡膜血管網(Im2940)など、異なる深度範囲で生成したOCTAのEn-Face画像を用いて学習を行う。なお、OCTAのEn-Face画像の種類はこれに限らず、基準となる層とオフセットの値を変えて異なる深度範囲を設定したOCTAのEn-Face画像を生成して種類を増やしてもよい。学習を行う際には、異なる深さのOCTAのEn-Face画像毎に別々に学習をしてもよいし、異なる深度範囲の画像を複数組み合わせて(例えば、表層側と深層側で分ける)学習してもよいし、全ての深度範囲のOCTAのEn-Face画像を一緒に学習させるようにしてもよい。OCTデータから生成する輝度のEn-Face画像の場合も、OCTAのEn-Faceと同様に、任意の深度範囲から生成した複数のEn-Face画像を用いて学習を行う。例えば、高画質化エンジンが、被検眼の異なる深度範囲に対応する複数のモーションコントラスト正面画像を含む学習データを用いて得た機械学習エンジンを含む場合を考える。このとき、取得部は、異なる深度範囲を含む長い深度範囲のうち一部の深度範囲に対応するモーションコントラスト正面画像を第1の画像として取得することができる。すなわち、学習データに含まれる複数のモーションコントラスト正面画像に対応する複数の深度範囲とは異なる深度範囲に対応するモーションコントラスト正面画像を、高画質化時の入力画像とすることができる。もちろん、学習時と同じ深度範囲のモーションコントラスト正面画像を、高画質化時の入力画像としてもよい。また、一部の深度範囲は、検者がユーザーインターフェース上の任意のボタンを押す等に応じて設定されてもよいし、自動的に設定されてもよい。なお、上述した内容は、モーションコントラスト正面画像に限るものではなく、例えば、輝度のEn-Face画像に対しても適用することができる。 In this embodiment, since a pair of three-dimensional high image quality data and low image quality data is created, any pair of two-dimensional images can be generated from this pair. This will be explained using FIG. 13. For example, when the target image is an OCTA En-Face image, the OCTA En-Face image is generated in a desired depth range from the three-dimensional data. The desired depth range refers to the range in the Z direction in FIG. 12. An example of the OCTA En-Face image generated here is shown in FIG. 13(a). Learning is performed using OCTA En-Face images generated in different depth ranges, such as superficial layer (Im2910), deep layer (Im2920), outer layer (Im2930), and choroidal vascular network (Im2940). . Note that the types of OCTA En-Face images are not limited to these, and the number of types may be increased by generating OCTA En-Face images in which different depth ranges are set by changing the reference layer and offset values. When performing learning, you can train each OCTA En-Face image at different depths separately, or you can train by combining multiple images with different depth ranges (for example, separating them into surface layer and deep layer). Alternatively, OCTA En-Face images of all depth ranges may be trained together. In the case of luminance En-Face images generated from OCT data, learning is performed using a plurality of En-Face images generated from arbitrary depth ranges, similar to OCTA En-Face. For example, consider a case where the image quality improvement engine includes a machine learning engine obtained using learning data including a plurality of motion contrast frontal images corresponding to different depth ranges of the eye to be examined. At this time, the acquisition unit can acquire, as the first image, a motion contrast frontal image corresponding to a part of the long depth range including different depth ranges. That is, a motion contrast front image corresponding to a depth range different from the plurality of depth ranges corresponding to the plurality of motion contrast front images included in the learning data can be used as an input image at the time of image quality improvement. Of course, a motion contrast front image with the same depth range as that during learning may be used as an input image during image quality enhancement. Further, some of the depth ranges may be set in response to the examiner pressing an arbitrary button on the user interface, or may be set automatically. Note that the above-mentioned content is not limited to motion contrast front images, but can also be applied to, for example, brightness En-Face images.

なお、処理対象の画像が断層画像である場合、BスキャンであるOCT断層画像やモーションコントラストデータの断層画像を用いて学習を行う。これに関して、図13(b)を用いて説明をする。図13(b)において、Im2951~Im2953はOCTの断層画像である。図13(b)において画像が異なるのは、副走査(Y)方向の位置が異なる場所の断層画像を示しているからである。断層画像においては、副走査方向の位置の違いを気にせずに一緒に学習をするようにしてもよい。ただし、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)が異なる場所を撮影した画像の場合には、部位ごとに別々に学習をするようにしてもよいし、撮影部位を気にせずに一緒に学習をするようにしてもよい。なお、OCT断層画像と、モーションコントラストデータの断層画像においては画像特徴量が大きく異なるので別々に学習を行う方がよい。 Note that when the image to be processed is a tomographic image, learning is performed using an OCT tomographic image that is a B scan or a tomographic image that is motion contrast data. This will be explained using FIG. 13(b). In FIG. 13(b), Im2951 to Im2953 are OCT tomographic images. The images in FIG. 13(b) are different because they show tomographic images at different positions in the sub-scanning (Y) direction. For tomographic images, learning may be performed together without worrying about the difference in position in the sub-scanning direction. However, in the case of images taken at different locations (for example, the center of the macula and the center of the optic disc), it is possible to perform learning for each region separately, or to do so without worrying about the location of the image. You may also choose to study together. Note that since the image feature amounts are significantly different between an OCT tomographic image and a tomographic image of motion contrast data, it is better to perform learning separately.

重ね合わせ処理を行った重ね合わせ画像は、元画像群で共通して描出された画素が強調されるため、画像診断に適した高画質画像になる。この場合には、生成される高画質画像は、共通して描出された画素が強調された結果、低輝度領域と高輝度領域との違いがはっきりした高コントラストな画像になる。また、例えば、重ね合わせ画像では、撮影毎に発生するランダムノイズが低減されたり、ある時点の元画像ではうまく描出されなかった領域が他の元画像群によって補間されたりすることができる。 In the superimposed image that has been subjected to the superimposition process, pixels that are commonly depicted in the original image group are emphasized, resulting in a high-quality image suitable for image diagnosis. In this case, the generated high-quality image is a high-contrast image with clear differences between low-brightness areas and high-brightness areas, as a result of highlighting commonly drawn pixels. Furthermore, for example, in the superimposed images, random noise that occurs every time a photograph is taken can be reduced, and an area that was not well depicted in the original image at a certain point in time can be interpolated with another group of original images.

また、機械学習モデルの入力データを複数の画像で構成する必要がある場合には、元画像群から必要な数の元画像群を選択し、入力データとすることができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合において、機械学習モデルの入力データとして2の画像が必要であれば、105(15C2=105)のペア群を生成可能である。 Furthermore, when input data for a machine learning model needs to be composed of a plurality of images, a necessary number of original image groups can be selected from the original image group and used as input data. For example, when obtaining one superimposed image from a group of 15 original images, if two images are required as input data for a machine learning model, it is possible to generate 105 (15C2=105) pair groups.

なお、教師データを構成するペア群のうち、高画質化に寄与しないペアは教師データから取り除くことができる。例えば、教師データのペアを構成する出力データである高画質画像が画像診断に適さない画質である場合には、当該教師データを用いて学習した高画質化エンジンが出力する画像も画像診断に適さない画質になってしまう可能性がある。そのため、出力データが画像診断に適さない画質であるペアを教師データから取り除くことで、高画質化エンジンが画像診断に適さない画質の画像を生成する可能性を低減させることができる。 Note that among the pairs that constitute the teacher data, pairs that do not contribute to higher image quality can be removed from the teacher data. For example, if a high-quality image that is the output data that makes up a pair of training data is of an image quality that is not suitable for image diagnosis, the image that is output by the high-quality image trained using the training data is also not suitable for image diagnosis. This may result in poor image quality. Therefore, by removing pairs whose output data has an image quality unsuitable for image diagnosis from the teacher data, it is possible to reduce the possibility that the image quality improvement engine generates an image with an image quality unsuitable for image diagnosis.

また、ペアである画像群の平均輝度や輝度分布が大きく異なる場合には、当該教師データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる輝度分布を持つ画像診断に適さない画像を出力する可能性がある。このため、平均輝度や輝度分布が大きく異なる入力データと出力データのペアを教師データから取り除くこともできる。 In addition, if the average brightness or brightness distribution of a group of images in a pair is significantly different, the image quality improvement engine trained using the training data will be able to detect images that are not suitable for image diagnosis and have brightness distributions that are significantly different from those of low-quality images. may be output. Therefore, pairs of input data and output data with significantly different average brightness or brightness distribution can be removed from the teacher data.

さらに、ペアである画像群に描画される撮影対象の構造や位置が大きく異なる場合には、当該教師データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる構造や位置に撮影対象を描画した画像診断に適さない画像を出力する可能性がある。このため、描画される撮影対象の構造や位置が大きく異なる入力データと出力データのペアを教師データから取り除くこともできる。また、高画質化エンジンについて、品質保持の観点から、自身が出力する高画質画像を教師データとして用いないように構成することができる。 Furthermore, if the structure or position of the object drawn in a pair of images is significantly different, the high-quality engine trained using the training data will draw the object in a structure or position that is significantly different from that of the low-quality image. There is a possibility of outputting an image that is not suitable for image diagnosis. Therefore, pairs of input data and output data in which the structure or position of the photographic object to be drawn differs greatly can be removed from the teacher data. Furthermore, from the viewpoint of quality maintenance, the high-quality image engine can be configured not to use the high-quality images that it outputs as training data.

このように機械学習を行った高画質化エンジンを用いることで、画像処理装置101(あるいは画像処理部101-04)における高画質化部は、一回の撮影で取得された医用画像が入力された場合に、重ね合わせ処理によって高コントラスト化やノイズ低減等が行われたような高画質画像を出力することができる。このため、高画質化部は、入力画像である低画質画像に基づいて、画像診断に適した高画質画像を生成することができる。 By using the high image quality engine that performs machine learning in this way, the high image quality unit in the image processing device 101 (or the image processing unit 101-04) can input medical images acquired in one shooting. In this case, it is possible to output a high-quality image in which contrast has been increased, noise has been reduced, etc. through superimposition processing. Therefore, the image quality improvement unit can generate a high quality image suitable for image diagnosis based on the low quality image that is the input image.

次に、図7のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。図7は本実施形態に係る一連の画像処理のフロー図である。まず、本実施形態に係る一連の画像処理が開始されると、処理はステップS510に移行する。 Next, a series of image processing according to this embodiment will be described with reference to the flowchart in FIG. FIG. 7 is a flowchart of a series of image processing according to this embodiment. First, when a series of image processing according to this embodiment is started, the process moves to step S510.

ステップS510では、画像取得部101-01が、回路やネットワークを介して接続された断層画像撮影装置100から、断層画像撮影装置100が撮影した画像を入力画像として取得する。なお、画像取得部101-01は、断層画像撮影装置100からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、断層画像撮影装置100が画像を生成した時、断層画像撮影装置100が生成した画像を断層画像撮影装置100が備える記憶装置に保存する前や保存した後、保存された画像を表示部104に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。 In step S510, the image acquisition unit 101-01 acquires an image photographed by the tomographic imaging apparatus 100 as an input image from the tomographic imaging apparatus 100 connected via a circuit or network. Note that the image acquisition unit 101-01 may acquire input images in response to a request from the tomographic imaging apparatus 100. Such a request may be made, for example, when the tomographic imaging apparatus 100 generates an image, before or after the image generated by the tomographic imaging apparatus 100 is saved in a storage device included in the tomographic imaging apparatus 100. It may be issued when displaying a captured image on the display unit 104, when using a high-quality image for image analysis processing, etc.

なお、画像取得部101-01は、断層画像撮影装置100から画像を生成するためのデータを取得し、画像処理装置101が当該データに基づいて生成した画像を入力画像として取得してもよい。この場合、画像処理装置101が各種画像を生成するための画像生成方法としては、既存の任意の画像生成方法を採用してよい。 Note that the image acquisition unit 101-01 may acquire data for generating an image from the tomographic imaging apparatus 100, and acquire an image generated by the image processing apparatus 101 based on the data as an input image. In this case, any existing image generation method may be employed as an image generation method for the image processing apparatus 101 to generate various images.

ステップS520では、画像処理装置101における撮影条件取得部(不図示)が、入力画像の撮影条件群を取得する。具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。なお、上述のように、入力画像に撮影条件が保存されていない場合には、撮影条件取得部は、断層画像撮影装置100や不図示の画像管理システムから撮影条件群を含む撮影情報群を取得することができる。 In step S520, the imaging condition acquisition unit (not shown) in the image processing apparatus 101 acquires a group of imaging conditions for the input image. Specifically, a group of imaging conditions stored in a data structure constituting the input image is acquired according to the data format of the input image. Note that, as described above, if the imaging conditions are not saved in the input image, the imaging condition acquisition unit acquires the imaging information group including the imaging conditions group from the tomographic imaging apparatus 100 or the image management system (not shown). can do.

ステップS530においては、画像処理装置101における高画質化可否判定部(不図示)が、取得された撮影条件群を用いて、画像処理装置101(あるいは画像処理部101-04)における高画質化部に備える高画質化エンジンによって入力画像を高画質化可能であるか否かを判定する。具体的には、高画質化可否判定部は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズが、高画質化エンジンによって対処可能な条件と一致するか否かを判定する。 In step S530, the high image quality determination unit (not shown) in the image processing device 101 uses the acquired imaging condition group to It is determined whether the image quality of the input image can be increased using the image quality improvement engine provided in the image quality improvement engine. Specifically, the image quality improvement determination unit determines whether or not the imaging site, imaging method, imaging angle of view, and image size of the input image match conditions that can be handled by the image quality improvement engine.

高画質化可否判定部が、すべての撮影条件を判定し、対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。 The high image quality determination unit determines all of the photographing conditions, and if it is determined that they can be handled, the process moves to step S540. On the other hand, if the image quality improvement determination unit determines that the image quality improvement engine cannot handle the input image based on these imaging conditions, the process moves to step S550.

なお、画像処理装置101の設定や実装形態によっては、撮影部位、撮影方式、撮影画角、及び画像サイズのうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。例えば、高画質化エンジンが、被検者のいずれの撮影部位に対しても網羅的に対応可能であると想定され、入力データに未知の撮影部位が含まれていたとしても対処可能であるように実装されている場合等には、このような処理を行ってもよい。また、高画質化可否判定部は、所望の構成に応じて、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズのうちの少なくとも一つが高画質化エンジンによって対処可能な条件と一致するか否かを判定してもよい。 Note that depending on the settings and implementation form of the image processing apparatus 101, even if it is determined that the input image cannot be processed based on part of the imaging site, imaging method, imaging angle of view, and image size, Image quality enhancement processing in step S540 may be implemented. For example, it is assumed that the high-quality image engine can comprehensively handle any imaged body part of the patient, and even if the input data includes an unknown body part. Such processing may be performed if the system is implemented in In addition, the high image quality determination unit determines, depending on the desired configuration, that at least one of the imaging site, imaging method, imaging angle of view, and image size of the input image matches a condition that can be handled by the high image quality engine. It may be determined whether or not to do so.

ステップS540においては、高画質化部が、高画質化エンジンを用いて、入力画像を高画質化し、入力画像よりも画像診断に適した高画質画像を生成する。具体的には、高画質化部は、入力画像を高画質化エンジンに入力し、高画質化された高画質画像を生成させる。高画質化エンジンは、教師データを用いて機械学習を行った機械学習モデルに基づいて、入力画像を用いて重ね合わせ処理を行ったような高画質画像を生成する。このため、高画質化エンジンは、入力画像よりも、ノイズ低減されたり、コントラスト強調されたりした高画質画像を生成することができる。 In step S540, the image quality improvement unit uses the image quality improvement engine to improve the image quality of the input image and generates a high quality image that is more suitable for image diagnosis than the input image. Specifically, the image quality improvement unit inputs the input image to an image quality improvement engine, and generates an improved high quality image. The high image quality engine generates a high quality image that looks like it has undergone superposition processing using input images, based on a machine learning model that has been subjected to machine learning using teacher data. Therefore, the high-quality image can generate a high-quality image with reduced noise or enhanced contrast compared to the input image.

なお、画像処理装置101の設定や実装形態によっては、高画質化部が、撮影条件群に応じて、高画質化エンジンに入力画像とともにパラメータを入力して、高画質化の程度等を調節してもよい。また、高画質化部は、検者の入力に応じたパラメータを高画質化エンジンに入力画像とともに入力して高画質化の程度等を調整してもよい。 Note that depending on the settings and implementation form of the image processing device 101, the image quality improvement unit inputs parameters along with the input image to the image quality improvement engine to adjust the degree of image quality improvement, etc., depending on the shooting condition group. It's okay. Further, the image quality improvement unit may adjust the degree of image quality improvement, etc. by inputting parameters according to input by the examiner to the image quality improvement engine together with the input image.

ステップS550では、表示制御部101-05が、ステップS540において高画質画像が生成されていれば、高画質画像を出力して、表示部104に表示させる。一方、ステップS530において高画質化処理が不可能であるとされていた場合には、入力画像を出力し、表示部104に表示させる。なお、表示制御部101-05は、表示部104に出力画像を表示させるのに代えて、断層画像撮影装置100や他の装置に出力画像を表示させたり、記憶させたりしてもよい。また、表示制御部101-05は、画像処理装置101の設定や実装形態によっては、出力画像を断層画像撮影装置100や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。 In step S550, if a high-quality image has been generated in step S540, the display control unit 101-05 outputs the high-quality image and displays it on the display unit 104. On the other hand, if it is determined in step S530 that high image quality processing is not possible, the input image is output and displayed on the display unit 104. Note that instead of displaying the output image on the display unit 104, the display control unit 101-05 may cause the tomographic imaging apparatus 100 or another device to display or store the output image. Furthermore, depending on the settings and implementation form of the image processing device 101, the display control unit 101-05 may process the output image so that it can be used by the tomographic imaging device 100 or other devices, or send it to an image management system or the like. The data format may be converted as necessary.

上記のように、本実施形態に係る画像処理装置101は、画像取得部101-01と、高画質化部とを備える。画像取得部101-01は、被検者の所定部位の画像である入力画像(第1の画像)を取得する。高画質化部は、機械学習エンジンを含む高画質化エンジンを用いて、入力画像から、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた高画質画像(第2の画像)を生成する。高画質化エンジンは、重ね合わせ処理により得られた画像を学習データとした機械学習エンジンを含む。 As described above, the image processing device 101 according to this embodiment includes an image acquisition section 101-01 and an image quality improvement section. The image acquisition unit 101-01 acquires an input image (first image) that is an image of a predetermined region of the subject. The image quality improvement unit uses a high image quality engine including a machine learning engine to generate a high quality image (second image) that has been subjected to at least one of noise reduction and contrast enhancement from the input image compared to the input image. generate. The image quality improvement engine includes a machine learning engine that uses images obtained through superimposition processing as learning data.

当該構成により、本実施形態に係る画像処理装置101は、入力画像から、ノイズが低減されていたり、コントラストが強調されていたりする高画質画像を出力することができる。このため、画像処理装置101は、より明瞭な画像や観察したい部位や病変が強調されている画像等の画像診断に適した画像を、従来と比べて、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく、より少ない代償で取得することができる。 With this configuration, the image processing apparatus 101 according to the present embodiment can output a high-quality image with reduced noise and enhanced contrast from an input image. For this reason, the image processing device 101 can produce images suitable for image diagnosis, such as clearer images or images in which the site or lesion to be observed is emphasized, with less invasiveness for the photographer or patient than in the past. It can be obtained at a lower cost without increasing the price or increasing the effort.

また、画像処理装置101は、入力画像に対して、高画質化エンジンを用いて高画質画像を生成できる否かを判定する高画質化可否判定部を更に備える。高画質化可否判定部は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つに基づいて当該判定を行う。 The image processing apparatus 101 further includes a high-quality image determination unit that determines whether or not a high-quality image can be generated using the high-quality engine for the input image. The image quality improvement determination unit makes the determination based on at least one of the imaging site, imaging method, imaging angle of view, and image size of the input image.

当該構成により、本実施形態に係る画像処理装置101は、高画質化部が処理できない入力画像を高画質化処理から省くことができ、画像処理装置101の処理負荷やエラーの発生を低減させることができる。 With this configuration, the image processing device 101 according to the present embodiment can omit input images that cannot be processed by the image quality enhancement unit from the image quality enhancement process, thereby reducing the processing load on the image processing device 101 and the occurrence of errors. I can do it.

なお、本実施形態においては、表示制御部101-05は、生成された高画質画像を表示部104に表示させる構成としたが、表示制御部101-05の動作はこれに限られない。例えば、表示制御部101-05は、高画質画像を断層画像撮影装置100や画像処理装置101に接続される他の装置に出力することもできる。このため、高画質画像は、これらの装置のユーザーインターフェースに表示されたり、任意の記憶装置に保存されたり、任意の画像解析に利用されたり、画像管理システムに送信されたりすることができる。 Note that in this embodiment, the display control unit 101-05 is configured to display the generated high-quality image on the display unit 104, but the operation of the display control unit 101-05 is not limited to this. For example, the display control unit 101-05 can also output high-quality images to other devices connected to the tomographic imaging apparatus 100 and the image processing apparatus 101. High quality images can thus be displayed on the user interface of these devices, stored in any storage device, used for any image analysis, or sent to an image management system.

本実施形態においては、高画質化可否判定部が、高画質化エンジンによって高画質化可能な入力画像であるか否かを判定して、高画質化可能な入力画像であれば高画質化部が高画質化を行った。これに対し、断層画像撮影装置100によって、高画質化可能な撮影条件でのみ撮影が行なわれる等の場合には、断層画像撮影装置100から取得した画像を無条件に高画質化してもよい。この場合には、図8に示すように、ステップS520とステップS530の処理を省き、ステップS510の次にステップS540を実施することができる。 In this embodiment, the image quality improvement possibility determination unit determines whether or not the input image can be improved in image quality by the image quality improvement engine, and if the input image can be improved in image quality, the image quality improvement unit has improved image quality. On the other hand, if the tomographic imaging apparatus 100 performs imaging only under imaging conditions that allow for high image quality, the images acquired from the tomographic imaging apparatus 100 may be unconditionally improved in image quality. In this case, as shown in FIG. 8, steps S520 and S530 can be omitted, and step S540 can be performed after step S510.

なお、本実施形態においては、表示制御部101-05が、表示部104に高画質画像を表示させる構成とした。しかしながら、表示制御部101-05は、検者からの指示に応じて、高画質画像を表示部104に表示させてもよい。例えば、表示制御部101-05は、検者が表示部104のユーザーインターフェース上の任意のボタンを押すことに応じて、高画質画像を表示部104に表示させてもよい。この場合、表示制御部101-05は、入力画像と切り替えて高画質画像を表示させてもよいし、入力画像と並べて高画質画像を表示させてもよい。 Note that in this embodiment, the display control unit 101-05 is configured to cause the display unit 104 to display a high-quality image. However, the display control unit 101-05 may display a high-quality image on the display unit 104 in response to an instruction from the examiner. For example, the display control unit 101-05 may display a high-quality image on the display unit 104 in response to the examiner pressing an arbitrary button on the user interface of the display unit 104. In this case, the display control unit 101-05 may display the high quality image by switching with the input image, or may display the high quality image alongside the input image.

さらに、表示制御部101-05は、表示部104に高画質画像を表示させる際に、表示されている画像が機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示を高画質画像とともに表示させてもよい。この場合には、ユーザは、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。 Furthermore, when displaying a high-quality image on the display unit 104, the display control unit 101-05 displays a display indicating that the displayed image is a high-quality image generated by processing using a machine learning algorithm. It may also be displayed together with a high-quality image. In this case, the display allows the user to easily identify that the displayed high-quality image is not the image obtained by photography, which reduces misdiagnosis and improves diagnostic efficiency. I can do it. Note that the display indicating that the image is a high-quality image generated by processing using a machine learning algorithm may take any form as long as it is possible to distinguish between the input image and the high-quality image generated by the processing. It can be anything.

また、表示制御部101-05は、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示について、機械学習アルゴリズムがどのような教師データによって学習を行ったものであるかを示す表示を表示部104に表示させてもよい。当該表示としては、教師データの入力データと出力データの種類の説明や、入力データと出力データに含まれる撮影部位等の教師データに関する任意の表示を含んでよい。 In addition, the display control unit 101-05 determines what kind of training data the machine learning algorithm used to perform learning regarding the display indicating that the image is a high-quality image generated by processing using the machine learning algorithm. The display unit 104 may display a display indicating the following. The display may include an explanation of the types of input data and output data of the teacher data, and any display related to the teacher data, such as an imaged body part included in the input data and output data.

本実施形態に係る高画質化エンジンでは、教師データの出力データとして、重ね合わせ画像を用いたが、教師データはこれに限られない。教師データの出力データとして、高画質画像を得る手段である、重ね合わせ処理や、後述する処理群、後述する撮影方法のうち、少なくとも一つを行うことで得られる高画質画像を用いてもよい。 In the image quality improvement engine according to the present embodiment, a superimposed image is used as the output data of the teacher data, but the teacher data is not limited to this. As the output data of the teacher data, a high-quality image obtained by performing at least one of the overlay processing, the processing group described below, and the photographing method described below, which are means for obtaining a high-quality image, may be used. .

例えば、教師データの出力データとして、元画像群に対して最大事後確率推定処理(MAP推定処理)を行うことで得られる高画質画像を用いてもよい。MAP推定処理では、複数の低画質画像における各画素値の確率密度から尤度関数を求め、求めた尤度関数を用いて真の信号値(画素値)を推定する。 For example, a high-quality image obtained by performing maximum a posteriori probability estimation processing (MAP estimation processing) on a group of original images may be used as the output data of the teacher data. In the MAP estimation process, a likelihood function is determined from the probability density of each pixel value in a plurality of low-quality images, and the true signal value (pixel value) is estimated using the determined likelihood function.

MAP推定処理により得られた高画質画像は、真の信号値に近い画素値に基づいて高コントラストな画像となる。また、推定される信号値は、確率密度に基づいて求められるため、MAP推定処理により得られた高画質画像では、ランダムに発生するノイズが低減される。このため、MAP推定処理により得られた高画質画像を教師データとして用いることで、高画質化エンジンは、入力画像から、ノイズが低減されたり、高コントラストとなったりした、画像診断に適した高画質画像を生成することができる。なお、教師データの入力データと出力データのペアの生成方法は、重ね合わせ画像を教師データとした場合と同様の方法で行われてよい。 A high-quality image obtained by the MAP estimation process is a high-contrast image based on pixel values close to true signal values. Further, since the estimated signal value is obtained based on the probability density, randomly generated noise is reduced in a high-quality image obtained by the MAP estimation process. Therefore, by using the high-quality images obtained through MAP estimation processing as training data, the high-quality image processing engine can generate high-quality images suitable for image diagnosis, such as reduced noise and high contrast, from the input images. It is possible to generate high-quality images. Note that the method for generating pairs of input data and output data of the teaching data may be performed in the same manner as in the case where superimposed images are used as the teaching data.

また、教師データの出力データとして、元画像に平滑化フィルタ処理を適用した高画質画像を用いてもよい。この場合には、高画質化エンジンは、入力画像から、ランダムノイズが低減された高画質画像を生成することができる。さらに、教師データの出力データとして、元画像に階調変換処理を適用した画像を用いてもよい。この場合には、高画質化エンジンは、入力画像から、コントラスト強調された高画質画像を生成することができる。なお、教師データの入力データと出力データのペアの生成方法は、重ね合わせ画像を教師データとした場合と同様の方法で行われてよい。 Furthermore, a high-quality image obtained by applying smoothing filter processing to the original image may be used as the output data of the teacher data. In this case, the high-quality image can generate a high-quality image with reduced random noise from the input image. Furthermore, an image obtained by applying gradation conversion processing to the original image may be used as the output data of the teacher data. In this case, the high-quality image can generate a high-quality image with enhanced contrast from the input image. Note that the method for generating pairs of input data and output data of the teaching data may be performed in the same manner as in the case where superimposed images are used as the teaching data.

なお、教師データの入力データは、断層画像撮影装置100と同じ画質傾向を持つ撮影装置から取得された画像でもよい。また、教師データの出力データは、逐次近似法等の高コストな処理によって得られた高画質画像であってもよいし、入力データに対応する被検者を、断層画像撮影装置100よりも高性能な撮影装置で撮影することで取得した高画質画像であってもよい。さらに、出力データは、ルールベースによるノイズ低減処理を行うことによって取得された高画質画像であってもよい。ここで、ノイズ低減処理は、例えば、低輝度領域内に現れた明らかにノイズである1画素のみの高輝度画素を、近傍の低輝度画素値の平均値に置き換える等の処理を含むことができる。このため、高画質化エンジンは、入力画像の撮影に用いられる撮影装置よりも高性能な撮影装置によって撮影された画像、又は入力画像の撮影工程よりも工数の多い撮影工程で取得された画像を学習データとしてもよい。例えば、高画質化エンジンは、モーションコントラスト正面画像を入力画像とする場合、入力画像のOCTA撮影に用いられるOCT撮影装置よりも高性能なOCT撮影装置によってOCTA撮影されて得た画像、又は入力画像のOCTA撮影工程よりも工数の多いOCTA撮影工程で取得されて得た画像を学習データとしてもよい。 Note that the input data of the teacher data may be an image acquired from an image capturing apparatus having the same image quality tendency as the tomographic image capturing apparatus 100. Further, the output data of the teaching data may be a high-quality image obtained by expensive processing such as a successive approximation method, or the subject corresponding to the input data may be The image may be a high-quality image obtained by photographing with a high-performance photographing device. Furthermore, the output data may be a high-quality image obtained by performing rule-based noise reduction processing. Here, the noise reduction process can include, for example, processing such as replacing only one high-brightness pixel that is clearly noise that appears in a low-brightness area with the average value of nearby low-brightness pixel values. . For this reason, the high image quality engine uses images captured by a capturing device with higher performance than the capturing device used to capture the input image, or images acquired in a capturing process that requires more man-hours than the capturing process of the input image. It may also be used as learning data. For example, when a motion contrast frontal image is used as an input image, the high image quality engine uses an image obtained by OCTA imaging using an OCT imaging device with higher performance than the OCT imaging device used for OCTA imaging of the input image, or an input image. The learning data may be an image obtained by an OCTA imaging process that requires more man-hours than the OCTA imaging process.

なお、本実施形態の説明では省略したが、教師データの出力データとして用いられる、複数の画像から生成された高画質画像は、位置合わせ済みの複数の画像から生成されることができる。当該位置合わせ処理としては、例えば、複数の画像のうちの一つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の画像との類似度を求め、テンプレートとの位置ずれ量を求め、位置ずれ量に基づいて各画像を補正してよい。また、その他の既存の任意の位置合わせ処理を行ってもよい。 Although omitted in the description of this embodiment, a high-quality image generated from a plurality of images, which is used as output data of teacher data, can be generated from a plurality of aligned images. The alignment process includes, for example, selecting one of a plurality of images as a template, determining the degree of similarity with other images while changing the position and angle of the template, and determining the amount of positional deviation from the template. Each image may be corrected based on the amount of positional deviation. Further, any other existing alignment processing may be performed.

なお、三次元画像を位置合わせする場合には、三次元画像を複数の二次元画像に分解し、二次元画像毎に位置合わせしたものを統合することで、三次元画像の位置合わせを行ってもよい。また、二次元画像を一次元画像に分解し、一次元画像毎に位置合わせしたものを統合することで、二次元画像の位置合わせを行ってもよい。なお、画像ではなく、画像を生成するためのデータに対して、これら位置合わせを行ってもよい。 In addition, when aligning 3D images, the 3D images are aligned by dividing the 3D image into multiple 2D images and integrating the aligned images for each 2D image. Good too. Alternatively, the two-dimensional images may be aligned by decomposing the two-dimensional images into one-dimensional images and integrating the aligned images for each one-dimensional image. Note that these alignments may be performed on data for generating an image instead of the image.

また、本実施形態では、高画質化可否判定部が高画質化部によって入力画像が対処可能であると判断したら、処理がステップS540に移行して、高画質化部による高画質化処理が開始された。これに対し、表示制御部101-05が高画質化可否判定部による判定結果を表示部104に表示させ、高画質化部が検者からの指示に応じて高画質化処理を開始してもよい。この際、表示制御部101-05は、判定結果とともに、入力画像や入力画像について取得した撮影部位等の撮影条件を表示部104に表示させることができる。この場合には、検者によって判定結果が正しいか否かが判断された上で、高画質化処理が行われるため、誤判定に基づく高画質化処理を低減させることができる。 Further, in this embodiment, if the image quality improvement possibility determination unit determines that the input image can be handled by the image quality improvement unit, the process moves to step S540, and the image quality improvement process by the image quality improvement unit starts. It was done. In contrast, the display control unit 101-05 displays the determination result by the high image quality determination unit on the display unit 104, and even if the high image quality unit starts high image quality processing in response to instructions from the examiner. good. At this time, the display control unit 101-05 can cause the display unit 104 to display the input image and the imaging conditions such as the imaging site acquired for the input image, along with the determination result. In this case, the image quality improvement process is performed after the examiner determines whether the determination result is correct or not, so it is possible to reduce the image quality improvement process based on erroneous determinations.

また、高画質化可否判定部による判定を行わず、表示制御部101-05が入力画像や入力画像について取得した撮影部位等の撮影条件を表示部104に表示させ、高画質化部が検者からの指示に応じて高画質化処理を開始してもよい。 Alternatively, the display control unit 101-05 displays the input image and the imaging conditions such as the body part acquired for the input image on the display unit 104 without making a determination by the high image quality determination unit. The image quality improvement process may be started in response to an instruction from the user.

[第5の実施形態]
次に、図14を参照して、第5の実施形態に係る画像処理装置について説明する。本実施形態では、画像処理装置101(あるいは画像処理部101-04)における高画質化部での処理結果を表示制御部101-05が表示部104に表示を行う例について説明を行う。なお、本実施形態では、図14を用いて説明を行うが表示画面はこれに限らない。経過観察のように、異なる日時で得た複数の画像を並べて表示する表示画面においても同様に高画質化処理は適用可能である。また、撮影確認画面のように、検者が撮影直後に撮影成否を確認する表示画面においても同様に高画質化処理は適用可能である。
[Fifth embodiment]
Next, with reference to FIG. 14, an image processing apparatus according to a fifth embodiment will be described. In this embodiment, an example will be described in which the display control unit 101-05 displays the processing result of the image quality improvement unit in the image processing device 101 (or the image processing unit 101-04) on the display unit 104. Note that although the present embodiment will be described using FIG. 14, the display screen is not limited to this. The image quality improvement process can similarly be applied to a display screen that displays a plurality of images taken at different dates and times side by side, such as during follow-up observation. Furthermore, the image quality enhancement process can be similarly applied to a display screen, such as an imaging confirmation screen, on which the examiner confirms the success or failure of imaging immediately after imaging.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態等に係る画像処理装置101と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態等に係る画像処理装置との違いを中心として説明する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 101 according to the first embodiment and the like. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the first embodiment and the like.

表示制御部101-05は、高画質化部が生成した複数の高画質画像や高画質化を行っていない低画質画像を表示部104に表示させることができる。これにより、検者の指示に応じて低画質画像、高画質画像をそれぞれ出力することができる。 The display control unit 101-05 can cause the display unit 104 to display a plurality of high-quality images generated by the image-quality enhancement unit and a low-quality image that has not been enhanced. Thereby, it is possible to output a low-quality image and a high-quality image, respectively, according to the examiner's instructions.

以下、図14を参照して、当該インターフェース3400の一例を示す。3400は画面全体、3401は患者タブ、3402は撮影タブ、3403はレポートタブ、3404は設定タブを表し、3403のレポートタブにおける斜線は、レポート画面のアクティブ状態を表している。本実施形態においては、レポート画面を表示する例について説明をする。Im3405はSLO画像、Im3406は、Im3407に示すOCTAのEn-Face画像をSLO画像Im3405に重畳表示している。ここでSLO画像とは、不図示のSLO(Scanning Laser Ophthalmoscope:走査型検眼鏡)光学系によって取得した眼底の正面画像である。Im3407とIm3408はOCTAのEn-Face画像、Im3409は輝度のEn-Face画像、Im3411とIm3412は断層画像を示している。3413と3414は、それぞれIm3407とIm3408に示したOCTAのEn-Face画像の上下範囲の境界線を断層画像に重畳表示している。ボタン3420は、高画質化処理の実行を指定するためのボタンである。もちろん、後述するように、ボタン3420は、高画質画像の表示を指示するためのボタンであってもよい。 An example of the interface 3400 will be shown below with reference to FIG. 3400 represents the entire screen, 3401 represents the patient tab, 3402 represents the imaging tab, 3403 represents the report tab, and 3404 represents the settings tab, and the diagonal line in the report tab 3403 represents the active state of the report screen. In this embodiment, an example of displaying a report screen will be described. Im3405 is an SLO image, and Im3406 is an OCTA En-Face image shown in Im3407, which is displayed superimposed on the SLO image Im3405. Here, the SLO image is a frontal image of the fundus obtained by an SLO (Scanning Laser Ophthalmoscope) optical system (not shown). Im3407 and Im3408 are OCTA En-Face images, Im3409 is a luminance En-Face image, and Im3411 and Im3412 are tomographic images. 3413 and 3414 display the upper and lower boundaries of the OCTA En-Face images shown in Im3407 and Im3408, respectively, superimposed on the tomographic image. The button 3420 is a button for specifying execution of image quality improvement processing. Of course, as described later, the button 3420 may be a button for instructing display of a high-quality image.

本実施形態において、高画質化処理の実行はボタン3420を指定して行うか、データベースに保存(記憶)されている情報に基づいて実行の有無を判断する。初めに、検者からの指示に応じてボタン3420を指定することで高画質画像の表示と低画質画像の表示を切り替える例について説明をする。なお、高画質化処理の対象画像はOCTAのEn-Face画像として説明する。検者がレポートタブ3403を指定してレポート画面に遷移した際には、低画質なOCTAのEn-Face画像Im3407とIm3408を表示する。その後、検者がボタン3420を指定することで、高画質化部は画面に表示している画像Im3407とIm3408に対して高画質化処理を実行する。高画質化処理が完了後、表示制御部101-05は高画質化部が生成した高画質画像をレポート画面に表示する。なお、Im3406は、Im3407をSLO画像Im3405に重畳表示しているものであるため、Im3406も高画質化処理した画像を表示する。そして、ボタン3420の表示をアクティブ状態に変更し、高画質化処理を実行したことが分かるような表示をする。ここで、高画質化部における処理の実行は、検者がボタン3420を指定したタイミングに限る必要はない。レポート画面を開く際に表示するOCTAのEn-Face画像Im3407とIm3408の種類は事前に分かっているため、レポート画面に遷移する際に高画質化処理を実行してもよい。そして、ボタン3420が押下されたタイミングで、表示制御部101-05が高画質画像をレポート画面に表示するようにしてもよい。さらに、検者からの指示に応じて、又はレポート画面に遷移する際に高画質化処理を行う画像の種類は2種類である必要はない。表示する可能性の高い画像、例えば、図13で示したような表層(Im2910)、深層(Im2920)、外層(Im2930)、脈絡膜血管網(Im2940)などの複数のOCTAのEn-Face画像に対して処理を行うようにしてもよい。この場合、高画質化処理をして得た画像を一時的にメモリに記憶、あるいはデータベースに記憶しておくようにしてもよい。 In this embodiment, the image quality improvement process is executed by specifying the button 3420, or whether or not to execute it is determined based on information stored (stored) in the database. First, an example will be described in which display of a high-quality image and display of a low-quality image are switched by specifying the button 3420 in response to an instruction from the examiner. Note that the image to be subjected to the image quality enhancement processing will be described as an OCTA En-Face image. When the examiner specifies the report tab 3403 and transitions to the report screen, low-quality OCTA En-Face images Im3407 and Im3408 are displayed. Thereafter, when the examiner specifies a button 3420, the image quality improvement unit executes image quality improvement processing on the images Im3407 and Im3408 displayed on the screen. After the image quality improvement process is completed, the display control unit 101-05 displays the high quality image generated by the image quality improvement unit on the report screen. Note that since Im3406 is a display in which Im3407 is superimposed on SLO image Im3405, Im3406 also displays an image that has been subjected to high-quality image processing. Then, the display of the button 3420 is changed to an active state, and a display is made so that it can be seen that the image quality enhancement process has been executed. Here, the execution of the process in the image quality improvement unit does not need to be limited to the timing at which the examiner designates the button 3420. Since the types of OCTA En-Face images Im3407 and Im3408 to be displayed when opening the report screen are known in advance, image quality enhancement processing may be performed when transitioning to the report screen. Then, the display control unit 101-05 may display a high-quality image on the report screen at the timing when the button 3420 is pressed. Furthermore, it is not necessary that there are two types of images that are subjected to image quality enhancement processing in response to an instruction from the examiner or when transitioning to a report screen. For images that are likely to be displayed, for example, multiple OCTA En-Face images such as the superficial layer (Im2910), deep layer (Im2920), outer layer (Im2930), and choroidal vascular network (Im2940) as shown in Figure 13. The process may also be performed by In this case, the image obtained by high-quality image processing may be temporarily stored in a memory or in a database.

次に、データベースに保存(記憶)されている情報に基づいて高画質化処理を実行する場合について説明をする。データベースに高画質化処理の実行を行う状態が保存されている場合、レポート画面に遷移した際に、高画質化処理を実行して得た高画質画像をデフォルトで表示する。そして、ボタン3420がアクティブ状態としてデフォルトで表示されることで、検者に対しては高画質化処理を実行して得た高画質画像が表示されていることが分かるように構成することができる。検者は、高画質化処理前の低画質画像を表示したい場合には、ボタン3420を指定してアクティブ状態を解除することで、低画質画像を表示することが出来る。高画質画像に戻したい場合、検者はボタン3420を指定する。データベースへの高画質化処理の実行有無は、データベースに保存されているデータ全体に対して共通、及び撮影データ毎(検査毎)など、階層別に指定するものとする。例えば、データベース全体に対して高画質化処理を実行する状態を保存してある場合において、個別の撮影データ(個別の検査)に対して、検者が高画質化処理を実行しない状態を保存した場合、その撮影データを次回表示する際には高画質化処理を実行しない状態で表示を行う。撮影データ毎(検査毎)に高画質化処理の実行状態を保存するために、不図示のユーザーインターフェース(例えば、保存ボタン)を用いてもよい。また、他の撮影データ(他の検査)や他の患者データに遷移(例えば、検者からの指示に応じてレポート画面以外の表示画面に変更)する際に、表示状態(例えば、ボタン3420の状態)に基づいて、高画質化処理の実行を行う状態が保存されるようにしてもよい。これにより、撮影データ単位(検査単位)で高画質化処理実行の有無が指定されていない場合、データベース全体に対して指定されている情報に基づいて処理を行い、撮影データ単位(検査単位)で指定されている場合には、その情報に基づいて個別に処理を実行することが出来る。 Next, a case will be described in which image quality improvement processing is executed based on information saved (stored) in a database. If the database stores the state of executing the image quality enhancement process, the high quality image obtained by executing the image quality enhancement process is displayed by default when the report screen is displayed. By displaying the button 3420 in an active state by default, the examiner can be configured to know that a high-quality image obtained by performing high-quality image processing is being displayed. . If the examiner wishes to display the low-quality image before the high-quality image processing, the examiner can display the low-quality image by designating the button 3420 and canceling the active state. If the examiner wishes to return to a high-quality image, the examiner specifies button 3420. Whether or not to perform high-image quality processing on the database is specified in common for all data stored in the database, and for each layer, such as for each photographic data (for each examination). For example, if a state in which image quality enhancement processing is executed for the entire database is saved, but a state in which the examiner does not execute image quality enhancement processing for individual imaging data (individual examinations) is saved. In this case, the next time the photographed data is displayed, it will be displayed without performing the image quality enhancement process. An unillustrated user interface (for example, a save button) may be used to save the execution state of the image quality improvement process for each photographic data (for each examination). In addition, when transitioning to other imaging data (another examination) or other patient data (for example, changing to a display screen other than the report screen in response to an instruction from the examiner), the display state (for example, if the button 3420 is The state for executing the image quality improvement process may be saved based on the state). As a result, if the execution of high image quality processing is not specified for each imaging data unit (inspection unit), processing is performed based on the information specified for the entire database, and the processing is performed for each imaging data unit (examination unit). If specified, processing can be executed individually based on that information.

本実施形態におけるOCTAのEn-Face画像として、Im3407とIm3408を表示する例を示しているが、表示するOCTAのEn-Face画像は検者の指定により変更することが可能である。そのため、高画質化処理の実行が指定されている時(ボタン3420がアクティブ状態)における画像の変更について説明をする。 Although an example is shown in which Im3407 and Im3408 are displayed as OCTA En-Face images in this embodiment, the OCTA En-Face images to be displayed can be changed by the examiner's designation. Therefore, a description will be given of changing the image when execution of the image quality enhancement process is specified (button 3420 is in the active state).

画像の変更は、不図示のユーザーインターフェース(例えば、コンボボックス)を用いて変更を行う。例えば、検者が画像の種類を表層から脈絡膜血管網に変更した時に、高画質化部は脈絡膜血管網画像に対して高画質化処理を実行し、表示制御部101-05は高画質化部が生成した高画質な画像をレポート画面に表示する。すなわち、表示制御部101-05は、検者からの指示に応じて、第1の深度範囲の高画質画像の表示を、第1の深度範囲とは少なくとも一部が異なる第2の深度範囲の高画質画像の表示に変更してもよい。このとき、表示制御部101-05は、検者からの指示に応じて第1の深度範囲が第2の深度範囲に変更されることにより、第1の深度範囲の高画質画像の表示を、第2の深度範囲の高画質画像の表示に変更してもよい。なお、上述したようにレポート画面遷移時に表示する可能性の高い画像に対しては、既に高画質画像が生成済みである場合、表示制御部101-05は生成済みの高画質な画像を表示すればよい。なお、画像の種類の変更方法は上記したものに限らず、基準となる層とオフセットの値を変えて異なる深度範囲を設定したOCTAのEn-Face画像を生成することも可能である。その場合、基準となる層、あるいはオフセット値が変更された時に、高画質化部は任意のOCTAのEn-Face画像に対して高画質化処理を実行し、表示制御部101-05は高画質な画像をレポート画面に表示する。基準となる層、オフセット値の変更は、不図示のユーザーインターフェース(例えば、コンボボックスやテキストボックス)を用いて行われることができる。また、断層画像Im3411とIm3412に重畳表示している境界線3413と3414のいずれかをドラッグ(層境界を移動)することで、OCTAのEn-Face画像の生成範囲を変更することが出来る。境界線をドラッグによって変更する場合、高画質化処理の実行命令が連続的に実施される。そのため、高画質化部は実行命令に対して常に処理を行ってもよいし、ドラッグによる層境界の変更後に実行するようにしてもよい。あるいは、高画質化処理の実行は連続的に命令されるが、次の命令が来た時点で前回の命令をキャンセルし、最新の命令を実行するようにしてもよい。なお、高画質化処理には比較的時間がかかる場合がある。このため、上述したどのようなタイミングで命令が実行されたとしても、高画質画像が表示されるまでに比較的時間がかかる場合がある。そこで、検者からの指示に応じてOCTAのEn-Face画像を生成するための深度範囲が設定されてから、高画質画像が表示されるまでの間、該設定された深度範囲に対応するOCTAのEn-Face画像(低画質画像)が表示されてもよい。すなわち、上記深度範囲が設定されると、該設定された深度範囲に対応するOCTAのEn-Face画像(低画質画像)が表示され、高画質化処理が終了すると、該OCTAのEn-Face画像(該低画質画像)の表示が高画質画像の表示に変更されるように構成されてもよい。また、上記深度範囲が設定されてから、高画質画像が表示されるまでの間、高画質化処理が実行されていることを示す情報が表示されてもよい。なお、これらは、高画質化処理の実行が既に指定されている状態(ボタン3420がアクティブ状態)を前提とする場合だけでなく、例えば、検者からの指示に応じて高画質化処理の実行が指示された際に、高画質画像が表示されるまでの間においても、適用することが可能である。 The image is changed using a user interface (for example, a combo box) not shown. For example, when the examiner changes the type of image from the superficial layer to the choroidal vascular network, the image quality enhancement unit executes image quality enhancement processing on the choroidal vascular network image, and the display control unit 101-05 Displays high-quality images generated by on the report screen. That is, the display control unit 101-05, in response to an instruction from the examiner, displays a high-quality image in a first depth range, and displays a high-quality image in a second depth range that is at least partially different from the first depth range. You may change the display to a high-quality image. At this time, the display control unit 101-05 changes the first depth range to the second depth range in response to an instruction from the examiner, thereby displaying the high-quality image in the first depth range. The display may be changed to a high-quality image in the second depth range. Note that, as described above, if a high-quality image has already been generated for an image that is likely to be displayed at the time of report screen transition, the display control unit 101-05 does not display the generated high-quality image. Bye. Note that the method of changing the image type is not limited to the above method, and it is also possible to generate an OCTA En-Face image in which a different depth range is set by changing the reference layer and offset values. In that case, when the reference layer or offset value is changed, the image quality enhancement unit executes image quality enhancement processing on any En-Face image of OCTA, and the display control unit 101-05 Display images on the report screen. The reference layer and offset value can be changed using a user interface (for example, a combo box or text box) not shown. Furthermore, by dragging (moving the layer boundary) either of the boundary lines 3413 and 3414 superimposed on the tomographic images Im3411 and Im3412, the generation range of the OCTA En-Face image can be changed. When changing the border line by dragging, the execution command for image quality improvement processing is executed continuously. Therefore, the image quality improvement unit may always process the execution command, or may execute the process after changing the layer boundary by dragging. Alternatively, the execution of the image quality improvement processing may be sequentially commanded, but when the next command arrives, the previous command may be canceled and the latest command may be executed. Note that the image quality improvement process may take a relatively long time. Therefore, no matter what timing the command is executed as described above, it may take a relatively long time until a high-quality image is displayed. Therefore, after the depth range for generating an OCTA En-Face image is set according to instructions from the examiner, until the high-quality image is displayed, the OCTA En-Face image corresponding to the set depth range is An En-Face image (low quality image) may be displayed. That is, when the depth range is set, the OCTA En-Face image (low quality image) corresponding to the set depth range is displayed, and when the image quality enhancement process is completed, the OCTA En-Face image is displayed. The display of (the low-quality image) may be changed to the display of a high-quality image. Furthermore, information indicating that image quality improvement processing is being executed may be displayed from the time the depth range is set until the high quality image is displayed. Note that these are not only cases where the execution of high image quality processing has already been specified (button 3420 is in an active state), but also cases where, for example, execution of high image quality processing is performed in response to an instruction from the examiner. It can be applied even when an instruction is given and until a high-quality image is displayed.

本実施形態では、OCTAのEn-Face画像として、Im3407とIm3408に異なる層を表示し、低画質と高画質な画像は切り替えて表示する例を示したが、これに限らない。例えば、Im3407には低画質なOCTAのEn-Face画像、Im3408には高画質なOCTAのEn-Face画像を並べて表示するようにしてもよい。画像を切り替えて表示する場合には、同じ場所で画像を切り替えるので変化がある部分の比較を行いやすく、並べて表示する場合には、同時に画像を表示することが出来るので画像全体を比較しやすい。 In this embodiment, an example was shown in which different layers are displayed in Im3407 and Im3408 as OCTA En-Face images, and low-quality and high-quality images are switched and displayed, but the present invention is not limited to this. For example, a low quality OCTA En-Face image may be displayed on Im3407, and a high quality OCTA En-Face image may be displayed side by side on Im3408. When images are switched and displayed, the images are switched at the same location, so it is easy to compare the parts that have changed, and when they are displayed side by side, the images can be displayed at the same time, making it easy to compare the entire image.

ここで、解析部101-46が、高画質化処理により生成された高画質画像を画像解析してもよい。高画質化したOCTAのEn-Face画像における画像解析としては、任意の2値化処理を適用することで、画像から血管相当の箇所(血管領域)を検出することが出来る。検出した血管相当の箇所が画像に対して占める割合を求めることで面積密度を解析することが出来る。また、2値化処理した血管相当の箇所を細線化することで、線幅1画素の画像とし、太さに依存しない血管が占める割合(スケルトン密度ともいう)を求めることも出来る。これらの画像を用いて、無血管領域(FAZ)の面積や形状(円形度など)を解析するようにしてもよい。解析の方法として、画像全体から上述した数値を計算するようにしてもよいし、不図示のユーザーインターフェースを用いて、検者(ユーザー)の指示に基づいて、指定された関心領域(ROI)に対して数値を計算するようにしてもよい。ROIの設定は必ずしも検者に指定されるだけではなく、自動的に所定の領域が指定されるものであってもよい。ここで、上述した各種パラメータは、血管に関する解析結果の一例であって、血管に関するパラメータであれば、何でもよい。なお、解析部101-46は複数の画像解析処理を行ってもよい。すなわち、ここではOCTAのEn-Face画像に関して解析する例を示したが、これだけではなく、同時にOCTにより取得された画像に対する、網膜層のセグメンテーション、層厚計測、乳頭三次元形状解析、篩状板解析などを行ってもよい。これに関連して、解析部101-46は、任意の入力装置を介した検者からの指示に応じて、複数の画像解析処理のうちの一部又は全部を行ってもよい。 Here, the analysis unit 101-46 may perform image analysis on the high-quality image generated by the high-quality image processing. As for image analysis of a high-quality OCTA En-Face image, by applying arbitrary binarization processing, a location corresponding to a blood vessel (blood vessel region) can be detected from the image. The area density can be analyzed by determining the proportion of the area corresponding to the detected blood vessel in the image. Further, by thinning the portion corresponding to the binarized blood vessel, it is possible to obtain an image with a line width of 1 pixel, and obtain the proportion occupied by blood vessels (also referred to as skeleton density) that does not depend on the thickness. These images may be used to analyze the area and shape (circularity, etc.) of the avascular area (FAZ). As a method of analysis, the above-mentioned numerical values may be calculated from the entire image, or a user interface (not shown) may be used to calculate a specified region of interest (ROI) based on instructions from the examiner (user). You may also calculate a numerical value for that. The ROI setting is not necessarily specified by the examiner, but may also be such that a predetermined region is automatically specified. Here, the various parameters described above are examples of analysis results related to blood vessels, and any parameter related to blood vessels may be used. Note that the analysis unit 101-46 may perform multiple image analysis processes. In other words, here we have shown an example of analyzing En-Face images from OCTA, but this is not the only way to analyze images acquired by OCT. You may also perform analysis. In this regard, the analysis unit 101-46 may perform some or all of the plurality of image analysis processes in response to instructions from the examiner via any input device.

このとき、表示制御部101-05が、高画質化部によって生成された高画質画像及び解析部101-46による解析結果を表示部104に表示させる。なお、表示制御部101-05は高画質画像及び解析結果を別々の表示部や装置に出力してもよい。また、表示制御部101-05は、解析結果のみを表示部104に表示させてもよい。さらに、解析部101-46が複数の解析結果を出力する場合には、表示制御部101-05は、複数の解析結果の一部又は全部を表示部104やその他の装置に出力してもよい。例えば、OCTAのEn-Face画像における血管に関する解析結果を2次元マップとして表示部104に表示させてもよい。また、OCTAのEn-Face画像における血管に関する解析結果を示す値をOCTAのEn-Face画像に重畳して表示部104に表示させてもよい。このように、本実施形態に係る画像処理装置101では、画像解析に高画質画像を用いるため、解析の精度を向上させることができる。 At this time, the display control unit 101-05 causes the display unit 104 to display the high-quality image generated by the image quality improvement unit and the analysis result by the analysis unit 101-46. Note that the display control unit 101-05 may output the high-quality image and the analysis results to separate display units or devices. Further, the display control unit 101-05 may display only the analysis results on the display unit 104. Furthermore, when the analysis section 101-46 outputs a plurality of analysis results, the display control section 101-05 may output some or all of the plurality of analysis results to the display section 104 or other devices. . For example, the analysis results regarding blood vessels in the OCTA En-Face image may be displayed on the display unit 104 as a two-dimensional map. Further, a value indicating the analysis result regarding blood vessels in the OCTA En-Face image may be superimposed on the OCTA En-Face image and displayed on the display unit 104. In this manner, the image processing apparatus 101 according to the present embodiment uses high-quality images for image analysis, so that the accuracy of analysis can be improved.

次に、画面遷移における高画質化処理の実行について、図14(a)と(b)を用いて説明を行う。図14(a)は、図14(b)におけるOCTA画像を拡大表示した画面例である。図14(a)においても、図14(b)と同様にボタン3420を表示する。図14(b)から図14(a)への画面遷移は、例えば、OCTA画像をダブルクリックすることで遷移し、図14(a)から図14(b)へは閉じるボタン3430で遷移する。なお、画面遷移に関しては、ここで示した方法に限らず、不図示のユーザーインターフェースを用いてもよい。 Next, the execution of image quality improvement processing during screen transition will be explained using FIGS. 14(a) and 14(b). FIG. 14(a) is an example of a screen in which the OCTA image in FIG. 14(b) is enlarged and displayed. In FIG. 14(a), a button 3420 is also displayed as in FIG. 14(b). The screen transition from FIG. 14(b) to FIG. 14(a) is made, for example, by double-clicking the OCTA image, and from FIG. 14(a) to FIG. 14(b) is made by clicking the close button 3430. Note that the screen transition is not limited to the method shown here, and a user interface (not shown) may be used.

画面遷移の際に高画質化処理の実行が指定されている場合(ボタン3420がアクティブ)、画面遷移時においてもその状態を保つ。すなわち、図14(b)の画面で高画質画像を表示している状態で図14(a)の画面に遷移する場合、図14(a)の画面においても高画質画像を表示する。そして、ボタン3420はアクティブ状態にする。図14(a)から図14(b)へ遷移する場合にも同様である。図14(a)において、ボタン3420を指定して低画質画像に表示を切り替えることもできる。 If execution of image quality enhancement processing is specified at the time of screen transition (button 3420 is active), that state is maintained even at the time of screen transition. That is, when transitioning to the screen of FIG. 14(a) while a high-quality image is being displayed on the screen of FIG. 14(b), the high-quality image is also displayed on the screen of FIG. 14(a). The button 3420 is then activated. The same holds true when transitioning from FIG. 14(a) to FIG. 14(b). In FIG. 14(a), the display can also be switched to a low-quality image by specifying a button 3420.

画面遷移に関して、ここで示した画面に限らず、経過観察用の表示画面、又はパノラマ用の表示画面など同じ撮影データを表示する画面への遷移であれば、高画質画像の表示状態を保ったまま遷移を行う。すなわち、遷移後の表示画面において、遷移前の表示画面におけるボタン3420の状態に対応する画像が表示される。例えば、遷移前の表示画面におけるボタン3420がアクティブ状態であれば、遷移後の表示画面において高画質画像が表示される。また、例えば、遷移前の表示画面におけるボタン3420のアクティブ状態が解除されていれば、遷移後の表示画面において低画質画像が表示される。なお、経過観察用の表示画面におけるボタン3420がアクティブ状態になると、経過観察用の表示画面に並べて表示される異なる日時(異なる検査日)で得た複数の画像が高画質画像に切り換わるようにしてもよい。すなわち、経過観察用の表示画面におけるボタン3420がアクティブ状態になると、異なる日時で得た複数の画像に対して一括で反映されるように構成してもよい。 Regarding screen transitions, it is not limited to the screens shown here, but if the transition is to a screen that displays the same imaging data, such as a follow-up display screen or a panoramic display screen, the display state of high-quality images can be maintained. Perform the transition as it is. That is, on the display screen after the transition, an image corresponding to the state of the button 3420 on the display screen before the transition is displayed. For example, if the button 3420 on the display screen before transition is in an active state, a high-quality image is displayed on the display screen after transition. Further, for example, if the active state of the button 3420 on the display screen before transition is released, a low-quality image is displayed on the display screen after transition. Note that when the button 3420 on the follow-up observation display screen becomes active, multiple images obtained at different dates and times (different examination dates) displayed side by side on the follow-up observation display screen are switched to high-quality images. It's okay. That is, when the button 3420 on the display screen for follow-up observation becomes active, it may be configured to be reflected on a plurality of images obtained at different dates and times at once.

ここで、経過観察用の表示画面の例を、図11に示す。検者からの指示に応じてタブ3801が選択されると、図11のように、経過観察用の表示画面が表示される。このとき、計測対象領域の深度範囲を、リストボックスに表示された既定の深度範囲セット(3802及び3803)から検者が選択することで変更できる。例えば、リストボックス3802では網膜表層が選択され、また、リストボックス3803では網膜深層が選択されている。上側の表示領域には網膜表層のモーションコントラスト画像の解析結果が表示され、また、下側の表示領域には網膜深層のモーションコントラスト画像の解析結果が表示されている。すなわち、深度範囲が選択されると、異なる日時の複数の画像について、選択された深度範囲の複数のモーションコントラスト画像の解析結果の並列表示に一括して変更される。 Here, an example of a display screen for follow-up observation is shown in FIG. When the tab 3801 is selected in response to an instruction from the examiner, a display screen for progress observation is displayed as shown in FIG. At this time, the examiner can change the depth range of the measurement target area by selecting from the default depth range set (3802 and 3803) displayed in the list box. For example, the superficial layer of the retina is selected in list box 3802, and the deep layer of the retina is selected in list box 3803. The upper display area displays the analysis result of the motion contrast image of the superficial layer of the retina, and the lower display area displays the analysis result of the motion contrast image of the deep layer of the retina. That is, when a depth range is selected, multiple images taken at different dates and times are collectively changed to parallel display of analysis results of multiple motion contrast images in the selected depth range.

このとき、解析結果の表示を非選択状態にすると、異なる日時の複数のモーションコントラスト画像の並列表示に一括して変更されてもよい。そして、検者からの指示に応じてボタン3420が指定されると、複数のモーションコントラスト画像の表示が複数の高画質画像の表示に一括して変更される。 At this time, if the display of the analysis results is set to a non-selected state, the display may be changed to parallel display of a plurality of motion contrast images at different dates and times. Then, when the button 3420 is designated in response to an instruction from the examiner, the display of the plurality of motion contrast images is changed to the display of the plurality of high-quality images at once.

また、解析結果の表示が選択状態である場合には、検者からの指示に応じてボタン3420が指定されると、複数のモーションコントラスト画像の解析結果の表示が複数の高画質画像の解析結果の表示に一括して変更される。ここで、解析結果の表示は、解析結果を任意の透明度により画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 In addition, when the display of analysis results is in the selected state, when the button 3420 is specified in response to an instruction from the examiner, the display of the analysis results of multiple motion contrast images changes to the display of the analysis results of multiple high-quality images. The display will be changed all at once. Here, the display of the analysis results may be such that the analysis results are superimposed on the image with arbitrary transparency. At this time, the display of the analysis results may be changed to, for example, a state in which the analysis results are superimposed on the displayed image with arbitrary transparency. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with arbitrary transparency.

また、深度範囲の指定に用いる層境界の種類とオフセット位置をそれぞれ、3805,3806のようなユーザーインターフェースから一括して変更することができる。なお、断層画像も一緒に表示させ、断層画像上に重畳された層境界データを検者からの指示に応じて移動させることにより、異なる日時の複数のモーションコントラスト画像の深度範囲を一括して変更されてもよい。このとき、異なる日時の複数の断層画像を並べて表示し、1つの断層画像上で上記移動が行われると、他の断層画像上でも同様に層境界データが移動されてもよい。また、画像投影法やプロジェクションアーティファクト抑制処理の有無を、例えば、コンテキストメニューのようなユーザーインターフェースから選択することにより変更してもよい。また、選択ボタン3807を選択して選択画面を表示させ、該選択画面上に表示された画像リストから選択された画像が表示されてもよい。なお、図11の上部に表示されている矢印3804は現在選択されている検査であることを示す印であり、基準検査(Baseline)はFollow-up撮影の際に選択した検査(図11の一番左側の画像)である。もちろん、基準検査を示すマークを表示部104に表示させてもよい。 Further, the type of layer boundary and the offset position used for specifying the depth range can be changed all at once from user interfaces 3805 and 3806, respectively. By displaying the tomographic images together and moving the layer boundary data superimposed on the tomographic images according to instructions from the examiner, the depth range of multiple motion contrast images at different times can be changed at once. may be done. At this time, when a plurality of tomographic images with different dates and times are displayed side by side and the above movement is performed on one tomographic image, the layer boundary data may be similarly moved on other tomographic images. Further, the image projection method and the presence or absence of projection artifact suppression processing may be changed by selecting from a user interface such as a context menu, for example. Alternatively, a selection button 3807 may be selected to display a selection screen, and an image selected from the image list displayed on the selection screen may be displayed. Note that the arrow 3804 displayed at the top of FIG. 11 is a mark indicating the currently selected test, and the baseline test (Baseline) is the test selected at the time of follow-up imaging (the one shown in FIG. 11). The leftmost image). Of course, a mark indicating a reference test may be displayed on the display unit 104.

また、「Show Difference」チェックボックス3808が指定された場合には、基準画像上に基準画像に対する計測値分布(マップもしくはセクタマップ)を表示する。さらに、この場合には、それ以外の検査日に対応する領域に基準画像に対して算出した計測値分布と当該領域に表示される画像に対して算出した計測分布との差分計測値マップを表示する。計測結果としては、レポート画面上にトレンドグラフ(経時変化計測によって得られた各検査日の画像に対する計測値のグラフ)を表示させてもよい。すなわち、異なる日時の複数の画像に対応する複数の解析結果の時系列データ(例えば、時系列グラフ)が表示されてもよい。このとき、表示されている複数の画像に対応する複数の日時以外の日時に関する解析結果についても、表示されている複数の画像に対応する複数の解析結果と判別可能な状態で(例えば、時系列グラフ上の各点の色が画像の表示の有無で異なる)時系列データとして表示させてもよい。また、該トレンドグラフの回帰直線(曲線)や対応する数式をレポート画面に表示させてもよい。 Furthermore, when the "Show Difference" check box 3808 is designated, the measurement value distribution (map or sector map) for the reference image is displayed on the reference image. Furthermore, in this case, a difference measurement value map between the measurement value distribution calculated for the reference image and the measurement distribution calculated for the image displayed in the area is displayed in the area corresponding to the other inspection dates. do. As the measurement results, a trend graph (a graph of measurement values for images on each inspection day obtained by measuring changes over time) may be displayed on the report screen. That is, time-series data (for example, a time-series graph) of multiple analysis results corresponding to multiple images at different dates and times may be displayed. At this time, analysis results related to dates and times other than the multiple dates and times corresponding to the multiple images being displayed are also displayed in a state that allows them to be distinguished from the multiple analysis results corresponding to the multiple images being displayed (for example, in a chronological order). It may also be displayed as time series data (the color of each point on the graph differs depending on whether or not an image is displayed). Further, the regression line (curve) of the trend graph and the corresponding mathematical formula may be displayed on the report screen.

本実施形態においては、モーションコントラスト画像に関して説明を行ったが、これに限らない。本実施形態に係る表示、高画質化、及び画像解析等の処理に関する画像は、断層画像でもよい。さらには、断層画像だけではなく、SLO画像、眼底写真、又は蛍光眼底写真など、異なる画像であっても構わない。その場合、高画質化処理を実行するためのユーザーインターフェースは、種類の異なる複数の画像に対して高画質化処理の実行を指示するもの、種類の異なる複数の画像から任意の画像を選択して高画質化処理の実行を指示するものがあってもよい。 Although the present embodiment has been described regarding a motion contrast image, the present invention is not limited to this. Images related to processing such as display, high image quality, and image analysis according to this embodiment may be tomographic images. Furthermore, not only a tomographic image but also a different image such as an SLO image, a fundus photograph, or a fluorescent fundus photograph may be used. In that case, the user interface for executing image quality enhancement processing may be one that instructs execution of image quality enhancement processing on multiple images of different types, or one that instructs to execute image quality enhancement processing on multiple images of different types, or one that allows you to select any image from multiple images of different types. There may also be an instruction to execute high image quality processing.

このような構成により、本実施形態に係る高画質化部(不図示)が処理した画像を表示制御部101-05が表示部104に表示することができる。このとき、上述したように、高画質画像の表示、解析結果の表示、表示される正面画像の深度範囲等に関する複数の条件のうち少なくとも1つが選択された状態である場合には、表示画面が遷移されても、選択された状態が維持されてもよい。 With such a configuration, the display control unit 101-05 can display on the display unit 104 an image processed by the image quality improvement unit (not shown) according to the present embodiment. At this time, as described above, if at least one of the multiple conditions regarding display of high-quality images, display of analysis results, depth range of the displayed frontal image, etc. is selected, the display screen is Even if the transition is made, the selected state may be maintained.

また、上述したように、複数の条件のうち少なくとも1つが選択された状態である場合には、他の条件が選択された状態に変更されても、該少なくとも1つが選択された状態が維持されてもよい。例えば、表示制御部101-05は、解析結果の表示が選択状態である場合に、検者からの指示に応じて(例えば、ボタン3420が指定されると)、低画質画像の解析結果の表示を高画質画像の解析結果の表示に変更してもよい。また、表示制御部101-05は、解析結果の表示が選択状態である場合に、検者からの指示に応じて(例えば、ボタン3420の指定が解除されると)、高画質画像の解析結果の表示を低画質画像の解析結果の表示に変更してもよい。 Furthermore, as described above, when at least one of the plurality of conditions is selected, even if the other conditions are changed to the selected state, the selected state of at least one of the conditions is maintained. It's okay. For example, when the display of the analysis results is selected, the display control unit 101-05 displays the analysis results of the low-quality image in response to an instruction from the examiner (for example, when the button 3420 is specified). may be changed to displaying the analysis results of high-quality images. In addition, when the display of the analysis results is in the selected state, the display control unit 101-05 displays the analysis results of the high-quality image in response to an instruction from the examiner (for example, when the button 3420 is deselected). The display may be changed to display the analysis results of low-quality images.

また、表示制御部101-05は、高画質画像の表示が非選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示の指定が解除されると)、低画質画像の解析結果の表示を低画質画像の表示に変更してもよい。また、表示制御部101-05は、高画質画像の表示が非選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示が指定されると)、低画質画像の表示を低画質画像の解析結果の表示に変更してもよい。また、表示制御部101-05は、高画質画像の表示が選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示の指定が解除されると)、高画質画像の解析結果の表示を高画質画像の表示に変更してもよい。また、表示制御部101-05は、高画質画像の表示が選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示が指定されると)、高画質画像の表示を高画質画像の解析結果の表示に変更してもよい。 In addition, when the display of high-quality images is not selected, the display control unit 101-05 controls the display of low-quality images in response to an instruction from the examiner (for example, when the designation of displaying analysis results is canceled). The display of the image analysis results may be changed to the display of low-quality images. In addition, when the display of high-quality images is in a non-selected state, the display control unit 101-05 controls the display of low-quality images in response to an instruction from the examiner (for example, when the display of analysis results is specified). The display may be changed to display the analysis results of low-quality images. In addition, when displaying a high-quality image is selected, the display control unit 101-05 displays a high-quality image in response to an instruction from the examiner (for example, when the designation for displaying analysis results is canceled). The display of the analysis results may be changed to the display of high-quality images. In addition, when displaying a high-quality image is selected, the display control unit 101-05 displays a high-quality image in response to an instruction from the examiner (for example, when displaying analysis results is specified). may be changed to displaying the analysis results of high-quality images.

また、高画質画像の表示が非選択状態で且つ第1の種類の解析結果の表示が選択状態である場合を考える。この場合には、表示制御部101-05は、検者からの指示に応じて(例えば、第2の種類の解析結果の表示が指定されると)、低画質画像の第1の種類の解析結果の表示を低画質画像の第2の種類の解析結果の表示に変更してもよい。また、高画質画像の表示が選択状態で且つ第1の種類の解析結果の表示が選択状態である場合を考える。この場合には、表示制御部101-05は、検者からの指示に応じて(例えば、第2の種類の解析結果の表示が指定されると)、高画質画像の第1の種類の解析結果の表示を高画質画像の第2の種類の解析結果の表示に変更してもよい。 Also, consider a case where a high-quality image is displayed in a non-selected state and a first type of analysis result is displayed in a selected state. In this case, the display control unit 101-05 performs the first type of analysis of the low-quality image in response to an instruction from the examiner (for example, when displaying the second type of analysis results is specified). The display of the results may be changed to display of the second type of analysis results of low-quality images. Also, consider a case where a high-quality image is displayed in a selected state and a first type of analysis result is displayed in a selected state. In this case, the display control unit 101-05 performs the first type of analysis of the high-quality image in response to an instruction from the examiner (for example, when displaying the second type of analysis results is specified). The display of the results may be changed to display of the second type of analysis results of high-quality images.

なお、経過観察用の表示画面においては、上述したように、これらの表示の変更が、異なる日時で得た複数の画像に対して一括で反映されるように構成してもよい。ここで、解析結果の表示は、解析結果を任意の透明度により画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 Note that, as described above, the display screen for follow-up observation may be configured so that these display changes are reflected at once on a plurality of images obtained at different dates and times. Here, the display of the analysis results may be such that the analysis results are superimposed on the image with arbitrary transparency. At this time, the display of the analysis results may be changed to, for example, a state in which the analysis results are superimposed on the displayed image with arbitrary transparency. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with arbitrary transparency.

(変形例1)
上述した実施形態において、表示制御部101-05は、高画質化部によって生成された高画質画像と入力画像のうち、検者からの指示に応じて選択された画像を表示部104に表示させることができる。また、表示制御部101-05は、検者からの指示に応じて、表示部104上の表示を撮影画像(入力画像)から高画質画像に切り替えてもよい。すなわち、表示制御部101-05は、検者からの指示に応じて、低画質画像の表示を高画質画像の表示に変更してもよい。また、表示制御部101-05は、検者からの指示に応じて、高画質画像の表示を低画質画像の表示に変更してもよい。
(Modification 1)
In the embodiment described above, the display control unit 101-05 causes the display unit 104 to display an image selected from among the high-quality image generated by the image quality improvement unit and the input image according to an instruction from the examiner. be able to. Furthermore, the display control unit 101-05 may switch the display on the display unit 104 from a captured image (input image) to a high-quality image in response to an instruction from the examiner. That is, the display control unit 101-05 may change the display of a low-quality image to the display of a high-quality image in response to an instruction from the examiner. Furthermore, the display control unit 101-05 may change the display of a high-quality image to the display of a low-quality image in response to an instruction from the examiner.

さらに、画像処理装置101(あるいは画像処理部101-04)における高画質化部が、高画質化エンジン(高画質化用の学習済モデル)による高画質化処理の開始(高画質化エンジンへの画像の入力)を検者からの指示に応じて実行し、表示制御部101-05が、高画質化部によって生成された高画質画像を表示部104に表示させてもよい。これに対し、撮影装置(断層画像撮影装置100)によって入力画像が撮影されると、高画質化エンジンが自動的に入力画像に基づいて高画質画像を生成し、表示制御部101-05が、検者からの指示に応じて高画質画像を表示部104に表示させてもよい。ここで、高画質化エンジンとは、上述した画質向上処理(高画質化処理)を行う学習済モデルを含む。 Furthermore, the image quality improvement unit in the image processing device 101 (or image processing unit 101-04) starts image quality improvement processing by the image quality improvement engine (trained model for image quality improvement) (initiates image quality improvement processing to the image quality improvement engine). The display control section 101-05 may cause the display section 104 to display the high-quality image generated by the image quality improvement section. On the other hand, when an input image is captured by the imaging device (tomographic imaging device 100), the high-quality image automatically generates a high-quality image based on the input image, and the display control unit 101-05 A high-quality image may be displayed on the display unit 104 in response to instructions from the examiner. Here, the image quality improvement engine includes a trained model that performs the above-described image quality improvement processing (image quality improvement processing).

なお、これらの処理は解析結果の出力についても同様に行うことができる。すなわち、表示制御部101-05は、検者からの指示に応じて、低画質画像の解析結果の表示を高画質画像の解析結果の表示に変更してもよい。また、表示制御部101-05は、検者からの指示に応じて、高画質画像の解析結果の表示を低画質画像の解析結果の表示に変更してもよい。もちろん、表示制御部101-05は、検者からの指示に応じて、低画質画像の解析結果の表示を低画質画像の表示に変更してもよい。また、表示制御部101-05は、検者からの指示に応じて、低画質画像の表示を低画質画像の解析結果の表示に変更してもよい。また、表示制御部101-05は、検者からの指示に応じて、高画質画像の解析結果の表示を高画質画像の表示に変更してもよい。また、表示制御部101-05は、検者からの指示に応じて、高画質画像の表示を高画質画像の解析結果の表示に変更してもよい。 Note that these processes can be similarly performed for outputting the analysis results. That is, the display control unit 101-05 may change the display of the analysis results of low-quality images to the display of the analysis results of high-quality images in response to instructions from the examiner. Further, the display control unit 101-05 may change the display of the analysis results of the high-quality images to the display of the analysis results of the low-quality images in response to an instruction from the examiner. Of course, the display control unit 101-05 may change the display of the analysis result of the low-quality image to the display of the low-quality image in response to an instruction from the examiner. Further, the display control unit 101-05 may change the display of the low-quality image to the display of the analysis result of the low-quality image in response to an instruction from the examiner. Further, the display control unit 101-05 may change the display of the analysis result of the high-quality image to the display of the high-quality image in response to an instruction from the examiner. Further, the display control unit 101-05 may change the display of the high-quality image to the display of the analysis result of the high-quality image in response to an instruction from the examiner.

また、表示制御部101-05は、検者からの指示に応じて、低画質画像の解析結果の表示を低画質画像の他の種類の解析結果の表示に変更してもよい。また、表示制御部101-05は、検者からの指示に応じて、高画質画像の解析結果の表示を高画質画像の他の種類の解析結果の表示に変更してもよい。 Further, the display control unit 101-05 may change the display of the analysis result of the low-quality image to the display of another type of analysis result of the low-quality image in response to an instruction from the examiner. Further, the display control unit 101-05 may change the display of the analysis result of the high-quality image to the display of another type of analysis result of the high-quality image in response to an instruction from the examiner.

ここで、高画質画像の解析結果の表示は、高画質画像の解析結果を任意の透明度により高画質画像に重畳表示させたものであってもよい。また、低画質画像の解析結果の表示は、低画質画像の解析結果を任意の透明度により低画質画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 Here, the display of the analysis result of the high-quality image may be one in which the analysis result of the high-quality image is displayed superimposed on the high-quality image with arbitrary transparency. Moreover, the display of the analysis result of the low-quality image may be one in which the analysis result of the low-quality image is displayed superimposed on the low-quality image with arbitrary transparency. At this time, the display of the analysis results may be changed to, for example, a state in which the analysis results are superimposed on the displayed image with arbitrary transparency. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with arbitrary transparency.

また、上述した様々な実施形態において、設定される関心領域に対して実行される処理は、解析処理に限らず、例えば、画像処理であってもよい。画像処理としては、例えば、コントラスト処理、階調変換処理、超解像度処理、平滑化処理等であれば、何でもよい。また、他の表示画面に遷移した後も、遷移前に設定された透過率によりブレンド処理して得たブレンド画像を表示してもよい。例えば、経過観察の表示画面に遷移した後、異なる日時に得た複数の画像として、遷移前に設定された透過率によりブレンド処理して得た複数のブレンド画像が並べて表示されてもよい。また、経過観察の表示画面にも同様のスライドバーが表示され、検者からの指示に応じて透過率が設定(変更)されると、設定された透過率が異なる日時に得た複数の画像に対して一括して反映されてもよい。すなわち、透過率が設定(変更)されると、設定された透過率によりブレンド処理して得た複数のブレンド画像が表示されてもよい。なお、ブレンド処理は、これらの表示画面に限らず、撮影確認画面、レポート画面、撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面において実行可能であればよい。 Furthermore, in the various embodiments described above, the processing performed on the set region of interest is not limited to analysis processing, and may be, for example, image processing. Any image processing may be used as long as it is, for example, contrast processing, gradation conversion processing, super resolution processing, smoothing processing, etc. Furthermore, even after transitioning to another display screen, a blended image obtained by performing blending processing using the transmittance set before transition may be displayed. For example, after transitioning to the progress observation display screen, a plurality of blended images obtained by blending using the transmittance set before the transition may be displayed side by side as a plurality of images obtained at different dates and times. A similar slide bar is also displayed on the follow-up observation display screen, and when the transmittance is set (changed) according to instructions from the examiner, multiple images obtained at different dates and times with the set transmittance will be displayed. may be reflected all at once. That is, when the transmittance is set (changed), a plurality of blended images obtained by blending using the set transmittance may be displayed. Note that the blending process is not limited to these display screens, but at least one display screen such as the shooting confirmation screen, report screen, and preview screen for various adjustments before shooting (display screen on which various live video images are displayed). It is sufficient if it is executable.

(変形例2)
上述した様々な実施形態及び変形例において、ブレンド処理に用いられる透過率(透過係数)は、検者からの指示だけによって設定されることに限らず、自動的に設定されてもよいし、半自動で設定されてもよい。例えば、互いに対応する領域のOCT画像及びOCTA画像の少なくとも1つ等の医用画像を入力データとし、検者からの指示に応じて設定された透過率を正解データ(教師データ)とする学習データにより機械学習して得た学習済モデルが用いられてもよい。すなわち、透過率設定部が、互いに対応する領域のOCT画像及びOCTA画像の少なくとも1つ等の医用画像から、上記学習済モデルを用いて、新たな透過率を生成するように構成されてもよい。このとき、上記学習済モデルは、例えば、検者からの指示に応じて決定(変更)された透過率を正解データとする学習データにより追加学習して得た学習済モデルであってもよい。また、上記学習済モデルは、例えば、検者からの指示に応じて該新たな透過率(学習済モデルを用いて得た透過率)から変更された透過率を正解データとする学習データにより追加学習して得た学習済モデルであってもよい。これにより、例えば、医用画像に対して検者が好む透過率の傾向が考慮された新たな透過率を取得することができる。すなわち、検者にカスタマイズされた透過率設定部を精度良く構成することができる。このため、検者の診断効率を向上することができる。なお、互いに対応する領域のOCT画像及びOCTA画像は、例えば、共通する干渉信号の少なくとも一部を用いて得られた画像であってもよい。
(Modification 2)
In the various embodiments and modifications described above, the transmittance (transmittance coefficient) used in the blending process is not limited to being set only by instructions from the examiner, and may be set automatically or semi-automatically. may be set. For example, by using learning data in which medical images such as at least one of an OCT image and an OCTA image of mutually corresponding regions are input data, and the transmittance set according to instructions from the examiner is correct data (teacher data). A learned model obtained by machine learning may be used. That is, the transmittance setting unit may be configured to generate a new transmittance from a medical image such as at least one of an OCT image and an OCTA image of mutually corresponding regions, using the learned model. . At this time, the learned model may be, for example, a learned model obtained by additional learning using learning data in which the transmittance determined (changed) according to an instruction from the examiner is used as correct data. In addition, the trained model may be added by learning data that uses, as correct data, a transmittance that is changed from the new transmittance (transmittance obtained using the trained model) in response to an instruction from the examiner, for example. It may be a learned model obtained through learning. Thereby, for example, it is possible to obtain a new transmittance that takes into account the tendency of the examiner's preferred transmittance for medical images. That is, the transmittance setting section customized by the examiner can be configured with high precision. Therefore, the diagnostic efficiency of the examiner can be improved. Note that the OCT image and OCTA image of mutually corresponding regions may be images obtained using at least a portion of a common interference signal, for example.

ここで、上記学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を機械学習モデルとして用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダ(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。また、学習データとは、入力データ及び出力データ(正解データ)のペアで構成される。ここで、学習データを教師データという場合もあるし、あるいは、正解データを教師データという場合もある。また、学習済モデルは、追加学習により更新されることで、例えば、操作者に適したモデルとしてカスタマイズされてもよい。もちろん、本変形例における学習済モデルは、追加学習して得た学習済モデルには限定されず、医用画像と透過率に関する情報とを含む学習データにより学習して得た学習済モデルであれば何でもよい。 Here, the learned model can be obtained by machine learning using learning data. Machine learning includes, for example, deep learning that consists of multilayer neural networks. Further, for example, a convolutional neural network (CNN) can be used as a machine learning model for at least a portion of the multi-layer neural network. Further, a technique related to an autoencoder (self-encoder) may be used for at least a portion of the multi-layer neural network. Furthermore, a technique related to backpropagation (error backpropagation method) may be used for learning. However, machine learning is not limited to deep learning, and may be any type of learning that uses a model that can self-extract (express) features of learning data such as images through learning. Further, a trained model is a model that has been trained (performed learning) using appropriate learning data in advance for a machine learning model based on an arbitrary machine learning algorithm. However, the trained model does not undergo any further learning, and additional learning can be performed on the trained model. Further, the learning data is composed of a pair of input data and output data (correct data). Here, the learning data may be referred to as teacher data, or the correct answer data may be referred to as teacher data. Further, the learned model may be updated through additional learning, so that it can be customized as a model suitable for the operator, for example. Of course, the trained model in this modification is not limited to a trained model obtained by additional learning, but may be a trained model obtained by learning using learning data including medical images and information regarding transmittance. Anything is fine.

また、上述した学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データは、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとする入力データや、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとする入力データ等が考えられる。また、異なる種類の複数の医療画像は、異なるもモダリティ、異なる光学系、異なる原理等により取得されたものであれば何でもよい。また、上述した学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データは、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとする入力データや、眼底の黄斑の三次元OCT画像と眼底の視神経乳頭のサークルスキャン(またはラスタースキャン)断層画像とをセットとする入力データ等が考えられる。なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。 Further, the trained model described above may be a trained model obtained by learning using learning data including input data that is a set of a plurality of different types of medical images of a predetermined region of a subject. At this time, the input data included in the learning data is, for example, input data that is a set of a motion contrast frontal image and a brightness frontal image (or a brightness tomographic image) of the fundus, a tomographic image (B scan image) of the fundus, and a color fundus Input data such as a set of images (or fluorescent fundus images) can be considered. Further, the plurality of medical images of different types may be any image as long as they are obtained using different modalities, different optical systems, different principles, etc. Further, the trained model described above may be a trained model obtained by learning using learning data including input data that is a set of a plurality of medical images of different parts of the subject. At this time, the input data included in the learning data is, for example, input data that is a set of a tomographic image of the fundus of the eye (B-scan image) and a tomographic image of the anterior segment of the eye (B-scan image), or a three-dimensional image of the macula of the fundus of the eye. Input data such as a set of an OCT image and a circle scan (or raster scan) tomographic image of the optic disc of the fundus can be considered. Note that the input data included in the learning data may be a plurality of medical images of different parts and different types of the subject. At this time, the input data included in the learning data may be, for example, input data that includes a tomographic image of the anterior segment of the eye and a color fundus image. Further, the above-mentioned trained model may be a trained model obtained by learning using learning data including input data that is a set of a plurality of medical images of a predetermined region of a subject at different photographing angles of view. Further, the input data included in the learning data may be a combination of a plurality of medical images obtained by time-divisionally dividing a predetermined region into a plurality of regions, such as a panoramic image. Furthermore, the input data included in the learning data may be input data that is a set of a plurality of medical images of a predetermined region of the subject at different times.

なお、上述した学習済モデルを用いて得た新たな透過率を初期設定として、検者からの指示に応じて、透過率を変更可能に構成してもよい。また、検者からの指示に応じて、変更された透過率を追加学習の学習データとして用いるか否かを選択可能に構成してもよい。また、ブレンド画像上でROIが設定されることにより、ROIが設定されたときに設定(変更)された透過率を追加学習の学習データとして用いることも連動して選択されるように構成されてもよい。 Note that the new transmittance obtained using the learned model described above may be set as an initial setting, and the transmittance may be changed in accordance with instructions from the examiner. Further, it may be configured such that it is possible to select whether or not to use the changed transmittance as learning data for additional learning in accordance with an instruction from the examiner. Furthermore, by setting the ROI on the blended image, the transmittance set (changed) when the ROI is set is also selected to be used as learning data for additional learning. Good too.

(変形例3)
上述した様々な実施形態及び変形例における表示制御部101-05は、表示画面のレポート画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。このとき、例えば、各種のアーティファクトの低減処理が適用された医用画像を解析することで、精度の良い解析結果を表示させることができる。なお、アーティファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーティファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーティファクト等であってもよい。また、アーティファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、上述したような様々なアーティファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、シュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。
また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクタ等で表示されてもよい。なお、解析結果は、医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。また、学習済モデルは、輝度正面画像及びモーションコントラスト正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。ここで、輝度正面画像は断層画像のEn-Face画像に対応し、モーションコントラスト正面画像はOCTAのEn-Face画像に対応する。また、高画質化用の学習済モデルにより生成された高画質画像を用いて得た解析結果が表示されるように構成されてもよい。なお、高画質化用の学習済モデルは、第一の画像を入力データとし、第一の画像よりも高画質な第二の画像を正解データとする学習データを学習して得たものであってもよい。このとき、第二の画像は、例えば、複数の第一の画像の重ね合わせ処理(例えば、位置合わせして得た複数の第一の画像の平均化処理)等によって、高コントラスト化やノイズ低減等が行われたような高画質な画像であってもよい。
(Modification 3)
The display control unit 101-05 in the various embodiments and modifications described above may display analysis results such as the thickness of a desired layer and various blood vessel densities on a report screen of the display screen. In addition, the optic disc, macular area, blood vessel area, nerve fiber bundle, vitreous area, macular area, choroid area, sclera area, lamina cribrosa area, retinal layer boundary, retinal layer boundary edge, photoreceptor cells, blood cells, Values (distribution) of parameters related to a region of interest including at least one of a blood vessel wall, a blood vessel inner wall boundary, a blood vessel outer wall boundary, a ganglion cell, a corneal region, an angle region, Schlemm's canal, etc. may be displayed as an analysis result. At this time, for example, by analyzing a medical image to which various artifact reduction processes have been applied, highly accurate analysis results can be displayed. Note that artifacts include, for example, false image areas caused by light absorption by blood vessel areas, projection artifacts, and band-shaped artifacts in the front image that occur in the main scanning direction of the measurement light due to the condition of the eye being examined (movement, blinking, etc.). There may be. Furthermore, the artifact may be of any type, as long as it is a defective area that randomly appears on a medical image of a predetermined region of a subject each time the image is taken. Further, the values (distribution) of parameters regarding a region including at least one of the various artifacts (impossible regions) as described above may be displayed as an analysis result. Further, the values (distribution) of parameters related to a region including at least one of an abnormal site such as drusen, new blood vessels, vitiligo (hard vitiligo), and pseudodrusen may be displayed as an analysis result.
Further, the analysis results may be displayed as an analysis map, sectors showing statistical values corresponding to each divided area, or the like. Note that the analysis results may be generated using a trained model (analysis result generation engine, trained model for analysis result generation) obtained by learning the analysis results of medical images as learning data. . At this time, the trained model is trained using learning data that includes a medical image and an analysis result of the medical image, or learning data that includes a medical image and the analysis result of a medical image of a different type than the medical image. It may be obtained by In addition, the trained model is obtained by learning using learning data that includes input data that is a set of multiple medical images of different types of predetermined parts, such as brightness frontal images and motion contrast frontal images. Good too. Here, the brightness front image corresponds to the En-Face image of the tomographic image, and the motion contrast front image corresponds to the En-Face image of OCTA. Furthermore, it may be configured to display analysis results obtained using high-quality images generated by trained models for high-quality images. Note that the trained model for high image quality is obtained by learning training data in which the first image is used as input data and the second image, which has higher image quality than the first image, is used as correct data. It's okay. At this time, the second image is processed to increase contrast or reduce noise by, for example, superimposing a plurality of first images (for example, averaging processing of a plurality of first images obtained by positioning). It may be a high-quality image that has been subjected to the above process.

また、学習データに含まれる入力データとしては、高画質化用の学習済モデルにより生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクタ等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、解析結果生成用の学習済モデルにより得た解析結果が表示されるように構成されてもよい。例えば、画像処理部101-04は、(高画質化用の学習済モデルとは異なる)解析結果生成用の学習済モデルを用いて、ブレンド処理される複数の医用画像のうち少なくとも一つの医用画像から、該少なくとも一つの医用画像に関連する画像解析結果を生成することができる。また、例えば、表示制御部101-05は、上記少なくとも一つの医用画像から解析結果生成用の学習済モデルを用いて得た画像解析結果を表示部104に表示させることができる。 Further, the input data included in the learning data may be a high-quality image generated by a trained model for high-quality images, or may be a set of a low-quality image and a high-quality image. In addition, the learning data includes, for example, at least analysis values obtained by analyzing the analysis area (e.g., average value, median value, etc.), a table including the analysis values, an analysis map, the position of the analysis area such as a sector in an image, etc. The input data may be labeled (annotated) with information including one as the correct data (for supervised learning). Note that the analysis result obtained by the learned model for generating the analysis result may be displayed in response to an instruction from the examiner. For example, the image processing unit 101-04 uses a trained model for generating analysis results (different from a trained model for high image quality) to process at least one medical image among the plurality of medical images to be blended. An image analysis result related to the at least one medical image can be generated from the at least one medical image. Further, for example, the display control unit 101-05 can cause the display unit 104 to display an image analysis result obtained from the at least one medical image using a trained model for generating an analysis result.

また、上述した様々な実施形態及び変形例における表示制御部101-05は、表示画面のレポート画面において、緑内障や加齢黄斑変性等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーティファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果としては、特定された異常部位等の位置が画像上に表示されてもよいし、また、異常部位の状態等が文字等によって表示されてもよい。また、異常部位等の分類結果(例えば、Curtin分類)が診断結果として表示されてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。 Further, the display control unit 101-05 in the various embodiments and modifications described above may display various diagnostic results such as glaucoma and age-related macular degeneration on the report screen of the display screen. At this time, for example, by analyzing a medical image to which the various artifact reduction processes described above have been applied, highly accurate diagnostic results can be displayed. Further, as a diagnosis result, the position of the identified abnormal region, etc. may be displayed on the image, or the state of the abnormal region, etc. may be displayed in characters or the like. Furthermore, the classification results of abnormal regions and the like (for example, Curtin classification) may be displayed as the diagnosis results. Further, as the classification result, for example, information indicating the probability of each abnormal site (for example, a numerical value indicating a ratio) may be displayed. Further, information necessary for a doctor to confirm a diagnosis may be displayed as a diagnosis result. The necessary information may include, for example, advice on additional photography. For example, if an abnormal site is detected in a blood vessel region in an OCTA image, a message may be displayed to the effect that fluorescence imaging using a contrast agent that allows the blood vessels to be observed in more detail than in OCTA will be performed.

なお、診断結果は、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。また、高画質化用の学習済モデルにより生成された高画質画像を用いて得た診断結果が表示されるように構成されてもよい。例えば、画像処理部101-04は、(高画質化用の学習済モデルとは異なる)診断結果生成用の学習済モデルを用いて、ブレンド処理される複数の医用画像のうち少なくとも一つの医用画像から、該少なくとも一つの医用画像に関連する診断結果を生成することができる。また、例えば、表示制御部101-05は、上記少なくとも一つの医用画像から診断結果生成用の学習済モデルを用いて得た診断結果を表示部104に表示させることができる。 Note that the diagnostic results may be generated using a trained model (a diagnostic result generation engine, a trained model for generating diagnostic results) obtained by learning the diagnostic results of medical images as learning data. . In addition, the trained model can be trained using training data that includes a medical image and the diagnosis result of the medical image, or training data that includes the medical image and the diagnosis result of a different type of medical image than the medical image. It may be something you have obtained. Furthermore, the system may be configured to display diagnostic results obtained using high-quality images generated by trained models for high-quality images. For example, the image processing unit 101-04 uses a trained model for generating diagnostic results (different from a trained model for improving image quality) to process at least one medical image among the plurality of medical images to be blended. A diagnostic result related to the at least one medical image can be generated from the at least one medical image. Further, for example, the display control unit 101-05 can cause the display unit 104 to display a diagnosis result obtained from the at least one medical image using a trained model for generating a diagnosis result.

また、学習データに含まれる入力データとしては、高画質化用の学習済モデルにより生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルにより得た診断結果が表示されるように構成されてもよい。 Further, the input data included in the learning data may be a high-quality image generated by a trained model for high-quality images, or may be a set of a low-quality image and a high-quality image. In addition, the learning data includes, for example, the diagnosis name, the type and condition (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion relative to the region of interest, findings (image interpretation findings, etc.), and the basis for the diagnosis name (positive The input data is labeled (annotated) as the correct data (for supervised learning), including at least one of the following: negative medical support information, etc.), grounds for denying the diagnosis (negative medical support information), etc. It may be data. Note that the configuration may be such that the diagnostic results obtained by the trained model for generating diagnostic results are displayed in response to instructions from the examiner.

また、上述した様々な実施形態及び変形例における表示制御部101-05は、表示画面のレポート画面において、上述したような注目部位、アーティファクト、異常部位等の物体認識結果(物体検出結果)やセグメンテーション結果を表示させてもよい。このとき、例えば、画像上の物体の周辺に矩形の枠等を重畳して表示させてもよい。また、例えば、画像における物体上に色等を重畳して表示させてもよい。なお、物体認識結果やセグメンテーション結果は、物体認識やセグメンテーションを示す情報を正解データとして医用画像にラベル付け(アノテーション)した学習データを学習して得た学習済モデル(物体認識エンジン、物体認識用の学習済モデル、セグメンテーションエンジン、セグメンテーション用の学習済モデル)を用いて生成されたものであってもよい。なお、上述した解析結果生成や診断結果生成は、上述した物体認識結果やセグメンテーション結果を利用することで得られたものであってもよい。例えば、物体認識やセグメンテーションの処理により得た注目部位に対して解析結果生成や診断結果生成の処理を行ってもよい。 In addition, the display control unit 101-05 in the various embodiments and modifications described above also displays object recognition results (object detection results) such as the above-mentioned regions of interest, artifacts, and abnormal regions, and segmentation on the report screen of the display screen. The results may also be displayed. At this time, for example, a rectangular frame or the like may be superimposed and displayed around the object on the image. Furthermore, for example, a color or the like may be superimposed and displayed on an object in the image. Note that object recognition results and segmentation results are generated using a trained model (object recognition engine, object recognition It may be generated using a trained model, a segmentation engine, or a trained model for segmentation. Note that the analysis result generation and diagnosis result generation described above may be obtained by using the object recognition results and segmentation results described above. For example, analysis result generation or diagnostic result generation processing may be performed on a region of interest obtained through object recognition or segmentation processing.

また、異常部位を検出する場合には、画像処理部101-04は、敵対的生成ネットワーク(GAN:Generative Adversarial Netwoks)や変分オートエンコーダ(VAE:Variational auto-encoder)を用いてもよい。例えば、断層画像の生成を学習して得た生成器と、生成器が生成した新たな断層画像と本物の眼底正面画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。 Furthermore, when detecting an abnormal region, the image processing unit 101-04 may use a generative adversarial network (GAN) or a variational auto-encoder (VAE). For example, a DCGAN (Deep Convolutional GAN) consists of a generator obtained by learning to generate tomographic images, and a discriminator obtained by learning to discriminate between a new tomographic image generated by the generator and a real fundus front image. ) can be used as a machine learning model.

DCGANを用いる場合には、例えば、識別器が入力された断層画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。また、VAEを用いる場合には、例えば、入力された断層画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像像との差分を異常部位として抽出することができる。なお、入力データの例として断層画像を例として説明したが、眼底画像や前眼の正面画像等を用いてもよい。 When using DCGAN, for example, a discriminator encodes an input tomographic image into a latent variable, and a generator generates a new tomographic image based on the latent variable. Thereafter, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal site. Furthermore, when using VAE, for example, an input tomographic image is encoded by an encoder to become a latent variable, and a new tomographic image is generated by decoding the latent variable by a decoder. Thereafter, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal site. Although the explanation has been given using a tomographic image as an example of input data, a fundus image, a frontal image of the anterior eye, etc. may also be used.

さらに、画像処理部101-04は、畳み込みオートエンコーダ(CAE:Convolutional Auto-Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ画像を学習させる。これにより、推定時に異常部位がある画像をCAEに入力すると、学習の傾向に従って異常部位がない画像が出力される。その後、CAEに入力された画像とCAEから出力された画像の差分を異常部位として抽出することができる。なお、この場合にも、断層画像だけでなく、眼底画像や前眼の正面画像等を入力データとして用いてもよい。 Furthermore, the image processing unit 101-04 may detect an abnormal region using a convolutional auto-encoder (CAE). When using CAE, the same image is trained as input data and output data during learning. As a result, when an image with an abnormal part is input to CAE at the time of estimation, an image without an abnormal part is outputted according to the learning tendency. Thereafter, the difference between the image input to CAE and the image output from CAE can be extracted as an abnormal site. Note that in this case as well, not only a tomographic image but also a fundus image, a frontal image of the anterior eye, etc. may be used as input data.

これらの場合、画像処理部101-04は、セグメンテーション処理等により特定した異なる領域それぞれについて敵対的生成ネットワーク又はオートエンコーダを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、画像処理部101-04は、高速に精度よく異常部位を検出することが期待できる。ここで、オートエンコーダには、VAEやCAE等が含まれる。例えば、画像処理部101-04は、ブレンド処理される複数の医用画像のうち少なくとも一つの医用画像から敵対的生成ネットワーク又はオートエンコーダを用いて得た医用画像と、該少なくとも一つの医用画像との差に関する情報を、異常部位に関する情報として生成することができる。また、例えば、表示制御部101-05は、上記少なくとも一つの医用画像から敵対的生成ネットワーク又はオートエンコーダを用いて得た医用画像と、該少なくとも一つの医用画像との差に関する情報を、異常部位に関する情報として表示部104に表示させることができる。 In these cases, the image processing unit 101-04 uses a medical image obtained using a generative adversarial network or an autoencoder for each of the different regions identified by segmentation processing, etc., and a medical image that is input to the generative adversarial network or autoencoder. Information regarding the difference from the medical image can be generated as information regarding the abnormal site. Thereby, the image processing unit 101-04 can be expected to detect an abnormal region at high speed and with high accuracy. Here, the autoencoder includes VAE, CAE, and the like. For example, the image processing unit 101-04 combines a medical image obtained from at least one medical image out of a plurality of medical images to be blended using an adversarial generative network or an autoencoder, and the at least one medical image. Information regarding the difference can be generated as information regarding the abnormal site. Further, for example, the display control unit 101-05 may display information regarding the difference between the at least one medical image and the at least one medical image obtained from the at least one medical image using the adversarial generative network or the autoencoder. This information can be displayed on the display unit 104 as information related to the above.

また、疾病眼では、疾病の種類に応じて画像特徴が異なる。そのため、上述した様々な実施形態や変形例において用いられる学習済モデルは、疾病の種類毎又は異常部位毎にそれぞれ生成・用意されてもよい。この場合には、例えば、画像処理装置101は、操作者からの被検眼の疾病の種類や異常部位等の入力(指示)に応じて、処理に用いる学習済モデルを選択することができる。なお、疾病の種類や異常部位毎に用意される学習済モデルは、網膜層の検出や領域ラベル画像等の生成に用いられる学習済モデルに限られず、例えば、画像の評価用のエンジンや解析用のエンジン等で用いられる学習済モデルであってもよい。このとき、画像処理装置101は、別に用意された学習済モデルを用いて、画像から被検眼の疾病の種類や異常部位を識別してもよい。この場合には、画像処理装置101は、当該別に用意された学習済モデルを用いて識別された疾病の種類や異常部位に基づいて、上記処理に用いる学習済モデルを自動的に選択することができる。なお、当該被検眼の疾病の種類や異常部位を識別するための学習済モデルは、断層画像や眼底画像等を入力データとし、疾病の種類やこれら画像における異常部位を出力データとした学習データのペアを用いて学習を行ってよい。ここで、学習データの入力データとしては、断層画像や眼底画像等を単独で入力データとしてもよいし、これらの組み合わせを入力データとしてもよい。 Furthermore, in a diseased eye, image characteristics differ depending on the type of disease. Therefore, the trained models used in the various embodiments and modifications described above may be generated and prepared for each type of disease or each abnormal site. In this case, for example, the image processing apparatus 101 can select a trained model to be used for processing in accordance with an input (instruction) from the operator regarding the type of disease, abnormal region, etc. of the eye to be examined. Note that the trained models prepared for each type of disease or abnormal site are not limited to trained models used for detecting retinal layers or generating area label images, etc., but are also used for image evaluation engines and analysis. The model may be a trained model used in an engine, etc. At this time, the image processing apparatus 101 may identify the type of disease or abnormal site of the eye to be examined from the image using a separately prepared trained model. In this case, the image processing device 101 may automatically select a trained model to be used for the above processing based on the type of disease or abnormal region identified using the separately prepared trained model. can. The trained model for identifying the disease type and abnormal area of the subject's eye uses tomographic images, fundus images, etc. as input data, and the training data uses the disease type and abnormal area in these images as output data. Learning may be performed using pairs. Here, as the input data of the learning data, a tomographic image, a fundus image, etc. may be used alone as input data, or a combination of these may be used as input data.

また、特に診断結果生成用の学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとする入力データ等も考えられる。また、異なる種類の複数の医療画像は、異なるモダリティ、異なる光学系、又は異なる原理等により取得されたものであれば何でもよい。 In addition, in particular, the trained model for generating diagnostic results may be a trained model obtained by training with training data that includes input data that is a set of multiple medical images of different types of predetermined parts of the subject. good. At this time, as input data included in the learning data, for example, input data including a set of a motion contrast frontal image and a brightness frontal image (or a brightness tomographic image) of the fundus can be considered. Further, as the input data included in the learning data, for example, input data including a set of a tomographic image of the fundus (B scan image) and a color fundus image (or a fluorescent fundus image) can be considered. Further, the plurality of medical images of different types may be any image as long as they are obtained using different modalities, different optical systems, or different principles.

また、特に診断結果生成用の学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の黄斑の三次元OCT画像(三次元断層画像)と眼底の視神経乳頭のサークルスキャン(又はラスタースキャン)断層画像とをセットとする入力データ等も考えられる。 In particular, the trained model for generating diagnostic results may be a trained model obtained by learning using learning data that includes input data that is a set of a plurality of medical images of different parts of the subject. At this time, as input data included in the learning data, for example, input data including a set of a tomographic image of the fundus (B-scan image) and a tomographic image of the anterior segment (B-scan image) can be considered. Furthermore, as input data included in the learning data, for example, input data that is a set of a three-dimensional OCT image (three-dimensional tomographic image) of the macula in the fundus and a circle scan (or raster scan) tomographic image of the optic disc in the fundus, etc. can also be considered.

なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。このとき、パノラマ画像のような広画角画像を学習データとして用いることにより、狭画角画像よりも情報量が多い等の理由から画像の特徴量を精度良く取得できる可能性があるため、各処理の結果を向上することができる。例えば、推定時(予測時)において、広画角画像における複数の位置で異常部位が検出された場合に、各異常部位の拡大画像を順次表示可能に構成させる。これにより、複数の位置における異常部位を効率よく確認することができるため、例えば、検者の利便性を向上することができる。このとき、例えば、異常部位が検出された広画角画像上の各位置を検者が選択可能に構成され、選択された位置における異常部位の拡大画像が表示されるように構成されてもよい。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。 Note that the input data included in the learning data may be a plurality of medical images of different parts and different types of the subject. At this time, the input data included in the learning data may be, for example, input data that includes a tomographic image of the anterior segment of the eye and a color fundus image. Further, the above-mentioned trained model may be a trained model obtained by learning using learning data including input data that is a set of a plurality of medical images of a predetermined region of a subject at different photographing angles of view. Further, the input data included in the learning data may be a combination of a plurality of medical images obtained by time-divisionally dividing a predetermined region into a plurality of regions, such as a panoramic image. At this time, by using wide-angle images such as panoramic images as learning data, it is possible to obtain image features with higher accuracy because they contain more information than narrow-angle images. Processing results can be improved. For example, at the time of estimation (at the time of prediction), when abnormal parts are detected at a plurality of positions in a wide-angle image, enlarged images of each abnormal part can be sequentially displayed. This makes it possible to efficiently confirm abnormal areas at multiple positions, thereby improving convenience for the examiner, for example. At this time, for example, the examiner may be configured to be able to select each position on the wide-angle image where an abnormal region is detected, and an enlarged image of the abnormal region at the selected position may be displayed. . Furthermore, the input data included in the learning data may be input data that is a set of a plurality of medical images of a predetermined region of the subject at different times.

また、上述した解析結果と診断結果と物体認識結果とセグメンテーション結果とのうち少なくとも1つの結果が表示される表示画面は、レポート画面に限らない。このような表示画面は、例えば、撮影確認画面、経過観察用の表示画面、及び撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されてもよい。例えば、上述した学習済モデルを用いて得た上記少なくとも1つの結果を撮影確認画面に表示させることにより、検者は、撮影直後であっても精度の良い結果を確認することができる。また、上述した低画質画像と高画質画像との表示の変更は、例えば、低画質画像の解析結果と高画質画像の解析結果との表示の変更であってもよい。 Furthermore, the display screen on which at least one of the above-mentioned analysis results, diagnosis results, object recognition results, and segmentation results is displayed is not limited to the report screen. Such display screens include, for example, at least one display screen such as a shooting confirmation screen, a display screen for progress observation, and a preview screen for various adjustments before shooting (a display screen on which various live video images are displayed). may be displayed. For example, by displaying the at least one result obtained using the trained model described above on the imaging confirmation screen, the examiner can confirm highly accurate results even immediately after imaging. Further, the above-described display change between a low-quality image and a high-quality image may be, for example, a change in display between an analysis result of a low-quality image and an analysis result of a high-quality image.

ここで、上述した様々な学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を機械学習モデルとして用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダ(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。また、学習データとは、入力データ及び出力データ(正解データ)のペアで構成される。ここで、学習データを教師データという場合もあるし、あるいは、正解データを教師データという場合もある。 Here, the various learned models described above can be obtained by machine learning using learning data. Machine learning includes, for example, deep learning that consists of multilayer neural networks. Further, for example, a convolutional neural network (CNN) can be used as a machine learning model for at least a portion of the multi-layer neural network. Further, a technique related to an autoencoder (self-encoder) may be used for at least a portion of the multi-layer neural network. Furthermore, a technique related to backpropagation (error backpropagation method) may be used for learning. However, machine learning is not limited to deep learning, and may be any type of learning that uses a model that can self-extract (express) features of learning data such as images through learning. Here, the machine learning model refers to a learning model using a machine learning algorithm such as deep learning. Further, a trained model is a model that has been trained (performed learning) using appropriate learning data in advance for a machine learning model based on an arbitrary machine learning algorithm. However, the trained model does not undergo any further learning, and additional learning can be performed on the trained model. Further, the learning data is composed of a pair of input data and output data (correct data). Here, the learning data may be referred to as teacher data, or the correct answer data may be referred to as teacher data.

なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本変形例では、学習部(不図示)の一例である画像処理部101-04による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPUまたはGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Note that the GPU can perform efficient calculations by processing more data in parallel. For this reason, when learning is performed multiple times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in this modification, a GPU is used in addition to the CPU for processing by the image processing unit 101-04, which is an example of a learning unit (not shown). Specifically, when a learning program including a learning model is executed, learning is performed by the CPU and GPU working together to perform calculations. Note that the processing of the learning section may be performed by only the CPU or GPU. Furthermore, the processing unit (estimation unit) that executes processing using the various learned models described above may also use a GPU, similar to the learning unit. Further, the learning section may include an error detection section and an updating section (not shown). The error detection unit obtains an error between output data output from the output layer of the neural network and correct data according to input data input to the input layer. The error detection unit may use a loss function to calculate the error between the output data from the neural network and the correct data. Furthermore, the updating section updates the connection weighting coefficients between the nodes of the neural network, etc., based on the error obtained by the error detection section, so that the error becomes smaller. This updating unit updates the connection weighting coefficients and the like using, for example, an error backpropagation method. The error backpropagation method is a method of adjusting connection weighting coefficients between nodes of each neural network so that the above-mentioned error is reduced.

また、高画質化やセグメンテーション等に用いられる機械学習モデルとしては、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU-net型の機械学習モデルが適用可能である。U-net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 In addition, machine learning models used for high image quality, segmentation, etc. have two functions: an encoder function consisting of multiple layers including multiple downsampling layers, and a decoder function consisting of multiple layers including multiple upsampling layers. A U-net type machine learning model having the following is applicable. In the U-net type machine learning model, position information (spatial information) that is made ambiguous in multiple layers configured as encoders is transferred to layers of the same dimension (layers that correspond to each other) in multiple layers configured as decoders. ) (e.g., using skip connections).

また、高画質化やセグメンテーション等に用いられる機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Further, as a machine learning model used for high image quality, segmentation, etc., for example, FCN (Fully Convolutional Network), SegNet, etc. can also be used. Alternatively, a machine learning model that performs object recognition in area units may be used depending on a desired configuration. As a machine learning model for object recognition, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Furthermore, YOLO (You Only Look Once) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used as a machine learning model that performs object recognition in area units.

また、機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。 Further, the machine learning model may be, for example, a capsule network (CapsNet). Here, in a general neural network, each unit (each neuron) is configured to output a scalar value, so that, for example, spatial information regarding the spatial positional relationship (relative position) between features in an image can be obtained. is configured to be reduced. Thereby, for example, learning can be performed such that the influence of local distortion or parallel movement of the image is reduced. On the other hand, in a capsule network, each unit (each capsule) is configured to output spatial information as a vector, so that, for example, spatial information is held. Thereby, for example, learning can be performed that takes into account the spatial positional relationship between features in an image.

また、高画質化エンジン(高画質化用の学習済モデル)は、高画質化エンジンにより生成された少なくとも1つの高画質画像を含む学習データを追加学習して得た学習済モデルであってもよい。このとき、高画質画像を追加学習用の学習データとして用いるか否かを、検者からの指示により選択可能に構成されてもよい。なお、これらの構成は、高画質化用の学習済モデルに限らず、上述した様々な学習済モデルに対しても適用可能である。また、上述した様々な学習済モデルの学習に用いられる正解データの生成には、ラベル付け(アノテーション)等の正解データを生成するための正解データ生成用の学習済モデルが用いられてもよい。このとき、正解データ生成用の学習済モデルは、検者がラベル付け(アノテーション)して得た正解データを(順次)追加学習することにより得られたものであってもよい。すなわち、正解データ生成用の学習済モデルは、ラベル付け前のデータを入力データとし、ラベル付け後のデータを出力データとする学習データを追加学習することにより得られたものであってもよい。また、動画像等のような連続する複数フレームにおいて、前後のフレームの物体認識やセグメンテーション等の結果を考慮して、結果の精度が低いと判定されたフレームの結果を修正するように構成されてもよい。このとき、検者からの指示に応じて、修正後の結果を正解データとして追加学習するように構成されてもよい。 In addition, the high image quality engine (trained model for high image quality) may be a trained model obtained by additionally learning training data that includes at least one high quality image generated by the high image quality engine. good. At this time, it may be possible to select whether or not to use the high-quality image as learning data for additional learning based on an instruction from the examiner. Note that these configurations are applicable not only to the trained model for high image quality but also to the various trained models described above. Moreover, a trained model for generating correct data for generating correct data such as labeling (annotation) may be used to generate correct data used for learning the various trained models described above. At this time, the trained model for generating correct answer data may be obtained by (sequentially) additionally learning correct answer data obtained by labeling (annotation) by the examiner. That is, the learned model for generating correct data may be obtained by additionally learning learning data in which unlabeled data is input data and labeled data is output data. In addition, in multiple consecutive frames such as a moving image, the system is configured to take into account the results of object recognition, segmentation, etc. of the previous and subsequent frames and correct the results of frames determined to have low accuracy. Good too. At this time, the corrected results may be additionally learned as correct data in response to instructions from the examiner.

なお、上述した様々な実施形態及び変形例において、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて被検眼の領域を検出する場合には、検出した領域毎に所定の画像処理を施すこともできる。例えば、硝子体領域、網膜領域、及び脈絡膜領域のうちの少なくとも2つの領域を検出する場合を考える。この場合には、検出された少なくとも2つの領域に対してコントラスト調整等の画像処理を施す際に、それぞれ異なる画像処理のパラメータを用いることで、各領域に適した調整を行うことができる。各領域に適した調整が行われた画像を表示することで、操作者は領域毎の疾病等をより適切に診断することができる。なお、検出された領域毎に異なる画像処理のパラメータを用いる構成については、例えば、学習済モデルを用いずに検出された被検眼の領域について同様に適用されてもよい。 In addition, in the various embodiments and modified examples described above, when detecting a region of the eye to be examined using a trained model for object recognition or a trained model for segmentation, predetermined image processing is performed for each detected region. You can also apply For example, consider a case where at least two of the vitreous region, retinal region, and choroid region are detected. In this case, when performing image processing such as contrast adjustment on at least two detected regions, by using different image processing parameters, it is possible to perform adjustment suitable for each region. By displaying images that have been adjusted appropriately for each region, the operator can more appropriately diagnose diseases and the like for each region. Note that the configuration in which different image processing parameters are used for each detected region may be similarly applied, for example, to regions of the eye to be examined that are detected without using a trained model.

(変形例4)
上述した様々な実施形態及び変形例におけるプレビュー画面において、ライブ動画像の少なくとも1つのフレーム毎に上述した学習済モデルが用いられるように構成されてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。
(Modification 4)
In the preview screen in the various embodiments and modifications described above, the learned model described above may be used for each at least one frame of a live video image. At this time, if a plurality of live moving images of different parts or types are displayed on the preview screen, a learned model corresponding to each live moving image may be used. With this, for example, even for live moving images, the processing time can be shortened, so the examiner can obtain highly accurate information before starting imaging. Therefore, for example, it is possible to reduce failures in re-imaging, etc., and thus it is possible to improve the accuracy and efficiency of diagnosis.

なお、複数のライブ動画像は、例えば、XYZ方向のアライメントのための前眼部の動画像、眼底観察光学系のフォーカス調整やOCTフォーカス調整のための眼底の正面動画像であってもよい。また、複数のライブ動画像は、例えば、OCTのコヒーレンスゲート調整(測定光路長と参照光路長との光路長差の調整)のための眼底の断層動画像等であってもよい。このとき、上述した物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された領域が所定の条件を満たすように、上述した各種調整が行われるように構成されてもよい。例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層等に関する値(例えば、コントラスト値あるいは強度値)が閾値を超える(あるいはピーク値になる)ように、OCTフォーカス調整等の各種調整が行われるように構成されてもよい。また、例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層が深さ方向における所定の位置になるように、OCTのコヒーレンスゲート調整が行われるように構成されてもよい。 Note that the plurality of live moving images may be, for example, a moving image of the anterior segment of the eye for alignment in the XYZ directions, or a frontal moving image of the fundus for focus adjustment of the fundus observation optical system or OCT focus adjustment. Further, the plurality of live moving images may be, for example, tomographic moving images of the fundus for OCT coherence gate adjustment (adjustment of the optical path length difference between the measurement optical path length and the reference optical path length). At this time, the above-mentioned various adjustments may be performed so that the region detected using the above-described trained model for object recognition or the trained model for segmentation satisfies predetermined conditions. For example, a value (for example, a contrast value or an intensity value) related to a predetermined retinal layer such as the vitreous region or RPE detected using a trained model for object recognition or a trained model for segmentation exceeds a threshold value ( Alternatively, the configuration may be such that various adjustments such as OCT focus adjustment are performed so that the peak value is reached. In addition, for example, OCT may be applied so that a predetermined retinal layer such as the vitreous region or RPE detected using a trained model for object recognition or a trained model for segmentation is at a predetermined position in the depth direction. It may be configured such that coherence gate adjustment is performed.

これらの場合には、画像処理装置101(あるいは画像処理部101-04)における高画質化部(不図示)は、学習済モデルを用いて、動画像について高画質化処理を行って、高画質な動画像を生成することができる。また、撮影制御部101-03は、高画質な動画像が表示された状態で、セグメンテーション処理等により特定した異なる領域のいずれかが表示領域における所定の位置になるように、参照ミラー221等の撮影範囲を変更する光学部材を駆動制御することができる。このような場合には、撮影制御部101-03は、精度の高い情報に基づいて、所望される領域が表示領域の所定の位置になるように自動的にアライメント処理を行うことができる。なお、撮影範囲を変更する光学部材としては、例えばコヒーレンスゲート位置を調整する光学部材であってよく、具体的には参照ミラー221等であってよい。また、コヒーレンスゲート位置は、測定光路長及び参照光路長の光路長差を変更する光学部材によって調整されることができ、当該光学部材は、例えば、不図示の測定光の光路長を変更するためのミラー等であってもよい。なお、撮影範囲を変更する光学部材は、例えばステージ部100-2であってもよい。 In these cases, the image quality improvement unit (not shown) in the image processing device 101 (or image processing unit 101-04) performs image quality improvement processing on the moving image using the trained model to achieve high image quality. It is possible to generate moving images. The imaging control unit 101-03 also controls the reference mirror 221 or the like so that one of the different areas identified by segmentation processing or the like is at a predetermined position in the display area while a high-quality moving image is displayed. It is possible to drive and control the optical member that changes the photographing range. In such a case, the imaging control unit 101-03 can automatically perform alignment processing based on highly accurate information so that the desired area is located at a predetermined position in the display area. Note that the optical member that changes the imaging range may be, for example, an optical member that adjusts the coherence gate position, and specifically may be the reference mirror 221 or the like. Further, the coherence gate position can be adjusted by an optical member that changes the optical path length difference between the measurement optical path length and the reference optical path length. It may also be a mirror, etc. Note that the optical member that changes the photographing range may be, for example, the stage section 100-2.

また、上述した学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部101-02に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部101-02に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体領域を好適に観察したい場合には、フレーム上に硝子体領域ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化用の学習済モデルにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成されてもよい。 Further, the moving image to which the above-described trained model can be applied is not limited to a live moving image, but may be a moving image stored (saved) in the storage unit 101-02, for example. At this time, for example, a moving image obtained by aligning at least one frame of the tomographic moving image of the fundus oculi stored (saved) in the storage unit 101-02 may be displayed on the display screen. For example, if it is desired to observe the vitreous region in a suitable manner, a reference frame may be selected based on a condition such that as much of the vitreous region as possible exists on the frame. At this time, each frame is a tomographic image (B scan image) in the XZ direction. Then, a moving image in which other frames are aligned in the XZ directions with respect to the selected reference frame may be displayed on the display screen. At this time, for example, it may be configured to continuously display high-quality images (high-quality frames) that are sequentially generated by a learned model for improving image quality for each at least one frame of a moving image.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されてもよいし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層画像(Bスキャン像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、二次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 Note that as the above-mentioned method for positioning between frames, the same method may be applied for the positioning method in the X direction and the method for positioning in the Z direction (depth direction), or different methods may be applied. may be applied. Furthermore, alignment in the same direction may be performed multiple times using different techniques; for example, rough alignment may be followed by precise alignment. In addition, as a method for positioning, for example, positioning using retinal layer boundaries obtained by segmenting a tomographic image (B-scan image) (coarse in the Z direction), and positioning using multiple retinal layer boundaries obtained by dividing a tomographic image Positioning (accurate in the X and Z directions) using correlation information (similarity) between the region and the reference image, and one-dimensional projection images generated for each tomographic image (B scan image) (in the X direction) ) alignment, alignment (in the X direction) using a two-dimensional front image, etc. Alternatively, the configuration may be such that rough alignment is performed pixel by pixel, and then fine alignment is performed subpixel by subpixel.

ここで、各種の調整中では、被検眼の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。なお、高画質化ボタンは、高画質化処理の実行を指定するためのボタンである。もちろん、高画質化ボタンは、高画質画像の表示を指示するためのボタンであってもよい。 Here, during various adjustments, there is a possibility that the object to be photographed, such as the retina of the eye to be examined, has not yet been successfully imaged. For this reason, since there is a large difference between the medical images input to the trained model and the medical images used as learning data, there is a possibility that high-quality images cannot be obtained with high accuracy. Therefore, when an evaluation value such as image quality evaluation of a tomographic image (B scan) exceeds a threshold value, display of high-quality moving images (continuous display of high-quality frames) may be automatically started. Further, when an evaluation value such as image quality evaluation of a tomographic image (B scan) exceeds a threshold value, the image quality improvement button may be changed to a state (active state) that can be specified by the examiner. Note that the image quality improvement button is a button for specifying execution of image quality improvement processing. Of course, the high-quality image button may be a button for instructing display of a high-quality image.

また、走査パターン等が異なる撮影モード毎に異なる高画質化用の学習済モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化用の学習済モデルが用いられてもよい。 In addition, a different trained model for high image quality is prepared for each shooting mode with a different scanning pattern, etc., and the trained model for high image quality corresponding to the selected shooting mode is selected. Good too. Alternatively, one trained model for improving image quality obtained by learning training data including various medical images obtained in different imaging modes may be used.

(変形例5)
上述した様々な実施形態及び変形例においては、学習済モデルが追加学習中である場合、追加学習中の学習済モデル自体を用いて出力(推論・予測)することが難しい可能性がある。このため、追加学習中の学習済モデルに対する医用画像の入力を禁止することがよい。また、追加学習中の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意してもよい。このとき、追加学習中には、予備の学習済モデルに対して医用画像の入力が実行できるようにすることがよい。そして、追加学習が完了した後に、追加学習後の学習済モデルを評価し、問題なければ、予備の学習済モデルから追加学習後の学習済モデルに置き換えればよい。また、問題があれば、予備の学習済モデルが用いられるようにしてもよい。なお、学習済モデルの評価としては、例えば、高画質化用の学習済モデルで得た高画質画像を他の種類の画像と分類するための分類用の学習済モデルが用いられてもよい。分類用の学習済モデルは、例えば、高画質化用の学習済モデルで得た高画質画像と低画質画像とを含む複数の画像を入力データとし、これらの画像の種類がラベル付け(アノテーション)されたデータを正解データとして含む学習データを学習して得た学習済モデルであってもよい。このとき、推定時(予測時)の入力データの画像の種類が、学習時の正解データに含まれる画像の種類毎の確からしさを示す情報(例えば、割合を示す数値)と合わせて表示されてもよい。なお、分類用の学習済モデルの入力データとしては、上記の画像以外にも、複数の低画質画像の重ね合わせ処理(例えば、位置合わせして得た複数の低画質画像の平均化処理)等によって、高コントラスト化やノイズ低減等が行われたような高画質な画像が含まれてもよい。
(Modification 5)
In the various embodiments and modifications described above, when a trained model is undergoing additional learning, it may be difficult to output (inference/predict) using the trained model itself that is undergoing additional learning. For this reason, it is preferable to prohibit the input of medical images to a learned model that is undergoing additional learning. Further, another trained model that is the same as the trained model that is currently being additionally trained may be prepared as a preliminary trained model. At this time, during additional learning, it is preferable to allow medical images to be input to the preliminary trained model. Then, after the additional learning is completed, the trained model after the additional learning is evaluated, and if there is no problem, the preliminary trained model may be replaced with the trained model after the additional learning. Furthermore, if there is a problem, a preliminary trained model may be used. Note that for the evaluation of the trained model, for example, a trained model for classification for classifying high-quality images obtained by the trained model for high image quality from other types of images may be used. For example, a trained model for classification uses as input data multiple images including high-quality images and low-quality images obtained by a trained model for high image quality, and the types of these images are labeled (annotated). The model may be a trained model obtained by learning training data that includes the correct data as correct data. At this time, the type of image of the input data at the time of estimation (during prediction) is displayed together with information indicating the probability of each type of image included in the correct data at the time of learning (for example, a numerical value indicating a percentage). Good too. In addition to the above-mentioned images, the input data for the trained model for classification may also include superposition processing of multiple low-quality images (for example, averaging processing of multiple low-quality images obtained by positioning), etc. may include high-quality images that have undergone high contrast, noise reduction, and the like.

また、撮影部位毎に学習して得た学習済モデルを選択的に利用できるようにしてもよい。具体的には、第1の撮影部位(肺、被検眼等)を含む学習データを用いて得た第1の学習済モデルと、第1の撮影部位とは異なる第2の撮影部位を含む学習データを用いて得た第2の学習済モデルと、を含む複数の学習済モデルのいずれかを選択する選択手段(不図示)を有してもよい。このとき、画像処理部101-04は、選択された学習済モデルに対して追加学習として実行する制御手段(不図示)を有してもよい。制御手段は、操作者からの指示に応じて、選択された学習済モデルに対応する撮影部位と該撮影部位の撮影画像とがペアとなるデータを検索し、検索して得たデータを学習データとする学習を、選択された学習済モデルに対して追加学習として実行することができる。なお、選択された学習済モデルに対応する撮影部位は、データのヘッダの情報から取得したり、検者により手動入力されたりしたものであってよい。また、データの検索は、例えば、病院や研究所等の外部施設のサーバ等からネットワークを介して行われてよい。これにより、学習済モデルに対応する撮影部位の撮影画像を用いて、撮影部位毎に効率的に追加学習することができる。 Further, it may be possible to selectively use a learned model obtained by learning for each part to be imaged. Specifically, a first trained model obtained using learning data including a first imaging region (lung, eye to be examined, etc.) and a learning model including a second imaging region different from the first imaging region. The second trained model obtained using the data may include a selection means (not shown) for selecting one of a plurality of trained models including the second trained model obtained using the data. At this time, the image processing unit 101-04 may include a control unit (not shown) that performs additional learning on the selected trained model. The control means searches for data in which a photographed region corresponding to the selected trained model and a photographed image of the photographed region are paired, and uses the data obtained by the search as learning data. This learning can be performed as additional learning on the selected trained model. Note that the imaged region corresponding to the selected learned model may be obtained from information in the header of the data, or may be manually input by the examiner. Further, the data search may be performed via a network, for example, from a server in an external facility such as a hospital or research institute. Thereby, additional learning can be efficiently performed for each imaged body part using the photographed images of the body part corresponding to the trained model.

なお、選択手段及び制御手段は、画像処理部101-04のCPUやMPU等のプロセッサによって実行されるソフトウェアモジュールにより構成されてよい。また、選択手段及び制御手段は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 Note that the selection means and the control means may be constituted by a software module executed by a processor such as a CPU or an MPU of the image processing section 101-04. Furthermore, the selection means and the control means may be constituted by a circuit that performs a specific function, such as an ASIC, or an independent device.

また、追加学習用の学習データを、病院や研究所等の外部施設のサーバ等からネットワークを介して取得する際には、改ざんや、追加学習時のシステムトラブル等による信頼性低下を低減したい。そこで、デジタル署名やハッシュ化による一致性の確認を行うことで、追加学習用の学習データの正当性を検出してもよい。これにより、追加学習用の学習データを保護することができる。このとき、デジタル署名やハッシュ化による一致性の確認した結果として、追加学習用の学習データの正当性が検出できなかった場合には、その旨の警告を行い、その学習データによる追加学習を行わない。なお、サーバは、その設置場所を問わず、例えば、クラウドサーバ、フォグサーバ、エッジサーバ等のどのような形態でもよい。 Furthermore, when acquiring learning data for additional learning via a network from a server in an external facility such as a hospital or research institute, it is desirable to reduce reliability degradation due to tampering or system trouble during additional learning. Therefore, the validity of the learning data for additional learning may be detected by checking the consistency using a digital signature or hashing. Thereby, learning data for additional learning can be protected. At this time, if the validity of the learning data for additional learning cannot be detected as a result of checking the consistency using digital signatures and hashing, a warning to that effect will be issued and additional learning will be performed using that learning data. do not have. Note that the server may take any form, such as a cloud server, fog server, or edge server, regardless of its installation location.

(変形例6)
上述した様々な実施形態及び変形例において、検者からの指示は、手動による指示(例えば、ユーザーインターフェース等を用いた指示)以外にも、音声等による指示であってもよい。このとき、例えば、機械学習により得た音声認識エンジン(音声認識モデル、音声認識用の学習済モデル)を含む機械学習エンジンが用いられてもよい。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力による指示であってもよい。このとき、例えば、機械学習により得た文字認識エンジン(文字認識モデル、文字認識用の学習済モデル)を含む機械学習エンジンが用いられてもよい。また、検者からの指示は、ジェスチャー等による指示であってもよい。このとき、機械学習により得たジェスチャー認識エンジン(ジェスチャー認識モデル、ジェスチャー認識用の学習済モデル)を含む機械学習エンジンが用いられてもよい。
(Modification 6)
In the various embodiments and modified examples described above, the instructions from the examiner may be not only manual instructions (for example, instructions using a user interface or the like) but also instructions by voice or the like. At this time, for example, a machine learning engine including a speech recognition engine (speech recognition model, trained model for speech recognition) obtained by machine learning may be used. Further, the manual instruction may be an instruction by inputting characters using a keyboard, touch panel, or the like. At this time, for example, a machine learning engine including a character recognition engine (character recognition model, trained model for character recognition) obtained by machine learning may be used. Further, the instruction from the examiner may be an instruction using a gesture or the like. At this time, a machine learning engine including a gesture recognition engine (gesture recognition model, trained model for gesture recognition) obtained by machine learning may be used.

また、検者からの指示は、表示部104における表示画面上の検者の視線検出結果等であってもよい。視線検出結果は、例えば、表示部104における表示画面の周辺から撮影して得た検者の動画像を用いた瞳孔検出結果であってもよい。このとき、動画像からの瞳孔検出は、上述したような物体認識エンジンを用いてもよい。また、検者からの指示は、脳波、体を流れる微弱な電気信号等による指示であってもよい。 Further, the instruction from the examiner may be the result of detecting the examiner's line of sight on the display screen of the display unit 104 or the like. The line of sight detection result may be, for example, a pupil detection result using a moving image of the examiner taken from the periphery of the display screen on the display unit 104. At this time, the pupil detection from the moving image may be performed using the object recognition engine as described above. Further, the instructions from the examiner may be instructions based on brain waves, weak electrical signals flowing through the body, or the like.

このような場合、例えば、学習データとしては、上述したような種々の学習済モデルの処理による結果の表示の指示を示す文字データ又は音声データ(波形データ)等を入力データとし、種々の学習済モデルの処理による結果等を実際に表示部104に表示させるための実行命令を正解データとする学習データであってもよい。また、学習データとしては、例えば、高画質化用の学習済モデルで得た高画質画像の表示の指示を示す文字データ又は音声データ等を入力データとし、高画質画像の表示の実行命令及び高画質化ボタンをアクティブ状態に変更するための実行命令を正解データとする学習データであってもよい。もちろん、学習データとしては、例えば、文字データ又は音声データ等が示す指示内容と実行命令内容とが互いに対応するものであれば何でもよい。また、音響モデルや言語モデル等を用いて、音声データから文字データに変換してもよい。また、複数のマイクで得た波形データを用いて、音声データに重畳しているノイズデータを低減する処理を行ってもよい。また、文字又は音声等による指示と、マウス、タッチパネル等による指示とを、検者からの指示に応じて選択可能に構成されてもよい。また、文字又は音声等による指示のオン・オフを、検者からの指示に応じて選択可能に構成されてもよい。 In such a case, for example, the learning data may be text data or audio data (waveform data) indicating instructions for displaying the results of processing the various trained models as described above, and The learning data may be an execution command for actually displaying the results of model processing on the display unit 104 as correct data. In addition, as input data, for example, character data or voice data indicating instructions for displaying a high-quality image obtained by a trained model for high-quality images are used as input data, and an execution command for displaying a high-quality image and a high-quality image are used as input data. The learning data may be the correct data that is an execution command for changing the image quality button to the active state. Of course, any learning data may be used as long as the instruction content and the execution command content indicated by character data or audio data correspond to each other, for example. Furthermore, audio data may be converted into character data using an acoustic model, a language model, or the like. Furthermore, processing may be performed to reduce noise data superimposed on audio data using waveform data obtained by a plurality of microphones. Further, instructions using text or voice, etc., and instructions using a mouse, touch panel, etc. may be selectable in accordance with instructions from the examiner. Further, the device may be configured to be able to select whether to turn on or off instructions using text, voice, etc. in accordance with instructions from the examiner.

ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも1層には、例えば、再帰型ニューラルネットワーク(RNN:Recurrernt Neural Network)を用いることができる。ここで、本変形例に係る機械学習モデルの一例として、時系列情報を扱うニューラルネットワークであるRNNに関して、図9(a)及び(b)を参照して説明する。また、RNNの一種であるLong short-term memory(以下、LSTM)に関して、図10(a)及び(b)を参照して説明する。 Here, machine learning includes deep learning as described above, and for example, a recurrent neural network (RNN) can be used for at least one layer of a multilayer neural network. Here, as an example of a machine learning model according to this modification, an RNN, which is a neural network that handles time-series information, will be described with reference to FIGS. 9(a) and (b). Further, a long short-term memory (hereinafter referred to as LSTM), which is a type of RNN, will be explained with reference to FIGS. 10(a) and (b).

図9(a)は、機械学習モデルであるRNNの構造を示す。RNN3520は、ネットワークにループ構造を持ち、時刻tにおいてデータx3510を入力し、データh3530を出力する。RNN3520はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図9(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx3510にはN個(Params1~ParamsN)のデータが含まれる。また、RNN3520より出力されるデータh3530には入力データに対応するN個(Params1~ParamsN)のデータが含まれる。 FIG. 9(a) shows the structure of RNN, which is a machine learning model. The RNN 3520 has a loop structure in its network, inputs data x t 3510 at time t, and outputs data h t 3530. Since the RNN 3520 has a loop function in the network, it is possible to take over the state at the current time to the next state, so it can handle time-series information. FIG. 9(b) shows an example of input/output of the parameter vector at time t. The data x t 3510 includes N pieces of data (Params1 to ParamsN). Furthermore, the data h t 3530 output from the RNN 3520 includes N pieces of data (Params1 to ParamsN) corresponding to the input data.

しかし、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができないため、LSTMが用いられることがある。LSTMは、忘却ゲート、入力ゲート、及び出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図10(a)にLSTMの構造を示す。LSTM3540において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct-1と出力データht-1である。なお、図の小文字(c、h、x)はベクトルを表している。 However, since RNN cannot handle long-term information during error backpropagation, LSTM is sometimes used. LSTM can learn long-term information by providing a forgetting gate, an input gate, and an output gate. Here, the structure of LSTM is shown in FIG. 10(a). In the LSTM 3540, the information that the network takes over at the next time t is the internal state c t-1 of the network called a cell and the output data h t-1 . Note that lowercase letters (c, h, x) in the figure represent vectors.

次に、図10(b)にLSTM3540の詳細を示す。図10(b)において、FGは忘却ゲートネットワーク、IGは入力ゲートネットワーク、OGは出力ゲートネットワークを示し、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。CUは、セル更新候補ネットワークであり、活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。 Next, details of the LSTM3540 are shown in FIG. 10(b). In FIG. 10(b), FG is a forgetting gate network, IG is an input gate network, and OG is an output gate network, each of which is a sigmoid layer. Therefore, a vector in which each element has a value between 0 and 1 is output. The forgetting gate network FG determines how much past information to retain, and the input gate network IG determines which value to update. CU is a cell update candidate network and an activation function tanh layer. This creates a vector of new candidate values that is added to the cell. The output gate network OG selects the elements of the cell candidates and selects how much information to convey at the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。例えば、ネットワーク間の結合を変更してもよい。また、LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。また、検者からの指示が文字又は音声等による入力の場合には、自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。また、検者に対して文字又は音声等による出力で応答する対話エンジン(対話モデル、対話用の学習済モデル)が適用されてもよい。 Note that since the LSTM model described above is a basic form, it is not limited to the network shown here. For example, the coupling between networks may be changed. Furthermore, instead of LSTM, QRNN (Quasi Recurrent Neural Network) may be used. Furthermore, the machine learning model is not limited to neural networks, and boosting, support vector machines, etc. may also be used. Furthermore, if the examiner's instructions are input by text or voice, techniques related to natural language processing (for example, sequence to sequence) may be applied. Further, a dialogue engine (a dialogue model, a trained model for dialogue) that responds to the examiner by outputting text or voice may be applied.

(変形例7)
上述した様々な実施形態及び変形例において、高画質画像等は、検者からの指示に応じて記憶部101-02に保存されてもよい。このとき、高画質画像等を保存するための検者からの指示の後、ファイル名の登録の際に、推奨のファイル名として、ファイル名のいずれかの箇所(例えば、最初の箇所、最後の箇所)に、高画質化用の学習済モデルを用いた処理(高画質化処理)により生成された画像であることを示す情報(例えば、文字)を含むファイル名が、検者からの指示に応じて編集可能な状態で表示されてもよい。
(Modification 7)
In the various embodiments and modifications described above, high-quality images and the like may be stored in the storage unit 101-02 according to instructions from the examiner. At this time, after receiving instructions from the examiner to save high-quality images, etc., when registering the file name, select any part of the file name (for example, the first part, the last part, etc.) as the recommended file name. If the file name contains information (e.g., characters) indicating that the image was generated by processing using a trained model for high image quality (high image quality processing) in The information may be displayed in an editable state as required.

また、レポート画面等の種々の表示画面において、表示部104に高画質画像を表示させる際に、表示されている画像が高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示が、高画質画像とともに表示されてもよい。この場合には、検者は、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。また、高画質化用の学習済モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルを用いた処理により生成された結果であることを示す表示が、その結果とともに表示されてもよい。 In addition, when displaying a high-quality image on the display unit 104 on various display screens such as a report screen, the displayed image may be a high-quality image generated by processing using a trained model for improving image quality. A display indicating that this is the case may be displayed together with the high-quality image. In this case, the display allows the examiner to easily identify that the displayed high-quality image is not the image obtained by photography, which reduces misdiagnosis and improves diagnostic efficiency. be able to. Note that the display indicating that the image is a high-quality image generated by processing using a trained model for high-quality image is a display that allows the input image to be distinguished from the high-quality image generated by the processing. It may take any form. Furthermore, in addition to processing using trained models for high image quality, processing using various trained models such as those described above can also be performed using the results generated by processing using that type of trained model. An indication may be displayed along with the result.

このとき、レポート画面等の表示画面は、検者からの指示に応じて、画像データとして記憶部101-02に保存されてもよい。例えば、高画質化画像等と、これらの画像が高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示とが並んだ1つの画像としてレポート画面が記憶部101-02に保存されてもよい。 At this time, the display screen such as the report screen may be stored in the storage unit 101-02 as image data in accordance with instructions from the examiner. For example, a report screen may be stored as a single image in which high-quality images are lined up with a display indicating that these images are high-quality images generated by processing using a trained model for high-quality images. It may be stored in the section 101-02.

また、高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示について、高画質化用の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部104に表示されてもよい。当該表示としては、学習データの入力データと正解データの種類の説明や、入力データと正解データに含まれる撮影部位等の正解データに関する任意の表示を含んでよい。なお、高画質化用の学習済モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部104に表示されてもよい。 In addition, regarding the display indicating that the image is a high-quality image generated by processing using a trained model for high image quality, what kind of training data was used to train the trained model for high image quality? An indication indicating whether there is a file may be displayed on the display unit 104. The display may include an explanation of the types of the input data and correct data of the learning data, and any display related to the correct data such as the imaged body part included in the input data and the correct data. Note that not only processing using a trained model for high image quality, but also processing using various trained models such as those mentioned above, depends on what kind of training data that type of trained model is used for learning. An indication may be displayed on the display unit 104 to indicate whether or not the information is correct.

また、高画質化用の学習済モデルを用いた処理により生成された画像であることを示す情報(例えば、文字)を、高画質画像等に重畳した状態で表示又は保存されるように構成されてもよい。このとき、画像上に重畳する箇所は、撮影対象となる注目部位等が表示されている領域には重ならない領域(例えば、画像の端)であればどこでもよい。また、重ならない領域を判定し、判定された領域に重畳させてもよい。 Additionally, information indicating that the image is generated by processing using a trained model for high image quality (for example, text) is displayed or saved in a state superimposed on the high-quality image, etc. It's okay. At this time, the location to be superimposed on the image may be any region (for example, the edge of the image) that does not overlap with the region in which the region of interest to be photographed is displayed. Alternatively, a non-overlapping area may be determined and the area may be overlapped with the determined area.

また、レポート画面の初期表示画面として、高画質化ボタンがアクティブ状態(高画質化処理がオン)となるようにデフォルト設定されている場合には、検者からの指示に応じて、高画質画像等を含むレポート画面に対応するレポート画像が外部記憶部102等のサーバに送信されるように構成されてもよい。また、高画質化ボタンがアクティブ状態となるようにデフォルト設定されている場合には、検査終了時(例えば、検者からの指示に応じて、撮影確認画面やプレビュー画面からレポート画面に変更された場合)に、高画質画像等を含むレポート画面に対応するレポート画像がサーバに(自動的に)送信されるように構成されてもよい。このとき、デフォルト設定における各種設定(例えば、レポート画面の初期表示画面におけるEn-Face画像の生成のための深度範囲、解析マップの重畳の有無、高画質画像か否か、経過観察用の表示画面か否か等の少なくとも1つに関する設定)に基づいて生成されたレポート画像がサーバに送信されるように構成されもよい。 In addition, if the default setting is such that the high-quality button is activated (high-quality processing is turned on) as the initial display screen of the report screen, high-quality images will be displayed in response to instructions from the examiner. The report image corresponding to the report screen including the above may be configured to be transmitted to a server such as the external storage unit 102. In addition, if the default setting is such that the high image quality button is activated, it will be possible to change the image quality at the end of the examination (for example, when the imaging confirmation screen or preview screen is changed to the report screen in response to instructions from the examiner). case), the report image corresponding to the report screen including a high-quality image etc. may be configured to be (automatically) transmitted to the server. At this time, various settings in the default settings (for example, the depth range for generating the En-Face image on the initial display screen of the report screen, whether or not the analysis map is superimposed, whether or not it is a high-quality image, the display screen for follow-up observation) The report image generated based on at least one setting such as whether or not the report image is sent to the server may be configured.

(変形例8)
上述した様々な実施形態及び変形例において、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルで得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、セグメンテーション結果を示す画像)を、第1の種類とは異なる第2の種類の学習済モデルに入力してもよい。このとき、第2の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、セグメンテーション結果)が生成されるように構成されてもよい。
(Modification 8)
In the various embodiments and modifications described above, images obtained with the first type of trained model among the various trained models described above (e.g., high-quality images, analysis maps, etc. images, images showing object recognition results, images showing segmentation results) may be input to a second type of trained model that is different from the first type. At this time, the configuration may be such that results (for example, analysis results, diagnosis results, object recognition results, and segmentation results) are generated by processing the second type of learned model.

また、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、セグメンテーション結果)を用いて、第1の種類の学習済モデルに入力した画像から、第1の種類とは異なる第2の種類の学習済モデルに入力する画像を生成してもよい。このとき、生成された画像は、第2の種類の学習済モデルにより処理する画像として適した画像である可能性が高い。このため、生成された画像を第2の種類の学習済モデルに入力して得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、セグメンテーション結果を示す画像)の精度を向上することができる。 Furthermore, among the various trained models described above, the results of the processing of the first type of trained model (for example, analysis results, diagnosis results, object recognition results, segmentation results) are used to generate the first type of trained model. An image to be input to a second type of trained model different from the first type may be generated from an image input to the trained model. At this time, the generated image is highly likely to be an image suitable for processing by the second type of trained model. For this reason, images obtained by inputting the generated images to the second type of trained model (for example, high-quality images, images showing analysis results such as analysis maps, images showing object recognition results, and segmentation results) The accuracy of images shown) can be improved.

また、上述したような種々の学習済モデルは、被検体の二次元の医用画像を含む学習データを学習して得た学習済モデルであってもよいし、また、被検体の三次元の医用画像を含む学習データを学習して得た学習済モデルであってもよい。 Further, the various trained models described above may be trained models obtained by learning training data including two-dimensional medical images of the subject, or may be trained models obtained by learning training data including two-dimensional medical images of the subject. The model may be a trained model obtained by learning training data including images.

また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の画像が、既に機械学習等によって該複数の画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。例えば、画像処理部101-04は、(高画質化用の学習済モデルとは異なる)類似症例画像検索用の学習済モデルを用いて、ブレンド処理される複数の医用画像のうち少なくとも一つの医用画像から、該少なくとも一つの医用画像に関連する類似症例画像の検索を行うことができる。また、例えば、表示制御部101-05は、上記少なくとも一つの医用画像から類似症例画像検索用の学習済モデルを用いて得た類似症例画像を表示部104に表示させることができる。 Further, a similar case image search may be performed using an external database stored in a server or the like using the analysis results, diagnosis results, etc. obtained by processing the learned model as described above as a search key. In addition, in cases where multiple images stored in a database have already been managed with the feature values of each of the multiple images attached as additional information through machine learning, etc., the image itself can be used as the search key. A similar case image search engine (similar case image search model, trained model for similar case image search) may be used. For example, the image processing unit 101-04 uses a trained model for similar case image retrieval (different from a trained model for high image quality) to process at least one medical image among the plurality of medical images to be blended. Similar case images related to the at least one medical image can be searched from the images. Further, for example, the display control unit 101-05 can cause the display unit 104 to display a similar case image obtained from the at least one medical image using a learned model for similar case image search.

(変形例9)
上述した様々な実施形態及び変形例におけるモーションコントラストデータの生成処理は、断層画像の輝度値に基づいて行われる構成に限られない。上記各種処理は、断層画像撮影装置100で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データに対して適用されてよい。これらの場合も、上記構成と同様の効果を奏することができる。例えば、分割手段として光カプラーを使用したファイバー光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、断層画像撮影装置100の構成は、上記の構成に限られず、断層画像撮影装置100に含まれる構成の一部を断層画像撮影装置100と別体の構成としてもよい。また、上記の構成では、断層画像撮影装置100の干渉光学系としてマイケルソン型干渉計の構成が用いられているが、干渉光学系の構成はこれに限られない。例えば、断層画像撮影装置100の干渉光学系は、マッハツェンダー干渉計の構成を有していてもよい。また、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD-OCT)装置について述べられているが、OCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS-OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine-OCT装置(あるいはSS-Line-OCT装置)に対して本発明を適用することもできる。また、エリア光を用いたFull Field-OCT装置(あるいはSS-Full Field-OCT装置)にも本発明を適用することもできる。また、画像処理部101-04は、断層画像撮影装置100で取得された干渉信号や画像処理部101-04で生成された三次元断層画像等を取得しているが、画像処理部101-04がこれらの信号や画像を取得する構成はこれに限られない。例えば、画像処理部101-04は、LAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。
(Modification 9)
The motion contrast data generation processing in the various embodiments and modifications described above is not limited to a configuration in which it is performed based on the brightness value of a tomographic image. The various processes described above are performed on tomographic data including an interference signal acquired by the tomographic imaging apparatus 100, a signal obtained by performing Fourier transform on the interference signal, a signal obtained by performing arbitrary processing on the signal, and a tomographic image based on these. may be applied to In these cases as well, the same effects as the above configuration can be achieved. For example, although a fiber optic system using an optical coupler is used as the splitting means, a spatial optical system using a collimator and a beam splitter may also be used. Further, the configuration of the tomographic image capturing apparatus 100 is not limited to the above configuration, and a part of the configuration included in the tomographic image capturing apparatus 100 may be configured separately from the tomographic image capturing apparatus 100. Further, in the above configuration, a Michelson interferometer configuration is used as the interference optical system of the tomographic imaging apparatus 100, but the configuration of the interference optical system is not limited to this. For example, the interference optical system of the tomographic imaging apparatus 100 may have a Mach-Zehnder interferometer configuration. Furthermore, although a spectral domain OCT (SD-OCT) device using an SLD as a light source is described as an OCT device, the configuration of the OCT device is not limited to this. For example, the present invention can be applied to any other type of OCT device, such as a wavelength swept OCT (SS-OCT) device that uses a wavelength swept light source that can sweep the wavelength of emitted light. Further, the present invention can also be applied to a Line-OCT device (or SS-Line-OCT device) using line light. Further, the present invention can also be applied to a Full Field-OCT device (or SS-Full Field-OCT device) using area light. Further, the image processing unit 101-04 acquires interference signals acquired by the tomographic imaging apparatus 100, three-dimensional tomographic images generated by the image processing unit 101-04, etc. However, the configuration for acquiring these signals and images is not limited to this. For example, the image processing unit 101-04 may acquire these signals from a server or imaging device connected via a LAN, WAN, or the Internet.

なお、学習済モデルは、画像処理部101-04に設けられることができる。学習済モデルは、例えば、CPU等のプロセッサによって実行されるソフトウェアモジュール等で構成されることができる。また、学習済モデルは、画像処理部101-04と接続される別のサーバ等に設けられてもよい。この場合には、画像処理部101-04は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバに接続することで、学習済モデルを用いて高画質化処理を行うことができる。 Note that the trained model can be provided in the image processing unit 101-04. The trained model can be configured of, for example, a software module executed by a processor such as a CPU. Further, the trained model may be provided in another server or the like connected to the image processing unit 101-04. In this case, the image processing unit 101-04 can perform high image quality processing using the trained model by connecting to a server provided with the trained model via any network such as the Internet.

また、モーションコントラストデータを生成するプロセスの中で、適宜、高画質化エンジンを適用することができる。例えば、断層画像用に準備した高画質化エンジンを用い、脱相関値を求める前の断層画像をあらかじめ高画質化しておいてもよい。さらに、NORが3以上の場合には、少なくとも2つのモーションコントラストデータが生成可能であり、複数のモーションコントラストデータを平均化するなどによって高画質化することも可能である。このとき、平均化処理前の夫々のモーションコントラストデータをあらかじめ高画質化エンジンによって高画質化しておいてもよい。あるいは、平均化した後のモーションコントラストデータに対して高画質化エンジンを適用してもよい。さらに、モーションコントラストデータをボリュームデータ(三次元モーションコントラストデータ)とすることで、周知の3D-UNetなどであらかじめ構成された3次元データ用の高画質化エンジンによって、ボリュームデータを高画質化してもよい。加えて、NORが3以上の場合には、少なくとも2つの三次元モーションコントラストデータを生成することもでき、それらを平均化するなどで最終的なボリュームデータとしてもよい。このとき、平均化する前のボリュームデータと平均化処理後のボリュームデータとの少なくとも一つに高画質化エンジンを適用してもよい。さらに、複数のボリュームデータからそれぞれOCTA正面画像を生成した後に、OCTA正面画像を平均化処理することも可能である。同様に、平均化する前のOCTA正面画像と平均化処理後のOCTA正面画像の少なくとも一つに対して、高画質化エンジンを適用可能である。このように、モーションコントラストデータからOCTA正面画像を生成する際に、特にNORが3以上においては、種々の変形が可能であり、高画質化エンジンは2次元データ、3次元データを問わず、どのようなデータに対して適用されてもよい。 Further, in the process of generating motion contrast data, a high image quality engine can be applied as appropriate. For example, the image quality of the tomographic image before determining the decorrelation value may be increased in advance by using a high-quality engine prepared for tomographic images. Further, when the NOR is 3 or more, at least two pieces of motion contrast data can be generated, and it is also possible to improve the image quality by averaging a plurality of pieces of motion contrast data. At this time, the image quality of each motion contrast data before the averaging process may be enhanced by an image quality enhancement engine in advance. Alternatively, a high image quality engine may be applied to the averaged motion contrast data. Furthermore, by converting the motion contrast data into volume data (three-dimensional motion contrast data), the volume data can be improved in image quality using a high-quality engine for three-dimensional data configured in advance using the well-known 3D-UNet. good. In addition, when the NOR is 3 or more, at least two three-dimensional motion contrast data can be generated, and the final volume data may be obtained by averaging them. At this time, a high image quality engine may be applied to at least one of the volume data before averaging and the volume data after averaging processing. Furthermore, after each OCTA front image is generated from a plurality of volume data, it is also possible to average the OCTA front images. Similarly, the image quality improvement engine can be applied to at least one of the OCTA front image before averaging and the OCTA front image after averaging processing. In this way, when generating an OCTA frontal image from motion contrast data, various transformations are possible, especially when the NOR is 3 or more, and the high image quality engine can use any It may be applied to such data.

(変形例10)
上述した様々な実施形態及び変形例による画像処理装置101又は画像処理方法によって処理される画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された医用画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や、上記実施形態及び変形例による画像処理装置101又は画像処理方法によって作成された画像を含むことができる。
(Modification 10)
Images processed by the image processing apparatus 101 or the image processing method according to the various embodiments and modifications described above include medical images acquired using any modality (imaging device, imaging method). The medical images to be processed can include medical images acquired by any imaging device or the like, and images created by the image processing apparatus 101 or the image processing method according to the embodiments and modifications described above.

さらに、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Furthermore, the medical image to be processed is an image of a predetermined region of a subject (subject), and the image of the predetermined region includes at least a part of the predetermined region of the subject. Further, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a black and white image or a color image. Furthermore, the medical image may be an image representing the structure (morphology) of a predetermined region, or an image representing its function. Images representing functions include, for example, images representing blood flow dynamics (blood flow volume, blood flow velocity, etc.) such as OCTA images, Doppler OCT images, fMRI images, and ultrasound Doppler images. The predetermined parts of the subject may be determined depending on the object to be imaged, and may include human eyes (eyes to be examined), organs such as the brain, lungs, intestines, heart, pancreas, kidneys, and liver, head, chest, Includes arbitrary parts such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータ(三次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn-Face画像を含む。En-Face画像は、三次元のOCTAデータ(三次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn-Face画像(モーションコントラスト正面画像)でもよい。また、三次元のOCTデータや三次元のモーションコントラストデータは、三次元の医用画像データの一例である。 Furthermore, the medical image may be a tomographic image of the subject or a frontal image. The frontal image is, for example, a frontal image of the fundus, a frontal image of the anterior segment of the eye, a fluorescently photographed fundus image, or at least a partial range in the depth direction of the object to be photographed regarding data acquired by OCT (three-dimensional OCT data). Contains an En-Face image generated using the data. The En-Face image is an OCTA En-Face image (motion contrast frontal image) generated using data of at least a partial range in the depth direction of the imaging target for three-dimensional OCTA data (three-dimensional motion contrast data). ) is also fine. Furthermore, three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.

ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn-Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 Here, the motion contrast data is data indicating changes among a plurality of volume data obtained by controlling the measurement light to scan the same area (same position) of the eye to be examined multiple times. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, by obtaining data indicating changes between a plurality of tomographic images obtained at substantially the same position at each different position, motion contrast data can be obtained as volume data. Note that the motion contrast front image is also called an OCTA front image (OCTA En-Face image) related to OCT angiography (OCTA) that measures the movement of blood flow, and the motion contrast data is also called OCTA data. Motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a value obtained by dividing the maximum value by the minimum value (maximum value/minimum value) between two tomographic images or their corresponding interference signals. , may be determined by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measuring light to scan the same area (same position) of the eye to be examined multiple times.

また、En-Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像である。このとき、正面画像は、光干渉を用いて得たボリュームデータ(三次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影又は積算して生成される。En-Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを二次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En-Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En-Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 Further, the En-Face image is, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the frontal image is data that corresponds to at least a partial depth range of volume data (three-dimensional tomographic image) obtained using optical interference, and that corresponds to a depth range determined based on two reference planes. It is generated by projecting or integrating onto a two-dimensional plane. The En-Face image is a frontal image generated by projecting data corresponding to a depth range determined based on the detected retinal layer out of the volume data onto a two-dimensional plane. Note that as a method of projecting data corresponding to a depth range determined based on two reference planes onto a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on a two-dimensional plane. method can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range that includes a predetermined number of pixels in a deeper direction or a shallower direction with one of the two layer boundaries regarding the detected retinal layer as a reference. Good too. Furthermore, the depth range related to the En-Face image may be, for example, a range changed (offset) from the range between the two layer boundaries regarding the detected retinal layers in accordance with the operator's instructions. good.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、上述した様々な実施形態及び変形例に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。 Further, the photographing device is a device for photographing images used for diagnosis. The imaging device is, for example, a device that obtains an image of a predetermined region of a subject by irradiating the subject with radiation such as light, X-rays, electromagnetic waves, or ultrasound, or a device that detects radiation emitted from the subject. includes a device for obtaining an image of a predetermined region. More specifically, the imaging devices according to the various embodiments and modifications described above include at least an X-ray imaging device, a CT device, an MRI device, a PET device, a SPECT device, an SLO device, an OCT device, an OCTA device, and a fundus. Includes cameras, endoscopes, etc.

なお、OCT装置としては、タイムドメインOCT(TD-OCT)装置やフーリエドメインOCT(FD-OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD-OCT)装置や波長掃引型OCT(SS-OCT)装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO-SLO)装置や波面補償OCT(AO-OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS-SLO)装置や偏光OCT(PS-OCT)装置等を含んでよい。 Note that the OCT device may include a time domain OCT (TD-OCT) device and a Fourier domain OCT (FD-OCT) device. Further, the Fourier domain OCT device may include a spectral domain OCT (SD-OCT) device or a wavelength swept OCT (SS-OCT) device. Furthermore, the SLO device and OCT device may include a wavefront compensated SLO (AO-SLO) device using a wavefront adaptive optical system, a wavefront compensated OCT (AO-OCT) device, and the like. Furthermore, the SLO device and OCT device may include a polarization SLO (PS-SLO) device, a polarization OCT (PS-OCT) device, etc. for visualizing information regarding polarization phase difference and depolarization.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した様々な実施形態及び変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other embodiments]
Further, the present invention can also be realized by executing the following processing. That is, software (programs) that implement one or more functions of the various embodiments and modifications described above is supplied to a system or device via a network or various storage media, and the computer (or CPU or (MPU, etc.) reads and executes a program.

また、本発明は、上述した様々な実施形態及び変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサ若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサ若しくは回路のネットワークを含みうる。 Furthermore, the present invention provides software (programs) for realizing one or more functions of the various embodiments and modifications described above to a system or device via a network or a storage medium, and a computer of the system or device This can also be achieved by reading and executing a program. A computer has one or more processors or circuits and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

このとき、プロセッサ又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサ又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), microprocessing unit (MPU), graphics processing unit (GPU), application specific integrated circuit (ASIC), or field programmable gateway (FPGA). The processor or circuit may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

Claims (18)

光干渉断層計によって被検体における互いに対応する領域で且つ互いに対応する深度範囲のOCT正面画像とOCTA正面画像とを取得する取得手段と
被検体のOCTA正面画像を学習して得た高画質化用の学習済モデルであって、前記取得されたOCTA正面画像を前記学習済モデルの入力データとして入力して得た高画質なOCTA正面画像と、前記取得されたOCT正面画像を用いて、検者からの指示に応じて変更可能な透過率によブレンド処理を行うことにより、ブレンド画像を生成するブレンド処理手段と、
前記生成されたブレンド画像を表示し、前記透過率の変更に関する検者からの指示を受け付ける情報を表示するように、表示手段を制御する表示制御手段と、
前記高画質なOCTA正面画像に対する解析処理の種類、検者からの指示に応じて選択する選択手段と、を備え、
前記表示制御手段は、前記表示されたブレンド画像において検者からの指示に応じて設定された関心領域であって、前記高画質なOCTA正面画像における前記設定された関心領域に対する前記選択された種類の解析処理の結果を表示し、前記高画質なOCTA正面画像から前記取得されたOCTA正面画像への変更に関する検者からの指示を受け付けた場合には、前記解析処理の結果の表示を、前記取得されたOCTA正面画像における前記設定された関心領域に対する前記選択された種類の解析処理の結果の表示に変更するように、前記表示手段を制御する、画像処理装置。
acquisition means for acquiring an OCT front image and an OCTA front image in mutually corresponding regions and mutually corresponding depth ranges in the subject using an optical coherence tomography;
A trained model for high image quality obtained by learning an OCTA frontal image of a subject, the high-quality OCTA frontal image obtained by inputting the acquired OCTA frontal image as input data to the trained model. a blend processing unit that generates a blend image by performing blend processing using the image and the obtained OCT frontal image using a transmittance that can be changed according to an instruction from an examiner ;
display control means for controlling a display means to display the generated blended image and display information for accepting instructions from an examiner regarding changes in the transmittance;
a selection means for selecting the type of analysis processing for the high-quality OCTA frontal image in accordance with an instruction from an examiner ;
The display control means is configured to display a region of interest set in the displayed blended image in accordance with an instruction from the examiner , and to display a region of interest that is set in the displayed blended image in accordance with an instruction from the examiner. The results of the selected type of analysis processing are displayed, and when an instruction from the examiner regarding changing from the high-quality OCTA frontal image to the acquired OCTA frontal image is received, the results of the analysis processing are displayed. An image processing device that controls the display means to change the display to a display of the result of the selected type of analysis processing for the set region of interest in the acquired OCTA frontal image.
前記OCT正面画像とOCTA正面画像との少なくともいずれか一方の画像は、画素ごとに2つ以上の分類を示す属性を有し、
前記ブレンド処理手段は、前記属性と前記透過率に基づいてブレンド画像を生成し、
前記属性を有する画像は、該画像の画素値に基づいて分類される属性、又は、該画像のあらかじめ設定された部分領域に対応して設定された属性を有し、
前記属性は、前記画素値が閾値を超えるか否かに基づいて設定される請求項1に記載の画像処理装置。
At least one of the OCT frontal image and the OCTA frontal image has an attribute indicating two or more classifications for each pixel,
The blend processing means generates a blend image based on the attribute and the transmittance ,
The image having the attribute has an attribute that is classified based on the pixel value of the image, or an attribute that is set corresponding to a preset partial area of the image,
The image processing device according to claim 1, wherein the attribute is set based on whether the pixel value exceeds a threshold value.
前記属性を有する画像がOCTA正面画像である場合、前記属性は、画素が血管であるという確からしさに基づく属性である請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein when the image having the attribute is an OCTA frontal image, the attribute is an attribute based on the probability that a pixel is a blood vessel. 前記ブレンド処理手段は、前記属性が所定の分類を示す属性である場合、前記属性を有する画像の前記画素に対応する前記透過率を0または1に固定する請求項2または3に記載の画像処理装置。 The image processing according to claim 2 or 3, wherein the blend processing means fixes the transmittance corresponding to the pixel of the image having the attribute to 0 or 1 when the attribute is an attribute indicating a predetermined classification. Device. 光干渉断層計によって被検体における互いに対応する領域で且つ互いに対応する深度範囲のOCT正面画像OCTA正面画像とを取得する取得手段と、
被検体のOCTA正面画像を学習して得た高画質化用の学習済モデルであって、前記取得されたOCTA正面画像を前記学習済モデルの入力データとして入力して得た高画質なOCTA正面画像と、前記取得されたOCT正面画像とを用いて、検者からの指示に応じて変更可能な透過率によブレンド処理を行うことにより得たブレンド画像を表示し、前記透過率の変更に関する検者からの指示を受け付ける情報を表示するように、表示手段を制御する表示制御手段と、を備え、
前記表示制御手段は、前記表示されたブレンド画像において検者からの指示に応じて設定された関心領域であって、前記高画質なOCTA正面像における前記設定された関心領域に対する解析処理の種類のうち検者からの指示に応じて選択された種類の解析処理の結果を表示し、前記高画質なOCTA正面画像から前記取得されたOCTA正面画像への変更に関する検者からの指示を受け付けた場合には、前記解析処理の結果の表示を、前記取得されたOCTA正面画像における前記設定された関心領域に対する前記選択された種類の解析処理の結果の表示に変更するように、前記表示手段を制御する、画像処理装置。
acquisition means for acquiring an OCT front image and an OCTA front image in mutually corresponding regions and mutually corresponding depth ranges in the subject using an optical coherence tomography;
A trained model for high image quality obtained by learning an OCTA frontal image of a subject, the high-quality OCTA frontal image obtained by inputting the acquired OCTA frontal image as input data to the trained model. Displaying a blended image obtained by performing a blending process using the image and the acquired OCT frontal image using a transmittance that can be changed according to instructions from the examiner , and changing the transmittance. display control means for controlling the display means to display information that accepts instructions from the examiner regarding the
The display control means is configured to display a region of interest set in the displayed blended image according to an instruction from the examiner , and to display a region of interest corresponding to the set region of interest in the high-quality OCTA frontal image . Displays the results of the type of analysis processing selected in response to instructions from the examiner among the types of analysis processing performed, and displays the results of the type of analysis processing selected according to instructions from the examiner, and receives information from the examiner regarding changing from the high-quality OCTA frontal image to the acquired OCTA frontal image. If the instruction is received, the display of the result of the analysis process is changed to the display of the result of the selected type of analysis process for the set region of interest in the acquired OCTA frontal image. , an image processing device that controls the display means .
前記表示制御手段は、前記解析処理の結果の表示を、検者からの指示に応じて選択された他の種類の解析結果の表示に変更するように、前記表示手段を制御する、請求項1乃至5のいずれか1項に記載の画像処理装置。2. The display control means controls the display means so as to change the display of the result of the analysis process to the display of another type of analysis result selected in response to an instruction from the examiner. 6. The image processing device according to any one of 5 to 5. 前記表示制御手段は、前記ブレンド画像の表示画面と、前記取得されたOCTA正面画像を含む複数のOCTA画像の表示画面とのうち、一方の表示画面から他方の表示画面への変更に関する検者からの指示を受け付けた場合、前記高画質なOCTA正面画像の表示状態であれば前記高画質なOCTA正面画像の表示状態を維持し、前記取得されたOCTA正面画像の表示状態であれば前記取得されたOCTA正面画像の表示状態を維持するように、前記表示手段を制御する、請求項1乃至6のいずれか1項に記載の画像処理装置。The display control means receives a request from the examiner regarding a change from one display screen to the other of the display screen of the blended image and the display screen of a plurality of OCTA images including the acquired front OCTA image. If the instruction is received, the display state of the high quality OCTA front image is maintained if the high quality OCTA front image is displayed, and the display state of the high quality OCTA front image is maintained if the acquired OCTA front image is displayed. The image processing apparatus according to any one of claims 1 to 6, wherein the display means is controlled to maintain a display state of the OCTA front image. 前記高画質化用の学習済モデルとは異なる学習済モデルであって、被検体のOCT正面画像とOCTA正面画像とのうち少なくとも一つの画像を入力データとし、前記ブレンド処理に用いられる透過率を正解データとする学習データにより学習して得た学習済モデルを用いて、前記取得されたOCT正面画像と前記取得されたOCTA正面画像とのうち少なくとも一つの画像から、新たな透過率が設定されるように構成される請求項1乃至のいずれか1項に記載の画像処理装置。 A trained model different from the trained model for high image quality, which uses at least one of an OCT frontal image and an OCTA frontal image of the subject as input data, and calculates the transmittance used in the blending process. A new transmittance is set from at least one of the acquired OCT frontal image and the acquired OCTA frontal image using a trained model obtained by learning with learning data as correct data. The image processing device according to any one of claims 1 to 7 , configured to 前記学習済モデルは、検者からの指示に応じて設定された透過率を正解データとする学習データにより追加学習して得た学習済モデルである請求項に記載の画像処理装置。 9. The image processing apparatus according to claim 8 , wherein the learned model is a learned model obtained by additional learning using learning data whose correct data is a transmittance set in accordance with an instruction from an examiner. 前記学習済モデルは、検者からの指示に応じて前記新たな透過率から変更された透過率を正解データとする学習データにより追加学習して得た学習済モデルである請求項8又は9に記載の画像処理装置。 According to claim 8 or 9 , the learned model is a learned model obtained by additional learning using learning data in which the correct data is the transmittance changed from the new transmittance in response to an instruction from the examiner. The image processing device described. 前記ブレンド処理は、前記取得されたOCT正面画像と前記取得されたOCTA正面画像との互いに対応する位置の画素値を加重平均処理することにより実行される請求項1乃至10のいずれか1項に記載の画像処理装置。 11. The blending process is performed by weighted averaging processing of pixel values at mutually corresponding positions of the acquired OCT frontal image and the acquired OCTA frontal image. The image processing device described. 前記表示制御手段は、前記高画質化用の学習済モデルとは異なる学習済モデルを用いて生成された解析結果であって、前記高画質なOCTA正面画像に関する解析結果と、前記高画質化用の学習済モデルとは異なる学習済モデルを用いて生成された診断結果であって、前記高画質なOCTA正面画像に関する診断結果と、前記高画質化用の学習済モデルとは異なる学習済モデルを用いて生成された物体検出結果であって、前記高画質なOCTA正面画像に関する物体検出結果と、前記高画質化用の学習済モデルとは異なる学習済モデルを用いて生成されたセグメンテーション結果であって、前記高画質なOCTA正面画像に関するセグメンテーション結果と、前記高画質化用の学習済モデルとは異なる学習済モデルを用いて生成された類似症例画像であって、前記高画質なOCTA正面画像に関する類似症例画像とのうちの少なくとも一つを前記表示手段に表示させる請求項1乃至11のいずれか1項に記載の画像処理装置。 The display control means is configured to display an analysis result generated using a trained model different from the trained model for high image quality, the analysis result regarding the high quality OCTA front image, and the above trained model for high image quality. A diagnosis result generated using a trained model different from the trained model for the high-quality OCTA frontal image, and a trained model different from the trained model for high image quality. The object detection results are the object detection results generated using the high quality OCTA frontal image, and the segmentation results generated using a trained model different from the trained model for high image quality. A segmentation result related to the high-quality OCTA frontal image and a similar case image generated using a trained model different from the trained model for high image quality, which is related to the high-quality OCTA frontal image. 12. The image processing apparatus according to claim 1, wherein at least one of the similar case images is displayed on the display means. 前記表示制御手段は、前記高画質なOCTA正面画像と、前記高画質なOCTA正面画像が入力データとして入力された敵対的生成ネットワーク又はオートエンコーダを用いて生成された画像との差に関する情報を、異常部位に関する情報として前記表示手段に表示させる請求項1乃至12のいずれか1項の記載の画像処理装置。 The display control means provides information regarding the difference between the high-quality OCTA frontal image and an image generated using an adversarial generative network or an autoencoder to which the high-quality OCTA frontal image is input as input data. 13. The image processing apparatus according to claim 1, wherein the image processing apparatus displays information on the abnormal region on the display means. 前記指示は、前記高画質化用の学習済モデルとは異なる学習済モデルであって、文字認識用の学習済モデルと音声認識用の学習済モデルとジェスチャー認識用の学習済モデルとのうちの少なくとも1つの学習済モデルを用いて得た情報である、請求項1乃至1のいずれか項に記載の画像処理装置。 The instruction is a trained model different from the trained model for image quality improvement, and is one of a trained model for character recognition, a trained model for speech recognition, and a trained model for gesture recognition. The image processing device according to any one of claims 1 to 13 , wherein the information is obtained using at least one trained model. 前記表示制御手段は、前記高画質なOCTA正面画像から前記取得されたOCTA正面画像への変更に関する検者からの指示を受け付けた場合には、更に、前記ブレンド画像の表示を、前記取得されたOCTA正面画像と前記取得されたOCT正面画像とを用いて前記透過率によるブレンド処理を行うことにより得たブレンド画像の表示に変更するように、前記表示手段を制御する、請求項1乃至14のいずれか1項に記載の画像処理装置。When the display control means receives an instruction from the examiner regarding changing from the high-quality OCTA frontal image to the acquired OCTA frontal image, the display control means further controls display of the blended image from the acquired OCTA frontal image. 15. The method according to claim 1, wherein the display means is controlled to change the display to a blended image obtained by performing a blending process based on the transmittance using an OCTA frontal image and the obtained OCT frontal image. The image processing device according to any one of the items. 前記表示制御手段は、前記取得されたOCT正面画像と前記取得されたOCTA正面画像とのそれぞれの深度範囲の変更に関する検者からの指示を受け付ける情報を表示するように、前記表示手段を制御する、請求項1乃至15のいずれか1項に記載の画像処理装置。The display control means controls the display means to display information that accepts an instruction from an examiner regarding changing the depth range of each of the acquired OCT frontal image and the acquired OCTA frontal image. The image processing device according to any one of claims 1 to 15. 光干渉断層計によって被検体における互いに対応する領域で且つ互いに対応する深度範囲のOCT正面画像OCTA正面画像とを取得する工程と、
被検体のOCTA正面画像を学習して得た高画質化用の学習済モデルであって、前記取得されたOCTA正面画像を前記学習済モデルの入力データとして入力して得た高画質なOCTA正面画像と、前記取得されたOCT正面画像とを用いて、検者からの指示に応じて変更可能な透過率によブレンド処理を行うことにより得たブレンド画像を表示し、前記透過率の変更に関する検者からの指示を受け付ける情報を表示するように、表示手段を制御する工程と、
前記表示されたブレンド画像において検者からの指示に応じて設定された関心領域であって、前記高画質なOCTA正面像における前記設定された関心領域に対する解析処理の種類のうち検者からの指示に応じて選択された種類の解析処理の結果を表示し、前記高画質なOCTA正面画像から前記取得されたOCTA正面画像への変更に関する検者からの指示を受け付けた場合には、前記解析処理の結果の表示を、前記取得されたOCTA正面画像における前記設定された関心領域に対する前記選択された種類の解析処理の結果の表示に変更するように、前記表示手段を制御する工程と、
を含む画像処理方法。
Obtaining an OCT front image and an OCTA front image in mutually corresponding regions and mutually corresponding depth ranges in the subject using an optical coherence tomography;
A trained model for high image quality obtained by learning an OCTA frontal image of a subject, the high-quality OCTA frontal image obtained by inputting the acquired OCTA frontal image as input data to the trained model. Displaying a blended image obtained by performing a blending process using the image and the acquired OCT frontal image using a transmittance that can be changed according to instructions from the examiner , and changing the transmittance. controlling the display means to display information that accepts instructions from the examiner regarding the
A region of interest that is set in the displayed blended image according to instructions from the examiner , and the type of analysis processing for the set region of interest in the high-quality OCTA frontal image . Displaying the results of the type of analysis processing selected in response to instructions from the examiner, and receiving instructions from the examiner regarding changing from the high-quality OCTA frontal image to the acquired OCTA frontal image; controlling the display means to change the display of the result of the analysis process to the display of the result of the selected type of analysis process for the set region of interest in the acquired OCTA frontal image; The process of
image processing methods including;
請求項17に記載の画像処理方法の各工程をコンピュータに実行させるプログラム。 A program that causes a computer to execute each step of the image processing method according to claim 17 .
JP2019183351A 2019-03-11 2019-10-03 Image processing device and image processing method Active JP7362403B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/044244 WO2020183791A1 (en) 2019-03-11 2019-11-12 Image processing device and image processing method
CN201980093820.0A CN113543695A (en) 2019-03-11 2019-11-12 Image processing apparatus, image processing method, and program
US17/468,297 US11887288B2 (en) 2019-03-11 2021-09-07 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2019044265 2019-03-11
JP2019044263 2019-03-11
JP2019044263 2019-03-11
JP2019044265 2019-03-11
JP2019068895 2019-03-29
JP2019068895 2019-03-29

Publications (3)

Publication Number Publication Date
JP2020163100A JP2020163100A (en) 2020-10-08
JP2020163100A5 JP2020163100A5 (en) 2022-04-18
JP7362403B2 true JP7362403B2 (en) 2023-10-17

Family

ID=72715427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183351A Active JP7362403B2 (en) 2019-03-11 2019-10-03 Image processing device and image processing method

Country Status (2)

Country Link
JP (1) JP7362403B2 (en)
CN (1) CN113543695A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749644B (en) * 2020-12-30 2024-02-27 大连海事大学 Faster RCNN fire smoke detection method based on improved deformable convolution
WO2023021697A1 (en) * 2021-08-20 2023-02-23 日本電信電話株式会社 Optical circuit measurement system and measurement method
CN114209278B (en) * 2021-12-14 2023-08-25 复旦大学 Deep learning skin disease diagnosis system based on optical coherence tomography

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012045298A (en) 2010-08-30 2012-03-08 Canon Inc Apparatus, method and system of image processing, and program
JP2016209147A (en) 2015-04-30 2016-12-15 株式会社ニデック Fundus image processing device and fundus image processing program
WO2017143300A1 (en) 2016-02-19 2017-08-24 Optovue, Inc. Methods and apparatus for reducing artifacts in oct angiography using machine learning techniques
JP2017158687A (en) 2016-03-08 2017-09-14 キヤノン株式会社 Processing method for optical interference tomographic data, program for executing the method, and processing equipment
JP2018005841A (en) 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device
US20180012359A1 (en) 2016-07-06 2018-01-11 Marinko Venci Sarunic Systems and Methods for Automated Image Classification and Segmentation
JP2017127506A5 (en) 2016-01-21 2019-01-17

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5921068B2 (en) * 2010-03-02 2016-05-24 キヤノン株式会社 Image processing apparatus, control method, and optical coherence tomography system
JP6624945B2 (en) 2016-01-21 2019-12-25 キヤノン株式会社 Image forming method and apparatus
JP6598713B2 (en) * 2016-03-11 2019-10-30 キヤノン株式会社 Information processing device
US20180018757A1 (en) * 2016-07-13 2018-01-18 Kenji Suzuki Transforming projection data in tomography by means of machine learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012045298A (en) 2010-08-30 2012-03-08 Canon Inc Apparatus, method and system of image processing, and program
JP2016209147A (en) 2015-04-30 2016-12-15 株式会社ニデック Fundus image processing device and fundus image processing program
JP2017127506A5 (en) 2016-01-21 2019-01-17
WO2017143300A1 (en) 2016-02-19 2017-08-24 Optovue, Inc. Methods and apparatus for reducing artifacts in oct angiography using machine learning techniques
JP2017158687A (en) 2016-03-08 2017-09-14 キヤノン株式会社 Processing method for optical interference tomographic data, program for executing the method, and processing equipment
US20180012359A1 (en) 2016-07-06 2018-01-11 Marinko Venci Sarunic Systems and Methods for Automated Image Classification and Segmentation
JP2018005841A (en) 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
栗原 慧至 S. Kurihara,画像補完技術を用いた眼底画像の異常検出 Anomaly Detection of Fundus Image Using Image Completion,電気学会研究会資料 The Papers of Technical Meeting on "Systems",IEE Japan,日本,一般社団法人電気学会 The Institute of Electrical Engineers of Japan(IEEJ)

Also Published As

Publication number Publication date
JP2020163100A (en) 2020-10-08
CN113543695A (en) 2021-10-22

Similar Documents

Publication Publication Date Title
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7250653B2 (en) Image processing device, image processing method and program
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP7341874B2 (en) Image processing device, image processing method, and program
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
WO2020183791A1 (en) Image processing device and image processing method
JP7305401B2 (en) Image processing device, method of operating image processing device, and program
JP7374615B2 (en) Information processing device, information processing method and program
JP7362403B2 (en) Image processing device and image processing method
JP2021037239A (en) Area classification method
JP2022155690A (en) Image processing device, image processing method, and program
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
WO2020138128A1 (en) Image processing device, image processing method, and program
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
WO2020075719A1 (en) Image processing device, image processing method, and program
JP2021164535A (en) Image processing device, image processing method and program
JP7344847B2 (en) Image processing device, image processing method, and program
JP7478216B2 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP7446730B2 (en) Image processing device, image processing method and program
JP2022121202A (en) Image processing device and image processing method
JP2023010308A (en) Image processing device and image processing method
WO2020049828A1 (en) Image processing apparatus, image processing method, and program
JP2021069667A (en) Image processing device, image processing method and program
JP2023016933A (en) Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231004

R151 Written notification of patent or utility model registration

Ref document number: 7362403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151