JP2021086560A - Medical image processing apparatus, medical image processing method, and program - Google Patents

Medical image processing apparatus, medical image processing method, and program Download PDF

Info

Publication number
JP2021086560A
JP2021086560A JP2019217333A JP2019217333A JP2021086560A JP 2021086560 A JP2021086560 A JP 2021086560A JP 2019217333 A JP2019217333 A JP 2019217333A JP 2019217333 A JP2019217333 A JP 2019217333A JP 2021086560 A JP2021086560 A JP 2021086560A
Authority
JP
Japan
Prior art keywords
image
medical image
quality
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019217333A
Other languages
Japanese (ja)
Inventor
淑明 奥村
Yoshiaki Okumura
淑明 奥村
律也 富田
Ritsuya Tomita
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019217333A priority Critical patent/JP2021086560A/en
Publication of JP2021086560A publication Critical patent/JP2021086560A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide a medical image processing apparatus which can generate an image more suitable for image diagnosis than before.SOLUTION: A medical image processing apparatus includes: an acquisition unit which acquires a first medical image obtained by a first imaging apparatus imaging a predetermined section of a subject; and an image quality enhancing unit which generates a second medical image having image quality higher than the first medical image, from the first medical image, by use of a learned model obtained with learning data using the medical image obtained by the first imaging apparatus imaging the predetermined section of the subject as input data, and a medical image obtained by a second imaging apparatus different from the first imaging apparatus and imaging the predetermined section of the subject as output data.SELECTED DRAWING: Figure 7

Description

本発明は、医用画像処理装置、医用画像処理方法及びプログラムに関する。 The present invention relates to a medical image processing apparatus, a medical image processing method and a program.

医療分野においては、被検者の疾患を特定したり、疾患の程度を観察したりするために、様々な撮影装置によって画像が取得され、医療従事者による画像診断が行われている。撮影装置の種類には、例えば放射線科分野では、X線撮影装置、X線コンピュータ断層撮影(CT)装置、磁気共鳴イメージング(MRI)装置、陽電子放出断層撮影(PET)装置、及び単一光子放射断層撮影(SPECT)装置等がある。また、例えば眼科分野では、眼底カメラ、走査型レーザ検眼鏡(SLO)、光コヒーレンストモグラフィ(OCT)装置、及びOCTアンギオグラフィ(OCTA)装置がある。 In the medical field, in order to identify a disease of a subject and observe the degree of the disease, images are acquired by various imaging devices, and image diagnosis is performed by a medical worker. The types of imaging equipment include, for example, in the field of radiology, X-ray imaging equipment, X-ray computed tomography (CT) equipment, magnetic resonance imaging (MRI) equipment, positron emission tomography (PET) equipment, and single photon emission. There are tomography (SPECT) devices and the like. Further, for example, in the field of ophthalmology, there are a fundus camera, a scanning laser ophthalmoscope (SLO), an optical coherence tomography (OCT) device, and an OCT angiography (OCTA) device.

画像診断を正確に行ったり、短時間で完了したりするためには、撮影装置によって取得される画像のノイズの少なさや解像度・空間分解能の高さ、適切な階調といった画質の高さが重要となる。また、観察したい部位や病変が強調されている画像も役に立つことがある。 In order to perform accurate image diagnosis and complete it in a short time, it is important to have low noise in the image acquired by the imaging device, high resolution / spatial resolution, and high image quality such as appropriate gradation. It becomes. Images that emphasize the area or lesion you want to observe may also be useful.

しかしながら、多くの撮影装置においては、画質が高いなどの、画像診断に適した画像を取得するためになんらかの代償が必要である。例えば、画質が高い画像を取得するために高性能な撮影装置を購入する方法があるが、低性能なものよりも多くの投資が必要になる場合が多い。 However, in many photographing devices, some compensation is required in order to acquire an image suitable for image diagnosis, such as high image quality. For example, there is a way to purchase a high-performance imaging device to obtain a high-quality image, but it often requires more investment than a low-performance one.

また、例えばCTでは、ノイズが少ない画像を取得するために被検者の被曝線量を増やさなければならない場合がある。また、例えばMRIでは、観察したい部位が強調された画像を取得するために副作用のリスクがある造影剤を使用する場合がある。また、例えばOCTでは、撮影する領域が広かったり、高い空間分解能が必要であったりする場合には、撮影時間がより長くなる場合がある。また、例えば、一部の撮影装置では、画質が高い画像を取得するために複数回画像を取得する必要があり、その分撮影に時間がかかる。 Further, for example, in CT, it may be necessary to increase the exposure dose of the subject in order to acquire an image with less noise. Further, for example, in MRI, a contrast medium having a risk of side effects may be used in order to obtain an image in which the portion to be observed is emphasized. Further, in OCT, for example, when the area to be photographed is wide or a high spatial resolution is required, the photographing time may be longer. Further, for example, in some photographing devices, it is necessary to acquire an image a plurality of times in order to acquire an image having high image quality, and it takes time to take an image accordingly.

特許文献1には、医用技術の急激な進歩や緊急時の簡易な撮影に対応するため、以前に取得した画像を、人工知能エンジンによって、より解像度の高い画像に変換する技術が開示されている。このような技術によれば、例えば、代償の少ない簡易な撮影によって取得された画像をより解像度の高い画像に変換することができる。 Patent Document 1 discloses a technique for converting a previously acquired image into a higher resolution image by an artificial intelligence engine in order to cope with rapid progress in medical technology and simple shooting in an emergency. .. According to such a technique, for example, an image acquired by simple shooting with low cost can be converted into an image having a higher resolution.

特開2018−5841号公報JP-A-2018-5841

ここで、人工知能エンジンにおいて、学習データの教師データが画像処理により得られた解像度の高い画像が用いられると、該人工知能エンジンを用いて得た画像が入力画像よりも解像度の高い画像であっても、画像診断に適した画像とは言えない場合もある。 Here, in the artificial intelligence engine, when a high-resolution image obtained by image processing is used as the teacher data of the training data, the image obtained by using the artificial intelligence engine is an image having a higher resolution than the input image. However, it may not be an image suitable for diagnostic imaging.

これに対し、本発明の目的の一つは、従来よりも画像診断に適した画像を生成することができる医用画像処理装置、医用画像処理方法及びプログラムを提供することである。 On the other hand, one of the objects of the present invention is to provide a medical image processing apparatus, a medical image processing method and a program capable of generating an image more suitable for image diagnosis than before.

本発明の一実施態様に係る医用画像処理装置は、
第1の撮影装置により被検体の所定部位を撮影して得た第1の医用画像を取得する取得部と、
第1の撮影装置により被検体の所定部位を撮影して得た医用画像を入力データとし、該第1の撮影装置とは異なる第2の撮影装置により被検体の所定部位を撮影して得た医用画像を出力データとする学習データを用いて得た学習済モデルを用いて、前記取得された第1の医用画像から、該第1の医用画像と比べて高画質化された第2の医用画像を生成する高画質化部と、を備える。
The medical image processing apparatus according to one embodiment of the present invention is
An acquisition unit that acquires a first medical image obtained by photographing a predetermined part of a subject with a first imaging device, and
The medical image obtained by photographing a predetermined part of the subject with the first imaging device was used as input data, and the predetermined part of the subject was photographed with a second imaging device different from the first imaging device. Using the trained model obtained by using the training data using the medical image as the output data, the second medical image has a higher image quality than the first medical image from the acquired first medical image. It is provided with a high image quality unit for generating an image.

本発明の一つによれば、従来よりも画像診断に適した画像を生成することができる。 According to one of the present inventions, it is possible to generate an image more suitable for diagnostic imaging than before.

第1の実施形態に係るOCTシステムの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the OCT system which concerns on 1st Embodiment. 第1の実施形態に係るOCTシステムの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the OCT system which concerns on 1st Embodiment. 第1の実施形態に係る画像処理部の概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the image processing part which concerns on 1st Embodiment. 第1の実施形態に係る第1のSLO画像と断層画像の一例を示す図である。It is a figure which shows an example of the 1st SLO image and a tomographic image which concerns on 1st Embodiment. 第1の実施形態に係る第2のSLO画像と断層画像の一例を示す図である。It is a figure which shows an example of the 2nd SLO image and the tomographic image which concerns on 1st Embodiment. 第1の実施形態に係る断層画像のサイズ変換を示す図である。It is a figure which shows the size conversion of the tomographic image which concerns on 1st Embodiment. 高画質化処理に関するニューラルネットワークの構成の一例を示す図である。It is a figure which shows an example of the structure of the neural network concerning the high image quality processing. 第1の実施形態に係る断層画像の表示の一例を示す図である。It is a figure which shows an example of the display of the tomographic image which concerns on 1st Embodiment. 第2の実施形態に係る断層画像を分割して用いる場合の一例を示す図である。It is a figure which shows an example of the case where the tomographic image which concerns on 2nd Embodiment is divided and used. 高画質化処理に関するニューラルネットワークの構成の一例を示す図である。It is a figure which shows an example of the structure of the neural network concerning the high image quality processing. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flow chart which shows an example of the flow of image processing which concerns on 1st Embodiment. 第1の実施形態に係る画像処理の流れの別例を示すフロー図である。It is a flow figure which shows another example of the flow of image processing which concerns on 1st Embodiment. 変形例6に係る機械学習エンジンとして用いられるニューラルネットワークの構成の一例を示す図である。It is a figure which shows an example of the structure of the neural network used as the machine learning engine which concerns on modification 6. 変形例6に係る機械学習エンジンとして用いられるニューラルネットワークの構成の一例を示す図である。It is a figure which shows an example of the structure of the neural network used as the machine learning engine which concerns on modification 6. 変形例1に係るユーザーインターフェースの一例を示す図である。It is a figure which shows an example of the user interface which concerns on modification 1. 変形例1に係るユーザーインターフェースの一例を示す図である。It is a figure which shows an example of the user interface which concerns on modification 1. 高画質化処理に関する入力画像の一例を示す。An example of an input image related to high image quality processing is shown.

以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of the components, etc. described in the following embodiments are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, in the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar.

<用語の説明>
まず、本明細書において用いられる用語について説明する。
<Explanation of terms>
First, terms used in the present specification will be described.

本明細書におけるネットワークでは、各装置は有線又は無線の回線で接続されてよい。ここで、ネットワークにおける各装置を接続する回線は、例えば、専用回線、ローカルエリアネットワーク(以下、LANと表記)回線、無線LAN回線、インターネット回線、Wi−Fi(登録商標)、及びBluetooth(登録商標)等を含む。 In the network herein, each device may be connected by a wired or wireless line. Here, the lines connecting each device in the network are, for example, a dedicated line, a local area network (hereinafter referred to as LAN) line, a wireless LAN line, an Internet line, Wi-Fi (registered trademark), and Bluetooth (registered trademark). ) Etc. are included.

医用画像処理装置は、相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、医用画像処理装置の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。 The medical image processing device may be composed of two or more devices capable of communicating with each other, or may be composed of a single device. Further, each component of the medical image processing apparatus may be composed of a software module executed by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). In addition, each component may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, it may be configured by a combination of any other hardware and any software.

また、下記実施形態による医用画像処理装置又は医用画像処理方法によって処理される医用画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や下記実施形態による医用画像処理装置又は医用画像処理方法によって作成された画像を含むことができる。 Further, the medical image processed by the medical image processing apparatus or the medical image processing method according to the following embodiment includes an image acquired by using an arbitrary modality (imaging apparatus, imaging method). The medical image to be processed may include a medical image acquired by an arbitrary imaging device or the like, a medical image processing device according to the following embodiment, or an image created by a medical image processing method.

さらに、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Further, the medical image to be processed is an image of a predetermined part of the subject (subject), and the image of the predetermined part includes at least a part of the predetermined part of the subject. In addition, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a black-and-white image or a color image. Further, the medical image may be an image showing the structure (morphology) of a predetermined part or an image showing the function thereof. The image showing the function includes, for example, an OCTA image, a Doppler OCT image, an fMRI image, and an image showing hemodynamics (blood flow volume, blood flow velocity, etc.) such as an ultrasonic Doppler image. The predetermined part of the subject may be determined according to the subject to be imaged, and the human eye (eye to be examined), brain, lung, intestine, heart, pancreas, kidney, liver and other organs, head, chest, etc. Includes any part such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータ(3次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn−Face画像を含む。なお、En−Face画像は、3次元のOCTAデータ(3次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn−Face画像(モーションコントラスト正面画像)であってもよい。また、3次元のOCTデータや3次元のモーションコントラストデータは、3次元の医用画像データの一例である。 Further, the medical image may be a tomographic image of the subject or a frontal image. The frontal image is, for example, a frontal image of the fundus, a frontal image of the anterior segment of the eye, a fluorescently photographed fundus image, and at least a part of the range of data acquired by OCT (three-dimensional OCT data) in the depth direction of the object to be imaged. Includes En-Face images generated using the data from. The En-Face image is an OCTA En-Face image (motion contrast) generated by using at least a part of the data in the depth direction of the shooting target for the three-dimensional OCTA data (three-dimensional motion contrast data). Front image) may be used. Further, three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.

ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 Here, the motion contrast data is data indicating a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast frontal image is also referred to as an OCTA frontal image (OCTA En-Face image) relating to OCTA angiography (OCTA) for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data. The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , It may be obtained by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected.

また、En−Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像である。このとき、正面画像は、光干渉を用いて得たボリュームデータ(三次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影又は積算して生成される。En−Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを二次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 The En-Face image is, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and is the data corresponding to the depth range determined based on the two reference planes. Is projected or integrated on a two-dimensional plane. The En-Face image is a frontal image generated by projecting the data corresponding to the depth range determined based on the detected retinal layer of the volume data onto a two-dimensional plane. As a method of projecting data corresponding to a depth range determined based on two reference planes on a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the detected retinal layer. May be good. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to an operator's instruction from a range between two layer boundaries related to the detected retinal layer. Good.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、以下の実施形態に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。 The imaging device is a device for capturing an image used for diagnosis. The photographing device detects, for example, a device that obtains an image of a predetermined part by irradiating a predetermined part of the subject with radiation such as light or X-rays, electromagnetic waves, ultrasonic waves, or the like, or radiation emitted from the subject. This includes a device for obtaining an image of a predetermined part. More specifically, the imaging devices according to the following embodiments are at least an X-ray imaging device, a CT device, an MRI device, a PET device, a SPECT device, an SLO device, an OCT device, an OCTA device, a fundus camera, and an endoscope. Includes mirrors, etc.

なお、OCT装置としては、タイムドメインOCT(TD−OCT)装置やフーリエドメインOCT(FD−OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD−OCT)装置や波長掃引型OCT(SS−OCT)装置を含んでよい。また、OCT装置は、Doppler−OCT装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、病理顕微鏡SLO装置や病理顕微鏡OCT装置等を含んでよい。また、SLO装置やOCT装置として、ハンドヘルド型のSLO装置やハンドヘルド型のOCT装置等を含んでよい。また、SLO装置やOCT装置として、カテーテルSLO装置やカテーテルOCT装置等を含んでよい。 The OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Further, the Fourier domain OCT apparatus may include a spectral domain OCT (SD-OCT) apparatus and a wavelength sweep type OCT (SS-OCT) apparatus. In addition, the OCT apparatus may include a Doppler-OCT apparatus. Further, the SLO device and the OCT device may include a wave surface compensation SLO (AO-SLO) device using a wave surface compensation optical system, a wave surface compensation OCT (AO-OCT) device, and the like. Further, the SLO device and the OCT device may include a polarized SLO (PS-SLO) device, a polarized OCT (PS-OCT) device, and the like for visualizing information on polarization phase difference and polarization elimination. Further, the SLO device and the OCT device may include a pathological microscope SLO device, a pathological microscope OCT device, and the like. Further, the SLO device and the OCT device may include a handheld type SLO device, a handheld type OCT device, and the like. Further, the SLO device and the OCT device may include a catheter SLO device, a catheter OCT device and the like.

画像管理システムは、撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。特に、下記実施形態に係る画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。 An image management system is a device and system that receives and stores an image taken by a photographing device or an image processed image. In addition, the image management system may transmit an image in response to a request from the connected device, perform image processing on the saved image, or request an image processing request from another device. it can. The image management system can include, for example, an image storage communication system (PACS). In particular, the image management system according to the following embodiment includes a database capable of storing various information such as subject information and shooting time associated with the received image. In addition, the image management system is connected to a network and can send and receive images, convert images, and send and receive various information associated with saved images in response to requests from other devices. ..

撮影条件とは、撮影装置によって取得された画像の撮影時の様々な情報である。撮影条件は、例えば、撮影装置に関する情報、撮影が実施された施設に関する情報、撮影に係る検査の情報、撮影者に関する情報、及び被検者に関する情報等を含む。また、撮影条件は、例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像サイズ、適用された画像フィルタ、画像のデータ形式に関する情報、及び放射線量に関する情報等を含む。なお、撮影領域には、特定の撮影部位からずれた周辺の領域や複数の撮影部位を含んだ領域等が含まれることができる。 The shooting conditions are various information at the time of shooting the image acquired by the shooting device. The shooting conditions include, for example, information about the shooting device, information about the facility where the shooting was performed, information about the inspection related to shooting, information about the photographer, information about the subject, and the like. The shooting conditions include, for example, shooting date and time, shooting part name, shooting area, shooting angle of view, shooting method, image resolution and gradation, image size, applied image filter, information on image data format, and radiation. Includes information about quantity, etc. The photographing area may include a peripheral area deviated from a specific photographing part, an area including a plurality of imaging parts, and the like.

撮影条件は、画像を構成するデータ構造中に保存されていたり、画像とは別の撮影条件データとして保存されていたり、撮影装置に関連するデータベースや画像管理システムに保存されたりすることができる。そのため、撮影条件は、撮影装置の撮影条件の保存手段に対応した手順により取得することができる。具体的には、撮影条件は、例えば、撮影装置が出力した画像のデータ構造を解析したり、画像に対応する撮影条件データを取得したり、撮影装置に関連するデータベースから撮影条件を取得するためのインターフェースにアクセスする等により取得される。 The shooting conditions can be saved in the data structure constituting the image, saved as shooting condition data different from the image, or saved in a database or an image management system related to the shooting device. Therefore, the photographing conditions can be acquired by a procedure corresponding to the means for storing the photographing conditions of the photographing apparatus. Specifically, the shooting conditions are, for example, for analyzing the data structure of the image output by the shooting device, acquiring the shooting condition data corresponding to the image, and acquiring the shooting conditions from the database related to the shooting device. Obtained by accessing the interface of.

なお、撮影装置によっては、保存されていない等の理由で取得できない撮影条件も存在する。例えば、撮影装置に特定の撮影条件を取得したり保存したりする機能が無い、又はそのような機能が無効にされている場合である。また、例えば、撮影装置や撮影に関係の無い撮影条件であるとして保存しないようになっている場合もある。さらに、例えば、撮影条件が隠蔽されていたり、暗号化されていたり、権利が無いと取得できないようになっていたりする場合等もある。ただし、保存されていない撮影条件であっても取得できる場合がある。例えば、画像解析を実施することによって、撮影部位名や撮影領域を特定することができる。 Depending on the photographing device, there are some photographing conditions that cannot be acquired because they are not saved. For example, the imaging device does not have the ability to acquire or save specific imaging conditions, or such a function is disabled. Further, for example, it may not be saved because it is a shooting condition unrelated to the shooting device or shooting. Further, for example, the shooting conditions may be hidden, encrypted, or cannot be acquired without the right. However, it may be possible to acquire even shooting conditions that have not been saved. For example, by performing image analysis, it is possible to specify the name of the imaged part and the imaged area.

機械学習モデルとは、任意の機械学習アルゴリズムに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。教師データは、一つ以上の、入力データと出力データ(正解データ)とのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。 The machine learning model is a model in which training (learning) is performed on an arbitrary machine learning algorithm using appropriate teacher data (learning data) in advance. The teacher data is composed of one or more pairs of input data and output data (correct answer data). The format and combination of the input data and output data of the pair group that composes the teacher data may be one of which is an image and the other of which is a numerical value, or one of which is composed of a plurality of image groups and the other of which is a character string. May be an image or the like, which is suitable for a desired configuration.

具体的には、例えば、OCTによって取得された画像と、該画像に対応する撮影部位ラベルとのペア群によって構成された教師データ(以下、第1の教師データ)が挙げられる。なお、撮影部位ラベルは部位を表すユニークな数値や文字列である。また、その他の教師データの例として、OCTの通常撮影によって取得されたノイズの多い低画質画像と、OCTにより複数回撮影して高画質化処理した高画質画像とのペア群によって構成されている教師データ(以下、第2の教師データ)等が挙げられる。 Specifically, for example, teacher data (hereinafter, first teacher data) composed of a pair group of an image acquired by OCT and a imaging site label corresponding to the image can be mentioned. The photographed part label is a unique numerical value or character string representing the part. Further, as an example of other teacher data, it is composed of a pair group of a noisy low-quality image acquired by normal OCT shooting and a high-quality image shot multiple times by OCT to improve the image quality. Teacher data (hereinafter, second teacher data) and the like can be mentioned.

機械学習モデルに入力データを入力すると、該機械学習モデルの設計に従った出力データが出力される。機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、出力データの種類のそれぞれについて、入力データに対応する可能性を数値として出力する等を行うことができる。具体的には、例えば、第1の教師データでトレーニングされた機械学習モデルにOCTによって取得された画像を入力すると、機械学習モデルは、該画像に撮影されている撮影部位の撮影部位ラベルを出力したり、撮影部位ラベル毎の確率を出力したりする。また、例えば、第2の教師データでトレーニングされた機械学習モデルにOCTの通常撮影によって取得されたノイズの多い低画質画像を入力すると、機械学習モデルは、OCTにより複数回撮影して高画質化処理された画像相当の高画質画像を出力する。なお、機械学習モデルについては、品質保持の観点から、自身が出力した出力データを教師データとして用いないように構成することができる。 When input data is input to the machine learning model, output data according to the design of the machine learning model is output. The machine learning model outputs output data that is likely to correspond to the input data, for example, according to the tendency trained with the teacher data. Further, the machine learning model can output, for example, the possibility of corresponding to the input data as a numerical value for each type of output data according to the tendency of training using the teacher data. Specifically, for example, when an image acquired by OCT is input to a machine learning model trained with the first teacher data, the machine learning model outputs a imaging site label of the imaging site captured in the image. Or output the probability for each imaging site label. Further, for example, when a low-quality image with a lot of noise acquired by normal shooting of OCT is input to the machine learning model trained with the second teacher data, the machine learning model is shot multiple times by OCT to improve the image quality. Outputs a high-quality image equivalent to the processed image. From the viewpoint of quality maintenance, the machine learning model can be configured so that the output data output by itself is not used as teacher data.

また、機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データを用いてトレーニングされた傾向を出力データに再現可能な程度が異なる場合がある。例えば、第1の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、正しい撮影部位ラベルを出力する確率がより高くなる場合がある。また、例えば、第2の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、より高画質な画像を出力できる場合がある。 Machine learning algorithms also include techniques for deep learning such as convolutional neural networks (CNNs). In the method related to deep learning, if the parameter settings for the layers and nodes constituting the neural network are different, the degree to which the tendency trained using the teacher data can be reproduced in the output data may be different. For example, in a deep learning machine learning model using the first teacher data, if more appropriate parameters are set, the probability of outputting a correct imaging site label may be higher. Further, for example, in a deep learning machine learning model using the second teacher data, if more appropriate parameters are set, a higher quality image may be output.

具体的には、CNNにおけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、教師データに基づいて、機械学習モデルの利用形態に好ましい値に設定することができる。例えば、教師データに基づいて、正しい撮影部位ラベルをより高い確率で出力したり、より高画質な画像を出力したりできるパラメータ群やエポック数を設定することができる。 Specifically, the parameters in the CNN are, for example, the kernel size of the filter, the number of filters, the stride value, and the dilation value, and the number of nodes output by the fully connected layer, which are set for the convolution layer. Etc. can be included. The parameter group and the number of training epochs can be set to preferable values for the usage pattern of the machine learning model based on the teacher data. For example, based on the teacher data, it is possible to set a parameter group and the number of epochs that can output the correct imaged part label with a higher probability and output a higher quality image.

このようなパラメータ群やエポック数の決定方法の一つを例示する。まず、教師データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用としてランダムに設定する。次に、トレーニング用のペア群を用いて機械学習モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の機械学習モデルに入力したときの出力と、入力データに対応する出力データとを損失関数によって評価した値群の平均値である。最後に、最もトレーニング評価値が小さくなったときのパラメータ群及びエポック数を、当該機械学習モデルのパラメータ群やエポック数として決定する。なお、このように、教師データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、機械学習モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。 One of the methods for determining such a parameter group and the number of epochs will be illustrated. First, 70% of the pair group constituting the teacher data is used for training, and the remaining 30% is randomly set for evaluation. Next, the machine learning model is trained using the training pair group, and the training evaluation value is calculated using the evaluation pair group at the end of each training epoch. The training evaluation value is, for example, the average value of a group of values in which the output when the input data constituting each pair is input to the machine learning model during training and the output data corresponding to the input data are evaluated by the loss function. is there. Finally, the parameter group and the number of epochs when the training evaluation value becomes the smallest are determined as the parameter group and the number of epochs of the machine learning model. In this way, by dividing the pair group that constitutes the teacher data into training and evaluation and determining the number of epochs, the machine learning model overfits the training pair group. Can be prevented.

高画質化エンジン(高画質化用の学習済モデル)とは、入力された低画質画像を高画質化した高画質画像を出力するモジュールのことである。ここで、本明細書における高画質化とは、入力された画像を画像診断により適した画質の画像に変換することをいい、高画質画像とは、画像診断により適した画質の画像に変換された画像をいう。また、低画質画像とは、例えば、X線撮影、CT、MRI、OCT、PET、若しくはSPECT等により取得された二次元画像や三次元画像、又は連続撮影したCTの三次元動画像等の特に高画質になるような設定をされずに撮影されたものである。具体的には、低画質画像は、例えば、X線撮影装置やCTによる低線量での撮影や、造影剤を使用しないMRIによる撮影、OCTの短時間撮影等によって取得される画像、及び少ない撮影回数で取得されたOCTA画像等を含む。 The high image quality engine (learned model for high image quality) is a module that outputs a high image quality image obtained by improving the high image quality of the input low image quality image. Here, high image quality in the present specification means converting an input image into an image having an image quality more suitable for image diagnosis, and a high image quality image is converted into an image having an image quality more suitable for image diagnosis. Refers to the image. The low-quality image is, for example, a two-dimensional image or a three-dimensional image acquired by X-ray photography, CT, MRI, OCT, PET, SPECT, or the like, or a three-dimensional moving image of CT continuously photographed. It was taken without setting the image quality. Specifically, low-quality images include, for example, images acquired by low-dose radiography using an X-ray imaging device or CT, MRI imaging without using a contrast medium, short-time OCT imaging, and a small number of imaging images. Includes OCTA images acquired by the number of times.

また、画像診断に適した画質の内容は、各種の画像診断で何を診断したいのかということに依存する。そのため一概には言えないが、例えば、画像診断に適した画質は、ノイズが少なかったり、高コントラストであったり、撮影対象を観察しやすい色や階調で示していたり、画像サイズが大きかったり、高解像度であったりする画質を含む。また、画像生成の過程で描画されてしまった実際には存在しないオブジェクトやグラデーションが画像から除去されているような画質を含むことができる。 Further, the content of the image quality suitable for the image diagnosis depends on what is desired to be diagnosed by various image diagnoses. Therefore, it cannot be said unconditionally, but for example, the image quality suitable for image diagnosis has less noise, high contrast, the image to be photographed is shown in colors and gradations that are easy to observe, and the image size is large. Includes image quality such as high resolution. In addition, it is possible to include an image quality in which objects and gradations that do not actually exist that have been drawn in the process of image generation are removed from the image.

また、ノイズが少なかったり、高コントラストであったりする高画質画像を、OCTA等の画像の血管解析処理や、CTやOCT等の画像の領域セグメンテーション処理等の画像解析に利用すると、低画質画像を利用するよりも精度よく解析が行えることが多い。そのため、高画質化エンジンによって出力された高画質画像は、画像診断だけでなく、画像解析にも有用である場合がある。 Further, when a high-quality image having less noise or high contrast is used for image analysis such as blood vessel analysis processing of an image such as OCTA or area segmentation processing of an image such as CT or OCT, a low-quality image can be obtained. In many cases, analysis can be performed more accurately than using it. Therefore, the high-quality image output by the high-quality engine may be useful not only for image diagnosis but also for image analysis.

下記の実施形態における高画質化手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像処理手法では、機械学習アルゴリズムを用いた処理に加えて、各種画像フィルタ処理、類似画像に対応する高画質画像のデータベースを用いたマッチング処理、及び知識ベース画像処理等の既存の任意の処理を行ってもよい。 In the image processing method constituting the image quality improvement method in the following embodiment, processing using various machine learning algorithms such as deep learning is performed. In the image processing method, in addition to the processing using the machine learning algorithm, various existing optional image processing, matching processing using a database of high-quality images corresponding to similar images, and knowledge-based image processing are performed. May be processed.

特に、二次元画像を高画質化するCNNの構成例として、図10に示す構成がある。当該CNNの構成には、複数の畳み込み処理ブロック1000群が含まれる。畳み込み処理ブロック1000は、畳み込み(Convolution)層1010と、バッチ正規化(Batch Normalization)層1020と、正規化線形(ReLU:RectifierLinear Unit)関数を用いた活性化層1030とを含む。また、当該CNNの構成には、合成(Merger)層1040と、最後の畳み込み層105が含まれる。合成層1040は、畳み込み処理ブロック1000の出力値群と画像を構成する画素値群とを連結したり、加算したりして合成する。最後の畳み込み層1050は、合成層104で合成された、高画質画像Im1200を構成する画素値群を出力する。このような構成では、入力された画像Im1100を構成する画素値群が畳み込み処理ブロック1000群を経て出力された値群と、入力された画像Im1100を構成する画素値群とが、合成層1040で合成される。その後、合成された画素値群は最後の畳み込み層1050で高画質画像Im1200に成形される。 In particular, there is a configuration shown in FIG. 10 as a configuration example of a CNN that improves the image quality of a two-dimensional image. The configuration of the CNN includes a plurality of convolution processing blocks 1000 groups. The convolution processing block 1000 includes a convolution layer 1010, a batch normalization layer 1020, and an activation layer 1030 using a rectifier linear unit (ReLU) function. The CNN configuration also includes a synthetic (Merge) layer 1040 and a final convolution layer 105. The composite layer 1040 synthesizes by connecting or adding the output value group of the convolution processing block 1000 and the pixel value group constituting the image. The final convolution layer 1050 outputs a group of pixel values constituting the high-quality image Im1200 synthesized by the composite layer 104. In such a configuration, the value group in which the pixel value group constituting the input image Im1100 is output via the convolution processing block 1000 group and the pixel value group constituting the input image Im1100 are formed in the composite layer 1040. It is synthesized. After that, the combined pixel value group is formed into a high-quality image Im1200 at the final convolution layer 1050.

なお、例えば、畳み込み処理ブロック1000の数を16とし、畳み込み層1010群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の高画質化の効果を得られる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。 For example, by setting the number of convolution processing blocks 1000 to 16 and setting the kernel size of the filter to 3 pixels in width and 3 pixels in height and the number of filters to 64 as parameters of the convolution layer 1010 group, a constant high image quality is obtained. You can get the effect of conversion. However, in reality, as described in the above description of the machine learning model, a better parameter group can be set by using the teacher data according to the usage pattern of the machine learning model. If it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be expanded to three-dimensional or four-dimensional.

また、本実施形態に係る高画質化部225におけるCNNの構成例の別の例として、図7を用いて説明をする。図7は、高画質化部225における機械学習モデル構成の一例を示している。図7で示す構成は、入力値群を加工して出力する処理を担う、複数の層群によって構成される。なお、前記構成に含まれる層の種類としては、図7に示すように、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、合成(Merger)層がある。畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、前記フィルタのカーネルサイズの次元数も変更してもよい。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。具体的には、例えば、Max Pooling処理がある。アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。このような構成では、入力された画像701を構成する画素値群が畳み込み処理ブロックを経て出力された値群と、入力された画像701を構成する画素値群が、合成層で合成される。その後、合成された画素値群は最後の畳み込み層で高画質画像702に成形される。なお、図示はしないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形(ReLU:Rectifier Linear Unit)関数を用いた活性化層を組み込む等をしてもよい。 Further, as another example of the configuration example of the CNN in the image quality improving unit 225 according to the present embodiment, FIG. 7 will be described. FIG. 7 shows an example of the machine learning model configuration in the image quality improving unit 225. The configuration shown in FIG. 7 is composed of a plurality of layers that are responsible for processing and outputting the input value group. As shown in FIG. 7, the types of layers included in the above configuration include a convolution layer, a downsampling layer, an upsampling layer, and a composite layer. The convolution layer is a layer that performs convolution processing on the input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image. The downsampling layer is a process of reducing the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing the input value groups. Specifically, for example, there is a Max Polling process. The upsampling layer is a process of increasing the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding the interpolated value from the input value group. Specifically, for example, there is a linear interpolation process. The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them. In such a configuration, the value group in which the pixel value group constituting the input image 701 is output through the convolution processing block and the pixel value group constituting the input image 701 are combined in the composite layer. After that, the combined pixel value group is formed into a high-quality image 702 in the final convolution layer. Although not shown, as an example of changing the configuration of the CNN, for example, a batch normalization (Batch Normalization) layer and an activation layer using a normalization linear (ReLU: Rectifier Liner Unit) function are incorporated after the convolution layer. Etc. may be done.

ここで、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本実施形態では、学習部(不図示)の一例である画像処理部220による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPUまたはGPUのみにより演算が行われてもよい。また、高画質化部225も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Here, the GPU can perform efficient calculations by processing more data in parallel. Therefore, when learning is performed a plurality of times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in the present embodiment, the GPU is used in addition to the CPU for the processing by the image processing unit 220, which is an example of the learning unit (not shown). Specifically, when executing a learning program including a learning model, learning is performed by the CPU and the GPU collaborating to perform calculations. The processing of the learning unit may be performed only by the CPU or GPU. Further, the image quality improving unit 225 may also use the GPU in the same manner as the learning unit. Further, the learning unit may include an error detecting unit and an updating unit (not shown). The error detection unit obtains an error between the output data output from the output layer of the neural network and the correct answer data according to the input data input to the input layer. The error detection unit may use the loss function to calculate the error between the output data from the neural network and the correct answer data. Further, the update unit updates the coupling weighting coefficient between the nodes of the neural network based on the error obtained by the error detection unit so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error backpropagation method is a method of adjusting the coupling weighting coefficient between the nodes of each neural network so that the above error becomes small.

なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、高画質画像の周辺部が十分に高画質化されない問題等の対策のため、入力する低画質画像と出力する高画質画像とで異なる画像サイズを要する場合があることに留意すべきである。 When using some image processing methods such as image processing using CNN, it is necessary to pay attention to the image size. Specifically, it should be noted that different image sizes may be required for the input low-quality image and the output high-quality image in order to deal with the problem that the peripheral part of the high-quality image is not sufficiently high-quality. Should be.

明瞭な説明のため、後述の実施形態において明記はしないが、高画質化エンジンに入力される画像と出力される画像とで異なる画像サイズを要する高画質化エンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、機械学習モデルをトレーニングするための教師データに用いる画像や、高画質化エンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に高画質化できるように高画質化手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 For the sake of clarity, although not specified in the embodiments described later, when a high image quality engine that requires different image sizes for the image input to the high image quality engine and the output image is adopted, an appropriate image It is assumed that the size is adjusted. Specifically, padding is performed on an input image such as an image used for teacher data for training a machine learning model or an image input to a high image quality engine, and a shooting area around the input image is set. Adjust the image size by combining them. The area to be padded is filled with a fixed pixel value, filled with neighboring pixel values, or mirror padded according to the characteristics of the high image quality method so that the image quality can be effectively improved.

また、高画質化手法は、一つの画像処理手法だけで実施されることもあるし、二つ以上の画像処理手法を組み合わせて実施されることもある。また、複数の高画質化手法群を並列に実施し、複数の高画質画像群を生成した上で、最も高画質な高画質画像を最終的に高画質画像として選択することもある。なお、最も高画質な高画質画像の選択は、画質評価指数を用いて自動的に行われてもよいし、任意の表示部等に備えられたユーザーインターフェースに複数の高画質画像群を表示して、検者(ユーザー)の指示に応じて行われてもよい。 Further, the image quality improving method may be implemented by only one image processing method, or may be implemented by combining two or more image processing methods. In addition, a plurality of high image quality improvement method groups may be performed in parallel to generate a plurality of high image quality image groups, and then the highest image quality high image quality image may be finally selected as the high image quality image. The selection of the highest image quality image may be automatically performed using the image quality evaluation index, or a plurality of high image quality image groups are displayed on the user interface provided in an arbitrary display unit or the like. It may be performed according to the instruction of the examiner (user).

なお、高画質化していない入力画像の方が、画像診断に適している場合もあるので、最終的な画像の選択の対象には入力画像を加えてよい。また、高画質化エンジンに対して、低画質画像とともにパラメータを入力してもよい。高画質化エンジンに対して、入力画像とともに、例えば、高画質化を行う程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを入力してもよい。 Since the input image without high image quality may be more suitable for image diagnosis, the input image may be added to the final image selection target. Further, parameters may be input to the high image quality engine together with the low image quality image. A parameter for specifying the degree of high image quality and a parameter for specifying the image filter size used in the image processing method may be input to the high image quality engine together with the input image.

<第1の実施形態>
以下、図1乃至図3を参照して、第1の実施形態による医用画像処理装置について説明する。ここで、図3は、本実施形態に係る医用画像処理装置の概略的な構成の一例として、画像処理部220の概略的な構成の一例を示す。
<First Embodiment>
Hereinafter, the medical image processing apparatus according to the first embodiment will be described with reference to FIGS. 1 to 3. Here, FIG. 3 shows an example of the schematic configuration of the image processing unit 220 as an example of the schematic configuration of the medical image processing apparatus according to the present embodiment.

<OCTシステムの概略構成>
図1は、本実施形態に係るOCTシステム(眼科撮影システム)の概略的な構成の一例を示す。本実施形態に係るOCTシステムが有する撮影装置100は、波長掃引光源を用いて時間的に光を分光するSS−OCT装置の一例である。本実施形態に係るOCTシステムは、撮影装置100、制御装置200(医用画像処理装置の一例)、および表示部300を備える。ここで、これらは、それぞれ別体として構成され、互いに通信可能に接続される構成であってもよい。また、これらは、一体として構成されてもよい。以下、図1〜図3を参照して、撮影装置100、および制御装置200の構成を順に説明する。
<Outline configuration of OCT system>
FIG. 1 shows an example of a schematic configuration of an OCT system (ophthalmic imaging system) according to the present embodiment. The photographing apparatus 100 included in the OCT system according to the present embodiment is an example of an SS-OCT apparatus that disperses light in time using a wavelength sweeping light source. The OCT system according to the present embodiment includes an imaging device 100, a control device 200 (an example of a medical image processing device), and a display unit 300. Here, these may be configured as separate bodies and connected to each other so as to be communicable with each other. Moreover, these may be configured as one. Hereinafter, the configurations of the photographing device 100 and the control device 200 will be described in order with reference to FIGS. 1 to 3.

<撮影装置100の構成>
撮影装置100は、被検眼Eの前眼部Eaや、被検眼Eの眼底Erの2次元像および断層画像を撮影するための測定光学系を内蔵している。以下、撮影装置100の内部に配置される構成について説明する。なお、撮影装置100の内部に配置される光学系の一部の光学系(例えば、参照光学系、OCT光学系の検出光路等)が別体として構成されてもよい。このとき、これらの光学系は互いに光ファイバ等で接続されるように構成されればよい。
<Configuration of imaging device 100>
The imaging device 100 has a built-in measurement optical system for capturing a two-dimensional image and a tomographic image of the anterior segment Ea of the eye to be inspected E and the fundus Er of the eye to be inspected E. Hereinafter, the configuration arranged inside the photographing device 100 will be described. A part of the optical system (for example, the reference optical system, the detection optical path of the OCT optical system, etc.) of the optical system arranged inside the photographing apparatus 100 may be configured as a separate body. At this time, these optical systems may be configured to be connected to each other by an optical fiber or the like.

撮影装置100における被検眼Eに対向する位置に、対物レンズ101−1が設置されている。対物レンズ101−1の光軸上には、第1ダイクロイックミラー102および第2ダイクロイックミラー103が配置され、これらによって被検眼からの光路が分岐される。即ち、被検眼Eからの光路は、これら光学部材により、OCT光学系の測定光路L1、眼底観察光路と固視灯の測定(以下、SLO光学系の測定)光路L2、および前眼観察光路L3に波長帯域ごとに分岐される。より詳細には、第1ダイクロイックミラー102の透過方向に前眼観察光路L3が配置され、反射方向に第2ダイクロイックミラー103が配置される。第2ダイクロイックミラー103の透過方向にOCT光学系の測定光路L1が配置され、反射方向にSLO光学系の測定光路L2が配置される。なお、これら光路の配置は例示であって、各々のダイクロイックミラーの透過方向および反射方向に配置される光路は適宜入れ替えることができる。 The objective lens 101-1 is installed at a position facing the eye E to be inspected in the photographing apparatus 100. A first dichroic mirror 102 and a second dichroic mirror 103 are arranged on the optical axis of the objective lens 101-1, and the optical path from the eye to be inspected is branched by these. That is, the optical path from the eye E to be inspected is the measurement optical path L1 of the OCT optical system, the measurement optical path L2 of the fundus observation optical path and the fixation lamp (hereinafter referred to as the measurement of the SLO optical system), and the anterior eye observation optical path L3 by these optical members. It is branched for each wavelength band. More specifically, the front eye observation optical path L3 is arranged in the transmission direction of the first dichroic mirror 102, and the second dichroic mirror 103 is arranged in the reflection direction. The measurement optical path L1 of the OCT optical system is arranged in the transmission direction of the second dichroic mirror 103, and the measurement optical path L2 of the SLO optical system is arranged in the reflection direction. The arrangement of these optical paths is an example, and the optical paths arranged in the transmission direction and the reflection direction of each dichroic mirror can be appropriately replaced.

光路L2は、更に穴あきミラーや中空のミラーが蒸着されたプリズム118によって、眼底観察用のAPD(アバランシェフォトダイオード)115に至る光路と、眼底観察用光源120および固視灯116への光路とに、波長帯域ごとに分岐される。また、プリズム118に近接した位置には第3ダイクロイックミラー119が配置される。第3ダイクロイックミラー119により、波長帯域が異なる眼底観察用光源120からの光および固視灯116からの光は、被検眼Eに向かうように光路L2に導かれる。光路L2上には、第2ダイクロイックミラー103より順に、レンズ101−2、ミラー113−1、Yスキャナ117、Xスキャナ114、ミラー113−2、シャッター110、レンズ111,112、およびプリズム118が配置される。光源120は、不図示の光源光量を測定するフォトディテクタ(PD)及び光源電流を測定する電流検出回路を有しており、各値をモニタすることができる。レンズ111は、固視灯および眼底観察用の合焦調整のため、不図示のモータ等からなるフォーカス駆動手段によって、図中矢印で示す光軸方向に駆動される。シャッター110は、不図示のソレノイド等からなる駆動手段によって光路L2を遮断することができる。プリズム118の透過方向に配置されるAPD115は、眼底観察用光源120が発する照明光の波長、具体的には780nm付近に感度を持つシングルディテクターであり、眼底Erから散乱・反射され戻ってきた光を検出する。一方、プリズム118の反射方向に配置される固視灯116は、可視光を発生して被検者の固視を促す。 The optical path L2 includes an optical path to the APD (Avalanche photodiode) 115 for observing the fundus of the eye, and an optical path to the light source 120 for observing the fundus and the fixation lamp 116 by a prism 118 on which a perforated mirror or a hollow mirror is further deposited. It is branched for each wavelength band. A third dichroic mirror 119 is arranged at a position close to the prism 118. The light from the fundus observation light source 120 and the light from the fixation lamp 116 having different wavelength bands are guided to the optical path L2 toward the eye E to be inspected by the third dichroic mirror 119. Lens 101-2, mirror 113-1, Y scanner 117, X scanner 114, mirror 113-2, shutter 110, lenses 111, 112, and prism 118 are arranged on the optical path L2 in this order from the second dichroic mirror 103. Will be done. The light source 120 has a photodetector (PD) for measuring the amount of light from a light source (not shown) and a current detection circuit for measuring the light source current, and each value can be monitored. The lens 111 is driven in the direction of the optical axis indicated by the arrow in the figure by a focus driving means including a motor (not shown) or the like for focusing adjustment for fixation and fundus observation. The shutter 110 can block the optical path L2 by a driving means including a solenoid (not shown) or the like. The APD 115 arranged in the transmission direction of the prism 118 is a single detector having a sensitivity in the wavelength of the illumination light emitted by the fundus observation light source 120, specifically around 780 nm, and the light scattered / reflected from the fundus Er and returned. Is detected. On the other hand, the fixation lamp 116 arranged in the reflection direction of the prism 118 generates visible light to promote fixation of the subject.

また、光路L2には、眼底観察用光源120から発せられた光を被検眼Eの眼底Er上で走査するためのXスキャナ114(主走査方向用)、Yスキャナ117(主走査方向と交差する副走査方向用)が配置される。レンズ101−2は、Xスキャナ114とYスキャナ117の中央位置付近を焦点位置として配置されている。なお、本実施形態では、これらスキャナ114,117は、それぞれポリゴンミラー、共振型のガルバノメトリックミラーで構成したが、ガルバノメトリックミラーのみで構成されていてもよい。また、走査部として、これらスキャナをまとめ、MEMS等の任意の方向に光を走査可能な単一のスキャナを用いてもよい。Xスキャナ114とYスキャナ117の中央位置付近と、被検眼Eの瞳の位置とは光学的に略共役関係とされている。 Further, in the optical path L2, an X scanner 114 (for the main scanning direction) and a Y scanner 117 (for the main scanning direction) for scanning the light emitted from the light source for observing the fundus of the eye on the fundus Er of the eye E to be inspected intersect with the main scanning direction. (For sub-scanning direction) is arranged. The lens 101-2 is arranged with the vicinity of the center position of the X scanner 114 and the Y scanner 117 as the focal position. In the present embodiment, the scanners 114 and 117 are composed of polygon mirrors and resonance type galvanometric mirrors, respectively, but may be composed of only galvanometric mirrors. Further, as the scanning unit, a single scanner capable of scanning light in an arbitrary direction such as MEMS may be used by combining these scanners. The vicinity of the center position of the X scanner 114 and the Y scanner 117 and the position of the pupil of the eye E to be inspected are optically in a substantially conjugate relationship.

光路L3には、第1ダイクロイックミラー102から順に、レンズ161、および前眼観察用の近赤外光に高感度を有するモノクロのCMOSセンサユニット162が配置されている。このCMOSセンサユニット162は、不図示の前眼観察用照明光の波長、具体的には970nm付近に感度を持つ。また、前眼観察用照明光には光源電流を測定する電流検出回路を有しており、光源電流値をモニタすることができる。 In the optical path L3, a lens 161 and a monochrome CMOS sensor unit 162 having high sensitivity to near-infrared light for frontal eye observation are arranged in order from the first dichroic mirror 102. The CMOS sensor unit 162 has a sensitivity in the wavelength of the illumination light for frontal eye observation (not shown), specifically in the vicinity of 970 nm. Further, the illumination light for front eye observation has a current detection circuit for measuring the light source current, and the light source current value can be monitored.

光路L1は、前述の通りOCT光学系を成しており、被検眼の眼底Erの断層画像を撮影するために使用される。より具体的には断層画像を形成するための干渉信号を得るために使用される。OCT光学系は、第2ダイクロイックミラー103より順に配置される、レンズ101−3、ミラー121、走査部、シャッター126、およびレンズ123,124を有する。レンズ123は、眼底観察用の合焦調整のため、不図示のモータ等からなるフォーカス駆動手段によって、図中矢印で示す光軸方向に駆動される。シャッター126は、不図示のソレノイド等からなる駆動手段によって光路を開閉することで、光路L1を遮断することができる。走査部は、測定光を被検眼Eの眼底Er上で走査するために機能するOCTのXスキャナ122−1と、OCTのYスキャナ122−2とを含んで配置される。OCTのXスキャナ122−1およびOCTのYスキャナ122−2は、その中央位置付近がレンズ101−3の焦点位置となるように配置され、該中央位置付近と被検眼Eの瞳の位置とは光学的な共役関係とされている。 The optical path L1 forms an OCT optical system as described above, and is used for taking a tomographic image of the fundus Er of the eye to be inspected. More specifically, it is used to obtain an interference signal for forming a tomographic image. The OCT optical system has a lens 101-3, a mirror 121, a scanning unit, a shutter 126, and lenses 123 and 124, which are arranged in order from the second dichroic mirror 103. The lens 123 is driven in the direction of the optical axis indicated by the arrow in the figure by a focus driving means including a motor (not shown) or the like for focusing adjustment for observing the fundus. The shutter 126 can block the optical path L1 by opening and closing the optical path by a driving means including a solenoid (not shown) or the like. The scanning unit is arranged including an OCT X scanner 122-1 and an OCT Y scanner 122-2 that function to scan the measurement light on the fundus Er of the eye E to be inspected. The OCT X-scanner 122-1 and the OCT Y-scanner 122-2 are arranged so that the vicinity of the center position thereof is the focal position of the lens 101-3. It is said to be an optical conjugate relationship.

以上の構成により、各スキャナの走査により偏向する測定光は、その走査状態にかかわらず第1ダイクロイックミラー102および第2ダイクロイックミラー103の間で光軸に水平を保たれる。その結果、各ダイクロイックミラーに入射する測定光の入射角度は変化しないことになる。本構成をとることにより、上記各用途のために設けられた光路における波長帯域の混信を防止することができる。なお、本実施形態では、OCTのXスキャナ122−1およびOCTのYスキャナ122−2として、ガルバノスキャナを用いることとしている。しかし、走査速度等の要求される走査条件に応じて、適宜変更することができ、共振スキャナなどを使用してもよい。また、走査部として、上述したようなMEMS等の任意の方向に光を走査可能な単一のスキャナを用いてもよい。 With the above configuration, the measurement light deflected by the scanning of each scanner is kept horizontal with respect to the optical axis between the first dichroic mirror 102 and the second dichroic mirror 103 regardless of the scanning state. As a result, the incident angle of the measurement light incident on each dichroic mirror does not change. By adopting this configuration, it is possible to prevent interference of wavelength bands in the optical path provided for each of the above applications. In this embodiment, a galvano scanner is used as the OCT X scanner 122-1 and the OCT Y scanner 122-2. However, it can be changed as appropriate according to the required scanning conditions such as scanning speed, and a resonance scanner or the like may be used. Further, as the scanning unit, a single scanner capable of scanning light in any direction such as MEMS as described above may be used.

次に、光源130の周辺について説明する。光源130は波長掃引型(SS;Swept Source)光源であり、例えば掃引中心波長1050nm、掃引幅100nmで掃引しながら光を射出する。光源130は不図示の共振器を有する。共振器は光源内部に有する場合と光源の外部に有する場合がある。共振器長は、例えば50mmの長さを有する。 Next, the periphery of the light source 130 will be described. The light source 130 is a wavelength sweep type (SS; Swept Source) light source, and emits light while sweeping at, for example, a sweep center wavelength of 1050 nm and a sweep width of 100 nm. The light source 130 has a resonator (not shown). The resonator may be provided inside the light source or outside the light source. The resonator length has a length of, for example, 50 mm.

次に、光源130からの光路と参照光学系の構成について説明する。光源130から射出された光はファイバ131−1を通してNDフィルタ132、ファイバ131−2、光カプラ133に導かれる。NDフィルタ132は不図示のモータ及び駆動機構により光の透過度を調整でき、位置から透過率がわかる。また、NDフィルタ132は反射を抑制するために光路に対して45度傾けて設置される。測定光にOCT光カプラ133は光ファイバ133−1、2に5:95の分岐比で分岐され光の光量を測定するフォトディテクタ(PD)134及び光カプラ125に導かれる。光カプラ125は70:30の分岐比で測定光となる125−1と参照光となる125−2に分岐される。測定光はレンズ124を通って光路L1に出射される。 Next, the configuration of the optical path from the light source 130 and the reference optical system will be described. The light emitted from the light source 130 is guided to the ND filter 132, the fiber 131-2, and the optical coupler 133 through the fiber 131-1. The light transmittance of the ND filter 132 can be adjusted by a motor and a drive mechanism (not shown), and the transmittance can be known from the position. Further, the ND filter 132 is installed at an angle of 45 degrees with respect to the optical path in order to suppress reflection. The OCT optical coupler 133 is branched into the optical fibers 133-1, 2 at a branching ratio of 5:95 to the measurement light, and is guided to the photodetector (PD) 134 and the optical coupler 125 that measure the amount of light. The optical coupler 125 is branched into 125-1 as the measurement light and 125-2 as the reference light at a branching ratio of 70:30. The measurement light is emitted to the optical path L1 through the lens 124.

一方、参照光は光ファイバ125−2を介して参照光学系に出射される。参照光学系はレンズ141−1、141−2、分散補償用ガラス142、及び参照ミラー143、ミラー144、145、NDフィルタ146を有する。参照光は、レンズ141−1、NDフィルタ146、ミラー144、145を介して参照ミラー143に到達し反射される。反射した光はミラー145、144、レンズ141−2を介して光ファイバ151−1に出射される。参照ミラー143は、不図示のモータ及び駆動機構によって構成される光路長調整機構により、図中矢印で示す光軸方向に位置を調整することができる。また、NDフィルタ146は不図示のモータ及び駆動機構によって光の透過率を調整でき、位置から透過率がわかる。 On the other hand, the reference light is emitted to the reference optical system via the optical fiber 125-2. The reference optical system includes lenses 141-1 and 141-2, dispersion compensating glass 142, and reference mirrors 143, mirrors 144 and 145, and an ND filter 146. The reference light reaches the reference mirror 143 via the lens 141-1, the ND filter 146, the mirrors 144 and 145, and is reflected. The reflected light is emitted to the optical fiber 151-1 via the mirror 145, 144 and the lens 141-2. The position of the reference mirror 143 can be adjusted in the direction of the optical axis indicated by the arrow in the figure by an optical path length adjusting mechanism composed of a motor and a drive mechanism (not shown). Further, the ND filter 146 can adjust the light transmittance by a motor and a drive mechanism (not shown), and the transmittance can be known from the position.

光ファイバ151−1に導かれた参照光は、被検眼に反射して戻ってきた測定光を導く光ファイバ151−2と光カプラ151で合波する。光カプラで合波した光は50:50の分岐比で光ファイバ151−3、4に分岐されディテクタに出射される。ディテクタ150は差動検出器になっており、位相が180度反転した二つの干渉信号が入力すると、直流成分を除去し、干渉成分のみを出力する。ディテクタ150で検出された干渉信号は光の強度に応じた電気信号として出力され、制御装置200に入力され、信号処理を行い断層画像が生成される。 The reference light guided to the optical fiber 151-1 is combined with the optical fiber 151-2 that is reflected by the eye to be inspected and guides the returned measurement light by the optical coupler 151. The light combined by the optical coupler is branched into optical fibers 151-3 and 4 at a branching ratio of 50:50 and emitted to the detector. The detector 150 is a differential detector, and when two interference signals whose phases are inverted by 180 degrees are input, the DC component is removed and only the interference component is output. The interference signal detected by the detector 150 is output as an electric signal according to the light intensity, input to the control device 200, and signal processing is performed to generate a tomographic image.

なお、本実施形態で使用している不図示のモータ及び駆動機構にはフォトインタラプタなどのセンサ機構も備わっており、駆動位置が監視できモータの脱調がわかる。 The motor and drive mechanism (not shown) used in this embodiment are also provided with a sensor mechanism such as a photo interrupter, so that the drive position can be monitored and the step-out of the motor can be known.

以上の構成を有する撮影装置100は、更に温湿度センサ171を備えている。温湿度センサ171は、例えば外気の温湿度が反映されやすい箇所、光源130周辺やXスキャナ122−1、Yスキャナ122−2周辺、その他制御基板上など複数設置し、設置場所及び個数は任意で選択できる。 The photographing apparatus 100 having the above configuration further includes a temperature / humidity sensor 171. A plurality of temperature / humidity sensors 171 are installed, for example, in a place where the temperature / humidity of the outside air is easily reflected, around the light source 130, around the X scanner 122-1 and the Y scanner 122-2, and on other control boards, and the installation location and number are arbitrary. You can choose.

<制御装置200の構成>
次に、本実施形態に係るOCTシステムの概略的な構成の一例について、機能ブロック図である図2を参照して説明する。制御装置200は、撮影装置100の各部と回路やネットワークを介して通信可能に接続されることにより各部の制御を行うと共に、断層画像等を生成する処理、さらにはデバイスの各種情報の取得等を行うことができる。
<Configuration of control device 200>
Next, an example of a schematic configuration of the OCT system according to the present embodiment will be described with reference to FIG. 2, which is a functional block diagram. The control device 200 controls each part by being communicably connected to each part of the photographing device 100 via a circuit or a network, performs a process of generating a tomographic image or the like, and acquires various information of the device. It can be carried out.

制御装置200は、制御部211、第1の情報取得部212、記憶部213、画像処理部220が設けられている。制御部211は、撮影装置100の各構成部品を制御する。第1の情報取得部212は、撮影装置100から断層画像データや、眼底画像データ、前眼画像データを取得すると共に各構成部品の状態などを取得する。また、第1の情報取得部212は、撮影装置100や他の装置から各種データや画像を取得したり、不図示の入力装置を介して検者からの入力を取得したりすることができる。なお、入力装置としては、マウス、キーボード、タッチパネル及びその他任意の入力装置を採用してよい。また、表示部300をタッチパネルディスプレイとして構成してもよい。画像処理部220は、第1の情報取得部212で取得した画像データを処理し、断層画像を生成する処理を行う。記憶部213は、制御部211で実行する処理を実現するためのプログラムや第1の情報取得部212で取得したデータ、画像処理部220で生成された断層画像や撮影情報などのデータ等を記憶することができる。また、後述する学習済モデルを記憶することができる。 The control device 200 is provided with a control unit 211, a first information acquisition unit 212, a storage unit 213, and an image processing unit 220. The control unit 211 controls each component of the photographing apparatus 100. The first information acquisition unit 212 acquires tomographic image data, fundus image data, anterior eye image data, and the state of each component from the photographing apparatus 100. In addition, the first information acquisition unit 212 can acquire various data and images from the photographing device 100 and other devices, and can acquire input from the examiner via an input device (not shown). As the input device, a mouse, a keyboard, a touch panel, or any other input device may be adopted. Further, the display unit 300 may be configured as a touch panel display. The image processing unit 220 processes the image data acquired by the first information acquisition unit 212 to generate a tomographic image. The storage unit 213 stores a program for realizing the processing executed by the control unit 211, data acquired by the first information acquisition unit 212, data such as a tomographic image and shooting information generated by the image processing unit 220, and the like. can do. In addition, the trained model described later can be stored.

次に、本実施形態に係る医用画像処理装置の一例である画像処理部220について、図3を参照して説明する。画像処理部220には、第2の情報取得部221、入力部222、出力部223、高画質化可否判定部224、高画質化部225が備わっている。第2の情報取得部221は、第1の情報取得部212で取得したデータ及び断層画像、記憶部214及び外部記憶装置320に記憶されているデータおよび断層画像などの情報を取得する。入力部222は、第2の情報取得部221で取得された断層画像を高画質化部225へと入力する。高画質化部225は、入力として断層画像を入力すると、高画質化後の断層画像を出力する学習済モデルに対応する機械学習アルゴリズムが実装されている。出力部223は、高画質化部225で高画質化された断層画像を出力する。高画質化可否判定部224は例えば、第2の情報取得部221で得られたデータから、入力された断層画像が高画質化可能かどうかを判断する。学習済モデルは断層画像に応じて予め複数生成されて記憶部214に記憶されている。高画質化部225は複数の学習済モデルを用いて、入力部222の入力データである断層画像を解析して出力部223から高画質化した画像を出力する。 Next, the image processing unit 220, which is an example of the medical image processing device according to the present embodiment, will be described with reference to FIG. The image processing unit 220 includes a second information acquisition unit 221, an input unit 222, an output unit 223, a high image quality improvement possibility determination unit 224, and a high image quality improvement unit 225. The second information acquisition unit 221 acquires information such as data acquired by the first information acquisition unit 212 and a tomographic image, data stored in the storage unit 214 and the external storage device 320, and a tomographic image. The input unit 222 inputs the tomographic image acquired by the second information acquisition unit 221 to the high image quality improvement unit 225. The high image quality improvement unit 225 implements a machine learning algorithm corresponding to a trained model that outputs a tomographic image after high image quality when a tomographic image is input as an input. The output unit 223 outputs a tomographic image that has been improved in image quality by the image quality improving unit 225. The high image quality determination unit 224 determines, for example, whether or not the input tomographic image can be improved in image quality from the data obtained by the second information acquisition unit 221. A plurality of trained models are generated in advance according to the tomographic image and stored in the storage unit 214. The high image quality improvement unit 225 analyzes the tomographic image which is the input data of the input unit 222 by using a plurality of trained models, and outputs the high image quality image from the output unit 223.

制御装置200には、モニタ等の表示部300及び例えばマウス等のポインティングデバイスにより構成される入力部222が接続されている。表示部300は、画像処理部220で生成される各種画像や被験者の情報等、画像処理部220で出力されたメンテナンス情報等を表示する。入力部222は、ユーザーが制御装置200への各種入力を行う際の入力手段として機能する。外部記憶装置320は、制御装置の記憶部のデータや出力された画像、画像処理部220で出力された情報等を保存することができる。 A display unit 300 such as a monitor and an input unit 222 composed of a pointing device such as a mouse are connected to the control device 200. The display unit 300 displays various images generated by the image processing unit 220, subject information, and other maintenance information output by the image processing unit 220. The input unit 222 functions as an input means when the user makes various inputs to the control device 200. The external storage device 320 can store data in the storage unit of the control device, output images, information output by the image processing unit 220, and the like.

なお、制御装置200は汎用のコンピュータまたは撮影装置100専用のコンピュータとして構成することができる。制御装置200の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の演算装置によって実行されるソフトウェアモジュールによって構成されてよい。また、制御装置200の各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、記憶部214は任意のメモリや光学ディスク等の任意の記憶媒体等によって構成されてよい。また、ここでは撮影装置100、制御装置200、および表示部300等が別体とされたものを例示しているが、これらの全て或いは各部が部分的に一体化してもよい。 The control device 200 can be configured as a general-purpose computer or a computer dedicated to the photographing device 100. Each component of the control device 200 may be composed of a software module executed by an arithmetic unit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Further, each component of the control device 200 may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, the storage unit 214 may be composed of an arbitrary memory, an arbitrary storage medium such as an optical disk, or the like. Further, although the imaging device 100, the control device 200, the display unit 300, and the like are shown as separate bodies, all or each of these may be partially integrated.

なお、入力部222以外から撮影装置100の制御を行うスイッチ等を撮影装置100もしくは制御装置200に設置してもよい。スイッチは、例えば電源のOn/Offや撮影、フォーカス調整、各種デバイスの制御を行う機能を持たせることができる。またスイッチの種類は押下型や回転型、トグル型などがあり種類を限定するものではない。 A switch or the like that controls the photographing device 100 from other than the input unit 222 may be installed in the photographing device 100 or the control device 200. The switch can have functions such as turning on / off the power supply, shooting, adjusting the focus, and controlling various devices. In addition, the types of switches include push type, rotary type, and toggle type, and the types are not limited.

<学習モデル及び学習データ>
また、機械学習アルゴリズムに係る学習モデルには、例えば、上述したCNN等を用いることができる。畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の画像処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を教師データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがよりよい特性を得られる場合がある。よりよい特性とは、例えば、眼底画像の学習精度が高かったり、画像処理の時間が短かったり、学習済モデルのトレーニングにかかる時間が短かったりすることが含まれる。
<Learning model and learning data>
Further, for the learning model related to the machine learning algorithm, for example, the above-mentioned CNN or the like can be used. As parameters set in the convolution layer group, for example, by setting the kernel size of the filter to 3 pixels in width and 3 pixels in height and the number of filters to 64, image processing with a certain accuracy can be performed. However, it should be noted that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the teacher data may differ. That is, in many cases, the appropriate parameters differ depending on the embodiment, and therefore, the values can be changed to preferable values as needed. In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics include, for example, high learning accuracy of the fundus image, short image processing time, and short training time for the trained model.

また、機械学習アルゴリズムに係る学習モデルのトレーニングには、入力データと教師データ(出力データ)のペアが1つ以上必要となる。本実施形態では、入力データとして、図1で示されたSS−OCT装置で撮影された広画角の断層画像を用いる。また、教師データとしては、入力データの撮影装置とは異なるSD−OCT装置を用いて高解像度で撮影された同一被検者の同一位置の断層画像を用いる。これら入力データ及び教師データのペアには、例えば同一被検者から得た複数のペアや、異なる複数の被検者から得たペア等、複数のペアを学習データとして用いる。学習済モデルを得る際には、これら断層画像からなる学習データを用いて事前にトレーニングを実施しておく。 Further, training of a learning model related to a machine learning algorithm requires one or more pairs of input data and teacher data (output data). In this embodiment, a wide angle of view tomographic image taken by the SS-OCT apparatus shown in FIG. 1 is used as the input data. Further, as the teacher data, a tomographic image of the same subject at the same position taken with high resolution using an SD-OCT device different from the input data photographing device is used. As the pair of the input data and the teacher data, a plurality of pairs such as a plurality of pairs obtained from the same subject and a pair obtained from a plurality of different subjects are used as learning data. When obtaining a trained model, training is performed in advance using the training data consisting of these tomographic images.

なお、眼底を撮影する場合、SS−OCT装置の光源には主に1μmの波長帯域が使われ、一方、SD−OCT装置の光源には主に800nmの波長帯域が使われる。このとき、波長幅が略同一であれば、SS−OCT装置に比べてSD−OCT装置の方が、深さ方向の解像度(縦解像度)が高い断層画像を取得することができる。すなわち、SD−OCT装置は、SS−OCT装置に比べて深さ方向の分解能(縦分解能)が高くなる。なお、前眼部を撮影する場合、SS−OCT装置の光源には主に1.3μmの波長帯域が使われるため、これらの装置を用いて得た断層画像の解像度の関係は同様である。また、SS−OCT装置の撮影速度は主に波長掃引光源の掃引速度に依存し、Aスキャンレートは約100KHz以上である。一方、SD−OCT装置の撮影速度は主にラインセンサの読み出し速度に依存し、Aスキャンレートは約50KHz〜約85KHzである。すなわち、SD−OCT装置に比べてSS−OCT装置の方が、高速に撮影可能である。ここで、撮影対象である被検眼が動くため、できるだけ撮影を素早く完了させたい。このため、広画角の断層画像を取得する装置としては、より高速に撮影が可能なSS−OCT装置が主に用いられる。なお、Aスキャンレートとは、Aスキャン像の取得速度のことである。このとき、SS−OCT装置は、第1の撮影装置の一例であり、また、SD−OCT装置は、第1の撮影装置とは異なる第2の撮影装置の一例である。例えば、第1の撮影装置と第2の撮影装置とは、機種が異なるものであればよい。また、例えば、第1の撮影装置と第2の撮影装置とは、撮影方式が異なるものであればよい。また、例えば、第2の撮影装置は、第1の撮影装置に比べて高い解像度の医用画像を取得可能であればよい。また、例えば、第2の撮影装置は、第1の撮影装置の分解能よりも高い分解能により撮影可能であればよい。なお、学習データに含まれる入力データとなる断層画像と、教師データとなる断層画像とは、種々の手法により位置合わせ(位置ずれ補正)が行われてもよい。例えば、断層画像に対して設定された複数の部分領域と基準画像との相関を用いた位置合わせでもよい。また、例えば、断層画像における黄斑部等の特徴領域と基準画像との相関を用いた位置合わせであってもよい。また、例えば、断層画像における網膜層境界の位置合わせであってもよい。また、並進の位置ずれだけでなく、回転の位置ずれを補正してもよい。 When photographing the fundus, the light source of the SS-OCT apparatus mainly uses a wavelength band of 1 μm, while the light source of the SD-OCT apparatus mainly uses a wavelength band of 800 nm. At this time, if the wavelength widths are substantially the same, the SD-OCT device can acquire a tomographic image having a higher resolution (vertical resolution) in the depth direction than the SS-OCT device. That is, the SD-OCT apparatus has a higher resolution (vertical resolution) in the depth direction than the SS-OCT apparatus. When photographing the anterior segment of the eye, a wavelength band of 1.3 μm is mainly used as the light source of the SS-OCT device, so that the relationship of the resolutions of the tomographic images obtained by using these devices is the same. The imaging speed of the SS-OCT apparatus mainly depends on the sweep speed of the wavelength sweep light source, and the A scan rate is about 100 KHz or more. On the other hand, the photographing speed of the SD-OCT apparatus mainly depends on the reading speed of the line sensor, and the A scan rate is about 50 KHz to about 85 KHz. That is, the SS-OCT device can shoot at a higher speed than the SD-OCT device. Here, since the eye to be imaged moves, we want to complete the image as quickly as possible. Therefore, as an apparatus for acquiring a tomographic image having a wide angle of view, an SS-OCT apparatus capable of photographing at a higher speed is mainly used. The A scan rate is the acquisition speed of the A scan image. At this time, the SS-OCT device is an example of the first photographing device, and the SD-OCT device is an example of the second photographing device different from the first photographing device. For example, the first photographing device and the second photographing device may be of different models. Further, for example, the first photographing device and the second photographing device may have different photographing methods. Further, for example, the second imaging device may be capable of acquiring a medical image having a higher resolution than that of the first imaging device. Further, for example, the second photographing device may be capable of photographing with a resolution higher than the resolution of the first photographing device. The tomographic image as input data and the tomographic image as teacher data included in the learning data may be aligned (positional deviation correction) by various methods. For example, the alignment may be performed by using the correlation between a plurality of partial regions set for the tomographic image and the reference image. Further, for example, the alignment may be performed by using the correlation between the characteristic region such as the macula in the tomographic image and the reference image. Further, for example, the alignment of the retinal layer boundary in the tomographic image may be performed. Further, not only the translational misalignment but also the rotational misalignment may be corrected.

次に、上述した入力データと教師データのペアについて、図4乃至図6を用いて説明する。図4は、入力データに対応する画像の例で、図4(a)は、図1で示されたSS−OCT装置で撮影されたSLO眼底画像を示している。401は断層画像の撮影領域(撮影位置)を表し、図4(b)は、撮影領域401における断層画像を表していている。図5は、入力データを撮影したSS−OCT装置とは異なるSD−OCT装置で撮影された教師データ画像の例で、図5(a)、図5(b)、図5(c)は、固視灯を移動し、分割して撮影しているSLO眼底画像を示し501〜503は、それぞれの断層画像の撮影領域を表している。また、図5(d)、図5(e)、図5(f)は、それぞれのSLO眼底画像に対応した部位の断層画像を表し、図5(g)は、図5(d)、図5(e)、図5(f)を合成し、図4(b)と同一位置の高画質画像としている。なお、図5(g)は、図4の断層画像に比べ、高画質であることを模式的に表している。 Next, the above-mentioned pair of input data and teacher data will be described with reference to FIGS. 4 to 6. FIG. 4 is an example of an image corresponding to the input data, and FIG. 4A shows an SLO fundus image taken by the SS-OCT apparatus shown in FIG. 401 represents a tomographic image imaging region (imaging position), and FIG. 4B represents a tomographic image in the imaging region 401. FIG. 5 shows an example of a teacher data image taken by an SD-OCT device different from the SS-OCT device that captured the input data, and FIGS. 5 (a), 5 (b), and 5 (c) show. The SLO fundus images obtained by moving the fixation lamp and dividing the images are shown, and 501 to 503 represent the imaging areas of the respective tomographic images. Further, FIGS. 5 (d), 5 (e), and 5 (f) represent tomographic images of sites corresponding to the respective SLO fundus images, and FIG. 5 (g) shows FIGS. 5 (d) and 5 (f). 5 (e) and FIG. 5 (f) are combined to obtain a high-quality image at the same position as in FIG. 4 (b). Note that FIG. 5 (g) schematically shows that the image quality is higher than that of the tomographic image of FIG.

本実施形態の場合、入力データと教師データは、同一被検眼で、なおかつ同一位置であることが望ましい。このため、異なる装置間では、固視等を同様の位置に設定しても、必ずしも同一位置とならない場合がある。このため、本実施形態のペア画像を作成するためには、例えばそれぞれのSLO眼底画像の特徴点からの相対距離を用いて、撮影領域を決定する必要がある。特徴点の例としては、図4(a)の402の乳頭部や、403の黄斑部、または血管の走行状態を用いることで、略同一位置を撮影することが可能となる。図6は、図4(b)の断層画像を、図5(g)の断層画像を画像サイズが同一となるように、例えば、拡大、パディング処理を行うことで断層画像601から断層画像602が得られることを表している。これにより、断層画像602と図5(g)の断層画像とを学習のためのペア画像とすることができる。 In the case of this embodiment, it is desirable that the input data and the teacher data have the same eye and the same position. Therefore, even if the fixation and the like are set to the same position between different devices, the positions may not always be the same. Therefore, in order to create the pair image of the present embodiment, it is necessary to determine the imaging region by using, for example, the relative distance from the feature point of each SLO fundus image. As an example of the feature points, by using the papilla of 402 in FIG. 4A, the macula of 403, or the running state of the blood vessel, it is possible to photograph substantially the same position. FIG. 6 shows that the tomographic image 601 to the tomographic image 602 are obtained by, for example, enlarging and padding the tomographic image of FIG. 4 (b) and the tomographic image of FIG. 5 (g) so that the image sizes are the same. It shows that it can be obtained. As a result, the tomographic image 602 and the tomographic image of FIG. 5 (g) can be used as a pair image for learning.

このような学習データを用いて得た学習済モデルに眼底の断層画像を入力すると、学習済モデルの設計に従った眼底の断層画像が出力される。本実施形態に係る高画質化部225は、上述した学習データを用いて得た学習済モデルを用いて、眼底の断層画像701が入力されると、学習データを用いてトレーニングされた傾向に従って、眼底の断層画像702を出力することができる。 When a tomographic image of the fundus is input to the trained model obtained by using such training data, a tomographic image of the fundus according to the design of the trained model is output. When the tomographic image 701 of the fundus is input using the trained model obtained by using the training data described above, the image quality improving unit 225 according to the present embodiment follows the tendency of training using the training data. A tomographic image 702 of the fundus can be output.

<画像処理のフロー>
次に、図11のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。図11は本実施形態に係る一連の画像処理のフロー図である。まず、本実施形態に係る一連の画像処理が開始されると、処理はステップS510に移行する。
<Image processing flow>
Next, a series of image processing according to the present embodiment will be described with reference to the flow chart of FIG. FIG. 11 is a flow chart of a series of image processing according to the present embodiment. First, when a series of image processing according to the present embodiment is started, the processing proceeds to step S510.

ステップS510では、第2の情報取得部221が、回路やネットワークを介して接続された撮影装置100から、撮影装置100が撮影した画像を入力画像として取得する。なお、第2の情報取得部221は、撮影装置100からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、撮影装置100が画像を生成した時、撮影装置100が生成した画像を撮影装置100が備える記録装置に保存する前や保存した後、保存された画像を表示部300に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。 In step S510, the second information acquisition unit 221 acquires an image captured by the photographing device 100 as an input image from the photographing device 100 connected via a circuit or a network. The second information acquisition unit 221 may acquire an input image in response to a request from the photographing device 100. Such a request is, for example, when the photographing device 100 generates an image, the saved image is displayed on the display unit 300 before or after the image generated by the photographing device 100 is stored in the recording device included in the photographing device 100. It may be issued when displaying on the image, when using a high-quality image for image analysis processing, or the like.

なお、第2の情報取得部221は、撮影装置100から画像を生成するためのデータを取得し、制御装置200もしくは画像処理部220が当該データに基づいて生成した画像を入力画像として取得してもよい。この場合、制御装置200もしくは画像処理部220が各種画像を生成するための画像生成方法としては、既存の任意の画像生成方法を採用してよい。 The second information acquisition unit 221 acquires data for generating an image from the photographing device 100, and the control device 200 or the image processing unit 220 acquires an image generated based on the data as an input image. May be good. In this case, any existing image generation method may be adopted as the image generation method for the control device 200 or the image processing unit 220 to generate various images.

ステップS520では、第2の情報取得部221が、入力画像の撮影条件群を取得する。具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。なお、上述のように、入力画像に撮影条件が保存されていない場合には、第2の情報取得部221は、撮影装置100や不図示の画像管理システムから撮影条件群を含む撮影情報群を取得することができる。 In step S520, the second information acquisition unit 221 acquires a group of shooting conditions for the input image. Specifically, the shooting condition group saved in the data structure constituting the input image is acquired according to the data format of the input image. As described above, when the shooting conditions are not saved in the input image, the second information acquisition unit 221 obtains the shooting information group including the shooting condition group from the shooting device 100 or the image management system (not shown). Can be obtained.

ステップS530においては、高画質化可否判定部224が、取得された撮影条件群を用いて、高画質化部225に備える高画質化エンジンによって入力画像を高画質化可能であるか否かを判定する。具体的には、高画質化可否判定部224は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズが、高画質化エンジンによって対処可能な条件と一致するか否かを判定する。 In step S530, the image quality improvement possibility determination unit 224 determines whether or not the input image can be improved in image quality by the image quality improvement engine provided in the image quality improvement unit 225 using the acquired shooting condition group. To do. Specifically, the high image quality improvement possibility determination unit 224 determines whether or not the shooting portion, shooting method, shooting angle of view, and image size of the input image match the conditions that can be dealt with by the high image quality improvement engine. ..

高画質化可否判定部224が、すべての撮影条件を判定し、対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部224が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。 When the image quality improvement possibility determination unit 224 determines all the shooting conditions and determines that it can be dealt with, the process proceeds to step S540. On the other hand, when the high image quality improvement possibility determination unit 224 determines that the high image quality improvement engine cannot deal with the input image based on these shooting conditions, the process proceeds to step S550.

なお、制御装置200もしくは画像処理部220の設定や実装形態によっては、撮影部位、撮影方式、撮影画角、及び画像サイズのうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。例えば、高画質化エンジンが、被検者のいずれの撮影部位に対しても網羅的に対応可能であると想定され、入力データに未知の撮影部位が含まれていたとしても対処可能であるように実装されている場合等には、このような処理を行ってもよい。また、高画質化可否判定部224は、所望の構成に応じて、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズのうちの少なくとも一つが高画質化エンジンによって対処可能な条件と一致するか否かを判定してもよい。 Depending on the settings and mounting form of the control device 200 or the image processing unit 220, it is determined that the input image cannot be processed based on a part of the photographing portion, the photographing method, the photographing angle of view, and the image size. Even so, the high image quality processing in step S540 may be performed. For example, it is assumed that the high image quality engine can comprehensively handle any imaging part of the subject, and even if the input data contains an unknown imaging part, it seems to be able to deal with it. Such processing may be performed when it is implemented in. In addition, the image quality improvement possibility determination unit 224 is a condition that at least one of the image pickup portion, the image pickup method, the image angle of view, and the image size of the input image can be dealt with by the image quality improvement engine according to the desired configuration. It may be determined whether or not they match.

ステップS540においては、高画質化部225が、高画質化エンジンを用いて、入力画像を高画質化し、入力画像よりも画像診断に適した高画質画像を生成する。具体的には、高画質化部225は、入力画像を高画質化エンジンに入力し、高画質化された高画質画像を生成させる。高画質化エンジンは、教師データを用いて機械学習を行った機械学習モデルを用いて、入力画像から、入力画像を得た撮影装置の分解能よりも高い分解能の撮影装置を用いて得た画像のような高画質画像を生成する。このため、高画質化エンジンは、入力画像よりも、画像診断に適した高画質画像を生成することができる。 In step S540, the image quality enhancement unit 225 uses the image quality enhancement engine to improve the image quality of the input image and generate a high image quality image more suitable for image diagnosis than the input image. Specifically, the high image quality unit 225 inputs the input image to the high image quality engine and generates a high image quality image with high image quality. The high image quality engine uses a machine learning model that has been machine-learned using teacher data, and uses a camera that has a higher resolution than the resolution of the camera that obtained the input image from the input image. To generate a high-quality image like this. Therefore, the high image quality engine can generate a high image quality image suitable for image diagnosis rather than the input image.

なお、制御装置200もしくは画像処理部220の設定や実装形態によっては、高画質化部225が、撮影条件群に応じて、高画質化エンジンに入力画像とともにパラメータを入力して、高画質化の程度等を調節してもよい。また、高画質化部225は、検者の入力に応じたパラメータを高画質化エンジンに入力画像とともに入力して高画質化の程度等を調整してもよい。 Depending on the settings and mounting form of the control device 200 or the image processing unit 220, the image quality improving unit 225 inputs parameters together with the input image to the image quality improving engine according to the shooting condition group to improve the image quality. The degree and the like may be adjusted. Further, the image quality improving unit 225 may input parameters according to the input of the examiner into the image quality improving engine together with the input image to adjust the degree of image quality improving and the like.

ステップS550では、出力部223が、ステップS540において高画質画像が生成されていれば、高画質画像を出力して、表示部300に表示させる。一方、ステップS530において高画質化処理が不可能であるとされていた場合には、入力画像を出力し、表示部300に表示させる。なお、出力部223は、表示部300に出力画像を表示させるのに代えて、撮影装置100や他の装置に出力画像を表示させたり、記憶させたりしてもよい。また、出力部223は、制御装置200もしくは画像処理部220の設定や実装形態によっては、出力画像を撮影装置100や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。ここで、図8は、表示部300に出力結果を表示した状態を表している。図8の左側には、図1で示されたSS−OCT装置により撮影されたSLO眼底画像と断層画像の撮影領域を表示し、中央は撮影された入力断層画像、右側には高画質化された断層画像表示している。 In step S550, if the high-quality image is generated in step S540, the output unit 223 outputs the high-quality image and displays it on the display unit 300. On the other hand, if it is determined in step S530 that the high image quality processing is impossible, the input image is output and displayed on the display unit 300. Instead of displaying the output image on the display unit 300, the output unit 223 may display or store the output image on the photographing device 100 or another device. Further, the output unit 223 can process the output image so that it can be used by the photographing device 100 or another device, or transmit it to an image management system or the like, depending on the setting or mounting form of the control device 200 or the image processing unit 220. The data format may be converted as follows. Here, FIG. 8 shows a state in which the output result is displayed on the display unit 300. On the left side of FIG. 8, the SLO fundus image and the tomographic image captured by the SS-OCT apparatus shown in FIG. 1 are displayed, the center is the captured input tomographic image, and the right side is improved in image quality. The tomographic image is displayed.

上記のように、本実施形態に係る医用画像処理装置は、第2の情報取得部221と、高画質化部225とを備える。第2の情報取得部221は、被検者の所定部位の画像である入力画像(第1の画像)を取得する。高画質化部225は、機械学習エンジンを含む高画質化エンジンを用いて、入力画像から、高画質画像(第2の画像)を生成する。高画質化エンジンは、入力画像を得た撮影装置の分解能よりも高い分解能の撮影装置を用いて得た画像を学習データとした機械学習エンジンを含む。 As described above, the medical image processing apparatus according to the present embodiment includes a second information acquisition unit 221 and a high image quality improvement unit 225. The second information acquisition unit 221 acquires an input image (first image) which is an image of a predetermined portion of the subject. The high image quality improvement unit 225 generates a high image quality image (second image) from the input image by using the high image quality improvement engine including the machine learning engine. The high image quality engine includes a machine learning engine that uses an image obtained by using a photographing device having a resolution higher than that of the photographing device that obtained the input image as training data.

当該構成により、本実施形態に係る医用画像処理装置は、入力画像から、画像診断に適した高画質画像を出力することができる。このため、医用画像処理装置は、より明瞭な画像や観察したい部位や病変が強調されている画像等の画像診断に適した画像を、従来と比べて、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく、より少ない代償で取得することができる。 With this configuration, the medical image processing apparatus according to the present embodiment can output a high-quality image suitable for image diagnosis from the input image. For this reason, the medical image processing device makes images suitable for image diagnosis, such as clearer images and images in which the site or lesion to be observed is emphasized, more invasive to the photographer or the subject than in the past. It can be acquired at a lower price without increasing or increasing labor.

また、医用画像処理装置は、入力画像に対して、高画質化エンジンを用いて高画質画像を生成できる否かを判定する高画質化可否判定部224を更に備える。高画質化可否判定部224は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つに基づいて当該判定を行う。 Further, the medical image processing device further includes a high image quality improvement possibility determination unit 224 for determining whether or not a high image quality image can be generated for the input image by using the high image quality improvement engine. The image quality improvement possibility determination unit 224 makes the determination based on at least one of the photographing portion, the photographing method, the photographing angle of view, and the image size of the input image.

当該構成により、本実施形態に係る医用画像処理装置は、高画質化部225が処理できない入力画像を高画質化処理から省くことができ、医用画像処理装置の処理負荷やエラーの発生を低減させることができる。 With this configuration, the medical image processing apparatus according to the present embodiment can omit the input image that cannot be processed by the image quality improving unit 225 from the high image quality processing, and reduces the processing load and the occurrence of errors of the medical image processing apparatus. be able to.

なお、本実施形態においては、出力部223(表示制御部)は、生成された高画質画像を表示部300に表示させる構成としたが、出力部223の動作はこれに限られない。例えば、出力部223は、高画質画像を撮影装置100や制御装置200等に接続される他の装置に出力することもできる。このため、高画質画像は、これらの装置のユーザーインターフェースに表示されたり、任意の記録装置に保存されたり、任意の画像解析に利用されたり、画像管理システムに送信されたりすることができる。 In the present embodiment, the output unit 223 (display control unit) is configured to display the generated high-quality image on the display unit 300, but the operation of the output unit 223 is not limited to this. For example, the output unit 223 can output a high-quality image to another device connected to the photographing device 100, the control device 200, or the like. Therefore, the high-quality image can be displayed on the user interface of these devices, stored in an arbitrary recording device, used for arbitrary image analysis, or transmitted to an image management system.

本実施形態においては、高画質化可否判定部224が、高画質化エンジンによって高画質化可能な入力画像であるか否かを判定して、高画質化可能な入力画像であれば高画質化部225が高画質化を行った。これに対し、撮影装置100によって、高画質化可能な撮影条件でのみ撮影が行なわれる等の場合には、撮影装置100から取得した画像を無条件に高画質化してもよい。この場合には、図12に示すように、ステップS520とステップS530の処理を省き、ステップS510の次にステップS540を実施することができる。 In the present embodiment, the image quality improvement possibility determination unit 224 determines whether or not the input image can be improved by the image quality improvement engine, and if the input image can be improved in image quality, the image quality is improved. Part 225 improved the image quality. On the other hand, when the photographing device 100 takes a picture only under the shooting conditions capable of improving the image quality, the image obtained from the photographing device 100 may be unconditionally improved in image quality. In this case, as shown in FIG. 12, the processing of step S520 and step S530 can be omitted, and step S540 can be performed after step S510.

なお、本実施形態においては、出力部223が、表示部300に高画質画像を表示させる構成とした。しかしながら、出力部223は、検者からの指示に応じて、高画質画像を表示部300に表示させてもよい。例えば、出力部223は、検者が表示部300のユーザーインターフェース上の任意のボタンを押すことに応じて、高画質画像を表示部300に表示させてもよい。この場合、出力部223は、入力画像と切り替えて高画質画像を表示させてもよいし、入力画像と並べて高画質画像を表示させてもよい。 In this embodiment, the output unit 223 is configured to display a high-quality image on the display unit 300. However, the output unit 223 may display a high-quality image on the display unit 300 in response to an instruction from the examiner. For example, the output unit 223 may display a high-quality image on the display unit 300 in response to the examiner pressing an arbitrary button on the user interface of the display unit 300. In this case, the output unit 223 may switch to the input image to display the high-quality image, or may display the high-quality image side by side with the input image.

さらに、出力部223は、表示部300に高画質画像を表示させる際に、表示されている画像が機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示を高画質画像とともに表示させてもよい。この場合には、ユーザーは、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。 Further, the output unit 223 displays a high-quality image indicating that the displayed image is a high-quality image generated by processing using a machine learning algorithm when the display unit 300 displays the high-quality image. May be displayed with. In this case, the user can easily identify from the display that the displayed high-quality image is not the image itself acquired by shooting, so that misdiagnosis can be reduced or the diagnosis efficiency can be improved. Can be done. The display indicating that the image is a high-quality image generated by the process using the machine learning algorithm has any mode as long as the input image and the high-quality image generated by the process can be distinguished from each other. It may be one.

また、出力部223は、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示について、機械学習アルゴリズムがどのような教師データによって学習を行ったものであるかを示す表示を表示部300に表示させてもよい。当該表示としては、教師データの入力データと出力データの種類の説明や、入力データと出力データに含まれる撮影部位等の教師データに関する任意の表示を含んでよい。 Further, the output unit 223 displays a display indicating what kind of teacher data the machine learning algorithm has learned for the display indicating that the image is a high-quality image generated by processing using the machine learning algorithm. May be displayed on the display unit 300. The display may include an explanation of the types of input data and output data of the teacher data, and an arbitrary display regarding the teacher data such as the imaging part included in the input data and the output data.

なお、本実施形態の説明では省略したが、教師データの出力データとして用いられる、複数の画像から生成された高画質画像は、位置合わせ済みの複数の画像から生成されることができる。当該位置合わせ処理としては、例えば、複数の画像のうちの一つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の画像との類似度を求め、テンプレートとの位置ずれ量を求め、位置ずれ量に基づいて各画像を補正してよい。また、その他の既存の任意の位置合わせ処理を行ってもよい。 Although omitted in the description of the present embodiment, the high-quality image generated from the plurality of images used as the output data of the teacher data can be generated from the plurality of aligned images. As the alignment process, for example, one of a plurality of images is selected as a template, the similarity with other images is obtained while changing the position and angle of the template, and the amount of misalignment with the template is obtained. Each image may be corrected based on the amount of misalignment. Moreover, other existing arbitrary alignment processing may be performed.

なお、三次元画像を位置合わせする場合には、三次元画像を複数の二次元画像に分解し、二次元画像毎に位置合わせしたものを統合することで、三次元画像の位置合わせを行ってもよい。また、二次元画像を一次元画像に分解し、一次元画像毎に位置合わせしたものを統合することで、二次元画像の位置合わせを行ってもよい。なお、画像ではなく、画像を生成するためのデータに対して、これら位置合わせを行ってもよい。 When aligning a three-dimensional image, the three-dimensional image is decomposed into a plurality of two-dimensional images, and the aligned ones are integrated to perform the alignment of the three-dimensional image. May be good. Further, the two-dimensional image may be aligned by decomposing the two-dimensional image into a one-dimensional image and integrating the aligned images for each one-dimensional image. It should be noted that these alignments may be performed on the data for generating the image instead of the image.

また、本実施形態では、高画質化可否判定部224が高画質化部225によって入力画像が対処可能であると判断したら、処理がステップS540に移行して、高画質化部225による高画質化処理が開始された。これに対し、出力部223が高画質化可否判定部224による判定結果を表示部300に表示させ、高画質化部225が検者からの指示に応じて高画質化処理を開始してもよい。この際、出力部223は、判定結果とともに、入力画像や入力画像について取得した撮影部位等の撮影条件を表示部300に表示させることができる。この場合には、検者によって判定結果が正しいか否かが判断された上で、高画質化処理が行われるため、誤判定に基づく高画質化処理を低減させることができる。 Further, in the present embodiment, when the image quality improvement unit 224 determines that the input image can be dealt with by the image quality improvement unit 225, the process shifts to step S540, and the image quality improvement unit 225 improves the image quality. Processing has started. On the other hand, the output unit 223 may display the determination result by the image quality improvement possibility determination unit 224 on the display unit 300, and the image quality improvement unit 225 may start the image quality improvement process in response to an instruction from the examiner. .. At this time, the output unit 223 can display the input image and the imaging conditions such as the imaging portion acquired for the input image on the display unit 300 together with the determination result. In this case, since the high image quality processing is performed after the examiner determines whether or not the determination result is correct, it is possible to reduce the high image quality processing based on the erroneous determination.

また、高画質化可否判定部224による判定を行わず、出力部223が入力画像や入力画像について取得した撮影部位等の撮影条件を表示部300に表示させ、高画質化部225が検者からの指示に応じて高画質化処理を開始してもよい。 Further, the output unit 223 displays the input image and the imaging conditions such as the imaged portion acquired for the input image on the display unit 300 without making a determination by the image quality improvement possibility determination unit 224, and the image quality improvement unit 225 is displayed by the examiner. The high image quality processing may be started according to the instruction of.

(第2の実施形態)
第2の実施形態に係る医用画像処理装置における高画質化部225に用いられる学習済モデルを生成するためのペア画像(入力データと教師データのペア)について、図4、図5、図9を用いて説明する。なお、本実施形態に係る医用画像処理装置は、上記第1の実施形態において説明を行った装置構成とは同様である。
(Second Embodiment)
Regarding the pair image (pair of input data and teacher data) for generating the trained model used in the image quality improving unit 225 in the medical image processing apparatus according to the second embodiment, FIGS. 4, 5, and 9 are shown. It will be described using. The medical image processing apparatus according to the present embodiment is the same as the apparatus configuration described in the first embodiment.

教師データである図5(d)、図5(e)、図5(f)に対応するように、入力データである図4(b)の断層画像を図9(b)、図9(c)、図9(d)のように領域分割が行われる。また、領域分割して得た複数の断層画像を、図9(e)、図9(f)、図9(g)の断層画像のように拡大処理やパディング処理が行われる。このとき、複数の断層画像は画像サイズが同一となるように処理される。これにより、画像が分割され、それぞれの撮影領域に適した学習のためのペア画像を生成することができる。 The tomographic images of the input data of FIG. 4 (b) are shown in FIGS. 9 (b) and 9 (c) so as to correspond to the teacher data of FIGS. 5 (d), 5 (e), and 5 (f). ), Region division is performed as shown in FIG. 9 (d). Further, the plurality of tomographic images obtained by dividing the area are subjected to enlargement processing and padding processing as in the tomographic images of FIGS. 9 (e), 9 (f), and 9 (g). At this time, the plurality of tomographic images are processed so that the image sizes are the same. As a result, the image is divided, and a pair image for learning suitable for each shooting area can be generated.

なお、本実施形態の場合も第1の実施形態と同様に、入力データと教師データは、同一被検眼の同一位置であることが望ましい。このため、異なる装置間では、固視等を同様の位置に設定しても、必ずしも同一位置とならない場合がある。このため、本実施形態のペア画像を作成するためには、例えばそれぞれのSLO画像の特徴点からの相対距離を用いて、撮影領域を決定する必要がある。特徴点の例としては、図4(a)の402の乳頭部や、403の黄斑部、または血管の走行状態を用いることで、略同一位置を撮影することが可能となる。なお、本実施形態に係る画像処理のフローは、第1の実施形態と同様である。 In the case of this embodiment as well, it is desirable that the input data and the teacher data are at the same position of the same eye to be inspected, as in the first embodiment. Therefore, even if the fixation and the like are set to the same position between different devices, the positions may not always be the same. Therefore, in order to create the pair image of the present embodiment, it is necessary to determine the photographing area by using, for example, the relative distance from the feature point of each SLO image. As an example of the feature points, by using the papilla of 402 in FIG. 4A, the macula of 403, or the running state of the blood vessel, it is possible to photograph substantially the same position. The flow of image processing according to this embodiment is the same as that of the first embodiment.

(変形例1)
次に、図15乃至17を参照して、本変形例に係る医用画像処理装置について説明する。上述の実施形態では、高画質化部225は、高画質化用の学習済モデル(高画質化モデル)を用いて、断層画像について高画質化処理を行った。これに対し、高画質化部225は、他の画像について高画質化モデルを用いて高画質化処理を行ってもよく、出力部223は、高画質化された各種画像を表示部300に表示させてもよい。例えば、高画質化部225は、輝度のEn−Face画像やOCTA正面画像等を高画質化処理してもよい。また、出力部223は、高画質化部225によって高画質化処理された断層画像、輝度のEn−Face画像、及びOCTA正面画像の少なくとも1つを表示部300に表示させることができる。なお、高画質化し表示する画像は、SLO眼底画像や、不図示の眼底カメラ等で取得された眼底画像、蛍光眼底画像等であってもよい。
(Modification example 1)
Next, the medical image processing apparatus according to the present modification will be described with reference to FIGS. 15 to 17. In the above-described embodiment, the high image quality improving unit 225 performs high image quality processing on the tomographic image using a learned model (high image quality high quality model) for high image quality. On the other hand, the high image quality unit 225 may perform high image quality processing on other images using the high image quality model, and the output unit 223 displays various high image quality images on the display unit 300. You may let me. For example, the high image quality improving unit 225 may perform high image quality processing on an En-Face image of brightness, an OCTA front image, or the like. Further, the output unit 223 can display at least one of the tomographic image, the brightness En-Face image, and the OCTA front image processed by the image quality improving unit 225 on the display unit 300. The image to be displayed with high image quality may be an SLO fundus image, a fundus image acquired by a fundus camera (not shown), a fluorescent fundus image, or the like.

ここで、各種画像を高画質化処理するための高画質化モデルの学習データは、各種画像について、上述の実施形態に係る高画質化モデルの学習データと同様に、高画質化処理前の画像を入力データとし、高画質化処理後の画像を出力データとする。なお、学習データに関する高画質化処理については、上述の実施形態と同様に、例えば、高画質化モデルに係る教師データの出力データは、入力データである画像を撮影した際のOCT装置よりも高性能なOCT装置を用いて撮影された画像や、高負荷な設定により撮影された画像であってもよい。 Here, the learning data of the high image quality model for processing the high image quality of various images is the image before the high image quality processing for the various images, similarly to the learning data of the high image quality model according to the above-described embodiment. Is used as input data, and the image after high image quality processing is used as output data. Regarding the high image quality processing related to the training data, for example, the output data of the teacher data related to the high image quality model is higher than that of the OCT device when the image which is the input data is taken, as in the above-described embodiment. It may be an image taken by using a high-performance OCT device or an image taken by a high load setting.

また、高画質化モデルは、高画質化処理を行う画像の種類毎に用意されてもよい。例えば、断層画像用の高画質化モデルや輝度のEn−Face画像用の高画質化モデル、OCTA正面画像用の高画質化モデルが用意されてよい。さらに、輝度のEn−Face画像用の高画質化モデルやOCTA正面画像用の高画質化モデルは、画像の生成に係る深度範囲(生成範囲)について異なる深度範囲の画像を網羅的に学習した学習済モデルであってよい。異なる深度範囲の画像としては、例えば、図17(a)に示すように、表層(Im2910)、深層(Im2920)、外層(Im2930)、及び脈絡膜血管網(Im2940)などの画像が含まれてよい。また、輝度のEn−Face画像用の高画質化モデルやOCTA正面画像用の高画質化モデルは、異なる深度範囲毎の画像を学習した複数の高画質化モデルが用意されてもよい。なお、断層画像以外の画像について高画質化処理を行う高画質化モデルは、領域毎に異なる画像処理を行う高画質化モデルに限られず、画像全体に対して同一の画像処理を行う高画質化モデルであってもよい。 Further, the high image quality model may be prepared for each type of image to be subjected to the high image quality processing. For example, a high image quality model for a tomographic image, a high image quality model for an En-Face image of brightness, and a high image quality model for an OCTA front image may be prepared. Further, the high image quality model for the En-Face image of brightness and the high image quality model for the OCTA front image are learned by comprehensively learning the images of different depth ranges with respect to the depth range (generation range) related to the image generation. It may be a finished model. Images of different depth ranges may include, for example, images of the surface layer (Im2910), the deep layer (Im2920), the outer layer (Im2930), and the choroidal vascular network (Im2940), as shown in FIG. 17A. .. Further, as the high image quality model for the En-Face image of brightness and the high image quality model for the OCTA front image, a plurality of high image quality models in which images for different depth ranges are learned may be prepared. The high image quality model that performs high image quality processing on images other than tomographic images is not limited to the high image quality model that performs different image processing for each area, and the same image processing is performed on the entire image. It may be a model.

また、断層画像用の高画質化モデルを用意する場合には、異なる副走査方向(Y軸方向)の位置で得られた断層画像を網羅的に学習した学習済モデルであってよい。図17(b)に示す断層画像Im2951〜Im2953は、異なる副走査方向の位置で得られた断層画像の例である。ただし、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)が異なる場所を撮影した画像の場合には、撮影部位毎に別々に学習をするようにしてもよいし、撮影部位を気にせずに一緒に学習をするようにしてもよい。なお、高画質化する断層画像としては、輝度の断層画像と、モーションコントラストデータの断層画像とが含まれてよい。ただし、輝度の断層画像とモーションコントラストデータの断層画像においては画像特徴量が大きく異なるため、それぞれの高画質化モデルとして別々に学習を行ってもよい。 Further, when preparing a high image quality model for a tomographic image, it may be a trained model in which the tomographic images obtained at positions in different sub-scanning directions (Y-axis directions) are comprehensively learned. The tomographic images Im2951 to Im2953 shown in FIG. 17B are examples of tomographic images obtained at positions in different sub-scanning directions. However, in the case of images taken at different imaging sites (for example, the center of the macula and the center of the optic nerve head), learning may be performed separately for each imaging site, and the imaging site may not be a concern. You may try to study together. The tomographic image with higher image quality may include a tomographic image of brightness and a tomographic image of motion contrast data. However, since the image feature amount is significantly different between the tomographic image of brightness and the tomographic image of motion contrast data, learning may be performed separately as a high image quality improvement model for each.

本変形例では、高画質化部225が高画質化処理を行った画像を出力部223が表示部300に表示を行う例について説明を行う。なお、本変形例では、図15(a)及び(b)を用いて説明を行うが表示画面はこれに限らない。経過観察のように、異なる日時で得た複数の画像を並べて表示する表示画面においても同様に高画質化処理は適用可能である。また、撮影確認画面のように、検者が撮影直後に撮影成否を確認する表示画面においても同様に高画質化処理は適用可能である。出力部223は、高画質化部225が生成した複数の高画質画像や高画質化を行っていない低画質画像を表示部300に表示させることができる。また、出力部223は、表示部300に表示された複数の高画質画像や高画質化を行っていない低画質画像について、検者の指示に応じて選択された低画質画像及び高画質画像をそれぞれ表示部300に表示させることができる。また、医用画像処理装置は、当該検者の指示に応じて選択された低画質画像及び高画質画像を外部に出力することもできる。 In this modified example, an example in which the output unit 223 displays the image obtained by the image quality improving unit 225 on the display unit 300 will be described. In this modified example, the description will be given with reference to FIGS. 15 (a) and 15 (b), but the display screen is not limited to this. Similarly, the high image quality processing can be applied to a display screen that displays a plurality of images obtained at different dates and times side by side, such as follow-up observation. Similarly, the high image quality processing can be applied to a display screen such as a shooting confirmation screen in which the examiner confirms the success or failure of shooting immediately after shooting. The output unit 223 can display a plurality of high-quality images generated by the high-quality image unit 225 and low-quality images that have not been high-quality on the display unit 300. Further, the output unit 223 selects a low-quality image and a high-quality image selected according to the instruction of the examiner with respect to the plurality of high-quality images displayed on the display unit 300 and the low-quality images that have not been improved in image quality. Each can be displayed on the display unit 300. In addition, the medical image processing device can also output a low-quality image and a high-quality image selected according to the instruction of the examiner to the outside.

以下、図15(a)及び(b)を参照して、本変形例に係るインターフェースの表z画面3400の一例を示す。3400は画面全体、3401は患者タブ、3402は撮影タブ、3403はレポートタブ、3404は設定タブを表し、3403のレポートタブにおける斜線は、レポート画面のアクティブ状態を表している。本変形例においては、レポート画面を表示する例について説明をする。Im3405はSLO画像、Im3406は、Im3407に示すOCTAのEn−Face画像をSLO画像Im3405に重畳表示している。ここでSLO画像とは、SLO(Scanning Laser Ophthalmoscope:走査型検眼鏡)光学系によって取得した眼底の正面画像である。Im3407とIm3408はOCTAのEn−Face画像、Im3409は輝度のEn−Face画像、Im3411とIm3412は断層画像を示している。3413と3414は、それぞれIm3407とIm3408に示したOCTAのEn−Face画像の上下範囲の境界線を断層画像に重畳表示している。ボタン3420は、高画質化処理の実行を指定するためのボタンである。もちろん、後述するように、ボタン3420は、高画質画像の表示を指示するためのボタンであってもよい。 Hereinafter, with reference to FIGS. 15A and 15B, an example of the table z screen 3400 of the interface according to this modification is shown. 3400 represents the entire screen, 3401 represents the patient tab, 3402 represents the imaging tab, 3403 represents the report tab, 3404 represents the settings tab, and diagonal lines in the report tab of 3403 represent the active state of the report screen. In this modified example, an example of displaying a report screen will be described. Im3405 is an SLO image, and Im3406 is an OCTA En-Face image shown in Im3407, which is superimposed and displayed on the SLO image Im3405. Here, the SLO image is a frontal image of the fundus acquired by an SLO (Scanning Laser Ophthalmoscope) optical system. Im3407 and Im3408 show En-Face images of OCTA, Im3409 show En-Face images of brightness, and Im3411 and Im3412 show tomographic images. In 3413 and 3414, the boundary line of the upper and lower ranges of the En-Face image of OCTA shown in Im3407 and Im3408, respectively, is superimposed and displayed on the tomographic image. The button 3420 is a button for designating the execution of the high image quality processing. Of course, as will be described later, the button 3420 may be a button for instructing the display of a high-quality image.

本変形例において、高画質化処理の実行はボタン3420を指定して行うか、データベースに保存(記憶)されている情報に基づいて実行の有無を判断する。初めに、検者からの指示に応じてボタン3420を指定することで高画質画像の表示と低画質画像の表示を切り替える例について説明をする。なお、高画質化処理の対象画像はOCTAのEn−Face画像として説明する。検者がレポートタブ3403を指定してレポート画面に遷移した際には、低画質なOCTAのEn−Face画像Im3407とIm3408を表示する。その後、検者がボタン3420を指定することで、高画質化部225は画面に表示している画像Im3407とIm3408に対して高画質化処理を実行する。高画質化処理が完了後、出力部223は高画質化部225が生成した高画質画像をレポート画面に表示する。なお、Im3406は、Im3407をSLO画像Im3405に重畳表示しているものであるため、Im3406も高画質化処理した画像を表示する。そして、ボタン3420の表示をアクティブ状態に変更し、高画質化処理を実行したことが分かるような表示をする。ここで、高画質化部225における処理の実行は、検者がボタン3420を指定したタイミングに限る必要はない。レポート画面を開く際に表示するOCTAのEn−Face画像Im3407とIm3408の種類は事前に分かっているため、レポート画面に遷移する際に高画質化処理を実行してもよい。そして、ボタン3420が押下されたタイミングで、出力部223が高画質画像をレポート画面に表示するようにしてもよい。さらに、検者からの指示に応じて、又はレポート画面に遷移する際に高画質化処理を行う画像の種類は2種類である必要はない。表示する可能性の高い画像、例えば、図13で示したような表層(Im2910)、深層(Im2920)、外層(Im2930)、脈絡膜血管網(Im2940)などの複数のOCTAのEn−Face画像に対して処理を行うようにしてもよい。この場合、高画質化処理をして得た画像を一時的にメモリに記憶、あるいはデータベースに記憶しておくようにしてもよい。 In this modified example, the high image quality processing is executed by designating the button 3420, or whether or not the processing is executed is determined based on the information stored (stored) in the database. First, an example of switching between the display of a high-quality image and the display of a low-quality image by designating the button 3420 according to an instruction from the examiner will be described. The target image for the high image quality processing will be described as an OCTA En-Face image. When the examiner specifies the report tab 3403 and transitions to the report screen, the low-quality OCTA En-Face images Im3407 and Im3408 are displayed. After that, when the examiner specifies the button 3420, the image quality improving unit 225 executes the image quality improving process on the images Im3407 and Im3408 displayed on the screen. After the high image quality processing is completed, the output unit 223 displays the high image quality image generated by the high image quality improvement unit 225 on the report screen. Since Im3406 superimposes Im3407 on the SLO image Im3405, Im3406 also displays an image that has been subjected to high image quality processing. Then, the display of the button 3420 is changed to the active state, and a display indicating that the high image quality processing has been executed is displayed. Here, the execution of the process in the image quality improving unit 225 does not have to be limited to the timing when the examiner specifies the button 3420. Since the types of OCTA En-Face images Im3407 and Im3408 to be displayed when the report screen is opened are known in advance, high image quality processing may be executed when transitioning to the report screen. Then, the output unit 223 may display a high-quality image on the report screen at the timing when the button 3420 is pressed. Further, it is not necessary that there are two types of images for which high image quality processing is performed in response to an instruction from the examiner or when transitioning to the report screen. For images that are likely to be displayed, for example, En-Face images of multiple OCTAs such as the surface layer (Im2910), the deep layer (Im2920), the outer layer (Im2930), and the choroidal vascular network (Im2940) as shown in FIG. May be processed. In this case, the image obtained by the high image quality processing may be temporarily stored in the memory or stored in the database.

次に、データベースに保存(記憶)されている情報に基づいて高画質化処理を実行する場合について説明をする。データベースに高画質化処理の実行を行う状態が保存されている場合、レポート画面に遷移した際に、高画質化処理を実行して得た高画質画像をデフォルトで表示する。そして、ボタン3420がアクティブ状態としてデフォルトで表示されることで、検者に対しては高画質化処理を実行して得た高画質画像が表示されていることが分かるように構成することができる。検者は、高画質化処理前の低画質画像を表示したい場合には、ボタン3420を指定してアクティブ状態を解除することで、低画質画像を表示することが出来る。高画質画像に戻したい場合、検者はボタン3420を指定する。データベースへの高画質化処理の実行有無は、データベースに保存されているデータ全体に対して共通、及び撮影データ毎(検査毎)など、階層別に指定するものとする。例えば、データベース全体に対して高画質化処理を実行する状態を保存してある場合において、個別の撮影データ(個別の検査)に対して、検者が高画質化処理を実行しない状態を保存した場合、その撮影データを次回表示する際には高画質化処理を実行しない状態で表示を行う。撮影データ毎(検査毎)に高画質化処理の実行状態を保存するために、不図示のユーザーインターフェース(例えば、保存ボタン)を用いてもよい。また、他の撮影データ(他の検査)や他の患者データに遷移(例えば、検者からの指示に応じてレポート画面以外の表示画面に変更)する際に、表示状態(例えば、ボタン3420の状態)に基づいて、高画質化処理の実行を行う状態が保存されるようにしてもよい。これにより、撮影データ単位(検査単位)で高画質化処理実行の有無が指定されていない場合、データベース全体に対して指定されている情報に基づいて処理を行い、撮影データ単位(検査単位)で指定されている場合には、その情報に基づいて個別に処理を実行することが出来る。 Next, a case where the high image quality processing is executed based on the information stored (stored) in the database will be described. When the state in which the high image quality processing is executed is saved in the database, the high quality image obtained by executing the high image quality processing is displayed by default when the report screen is displayed. Then, by displaying the button 3420 as the active state by default, it is possible to configure the examiner to know that the high-quality image obtained by executing the high-quality processing is displayed. .. When the examiner wants to display the low-quality image before the high-quality processing, the examiner can display the low-quality image by designating the button 3420 and canceling the active state. If the examiner wants to return to a high-quality image, the examiner specifies the button 3420. Whether or not to execute the high image quality processing in the database shall be specified for each layer, such as common to all the data stored in the database and for each shooting data (for each inspection). For example, when the state in which the high image quality processing is executed is saved for the entire database, the state in which the examiner does not execute the high image quality processing is saved for the individual shooting data (individual inspection). In this case, when the shooting data is displayed next time, it is displayed without executing the high image quality processing. A user interface (for example, a save button) (not shown) may be used to save the execution state of the high image quality processing for each shooting data (for each inspection). In addition, when transitioning to other imaging data (other examinations) or other patient data (for example, changing to a display screen other than the report screen in response to an instruction from the examiner), the display state (for example, button 3420) is displayed. The state in which the high image quality processing is executed may be saved based on the state). As a result, if it is not specified whether or not to execute the high image quality processing in the shooting data unit (inspection unit), the processing is performed based on the information specified for the entire database, and the shooting data unit (inspection unit) is used. If specified, the process can be executed individually based on the information.

本変形例では、OCTAのEn−Face画像として、Im3407とIm3408を表示する例を示しているが、表示するOCTAのEn−Face画像は検者の指定により変更することが可能である。そのため、高画質化処理の実行が指定されている時(ボタン3420がアクティブ状態)における画像の変更について説明をする。 In this modification, an example of displaying Im3407 and Im3408 as the En-Face image of OCTA is shown, but the En-Face image of OCTA to be displayed can be changed by the specification of the examiner. Therefore, the change of the image when the execution of the high image quality processing is specified (the button 3420 is in the active state) will be described.

表示する画像の変更は、不図示のユーザーインターフェース(例えば、コンボボックス)を用いて変更を行う。例えば、検者が画像の種類を表層から脈絡膜血管網に変更した時に、高画質化部225は脈絡膜血管網画像に対して高画質化処理を実行し、出力部223は高画質化部225が生成した高画質な画像をレポート画面に表示する。すなわち、出力部223は、検者からの指示に応じて、第1の深度範囲の高画質画像の表示を、第1の深度範囲とは少なくとも一部が異なる第2の深度範囲の高画質画像の表示に変更してもよい。このとき、出力部223は、検者からの指示に応じて第1の深度範囲が第2の深度範囲に変更されることにより、第1の深度範囲の高画質画像の表示を、第2の深度範囲の高画質画像の表示に変更してもよい。なお、上述したようにレポート画面遷移時に表示する可能性の高い画像に対しては、既に高画質画像が生成済みである場合、出力部223は生成済みの高画質な画像を表示すればよい。なお、画像の種類の変更方法は上記したものに限らず、基準となる層とオフセットの値を変えて異なる深度範囲を設定したOCTAのEn−Face画像を生成することも可能である。その場合、基準となる層、あるいはオフセット値が変更された時に、高画質化部225は任意のOCTAのEn−Face画像に対して高画質化処理を実行し、出力部223は高画質な画像をレポート画面に表示する。基準となる層、オフセット値の変更は、不図示のユーザーインターフェース(例えば、コンボボックスやテキストボックス)を用いて行われることができる。また、断層画像Im3411とIm3412に重畳表示している境界線3413と3414のいずれかをドラッグ(層境界を移動)することで、OCTAのEn−Face画像の生成範囲を変更することが出来る。境界線をドラッグによって変更する場合、高画質化処理の実行命令が連続的に実施される。そのため、高画質化部225は実行命令に対して常に処理を行ってもよいし、ドラッグによる層境界の変更後に実行するようにしてもよい。あるいは、高画質化処理の実行は連続的に命令されるが、次の命令が来た時点で前回の命令をキャンセルし、最新の命令を実行するようにしてもよい。なお、高画質化処理には比較的時間がかかる場合がある。このため、上述したどのようなタイミングで命令が実行されたとしても、高画質画像が表示されるまでに比較的時間がかかる場合がある。そこで、検者からの指示に応じてOCTAのEn−Face画像を生成するための深度範囲が設定されてから、高画質画像が表示されるまでの間、該設定された深度範囲に対応するOCTAのEn−Face画像(低画質画像)が表示されてもよい。すなわち、上記深度範囲が設定されると、該設定された深度範囲に対応するOCTAのEn−Face画像(低画質画像)が表示され、高画質化処理が終了すると、該OCTAのEn−Face画像(該低画質画像)の表示が高画質画像の表示に変更されるように構成されてもよい。また、上記深度範囲が設定されてから、高画質画像が表示されるまでの間、高画質化処理が実行されていることを示す情報が表示されてもよい。なお、これらは、高画質化処理の実行が既に指定されている状態(ボタン3420がアクティブ状態)を前提とする場合だけでなく、例えば、検者からの指示に応じて高画質化処理の実行が指示された際に、高画質画像が表示されるまでの間においても、適用することが可能である。 The image to be displayed is changed by using a user interface (for example, a combo box) (not shown). For example, when the examiner changes the type of image from the surface layer to the choroidal vascular network, the high image quality improving unit 225 executes the high image quality processing on the choroidal vascular network image, and the output unit 223 has the high image quality improving unit 225. Display the generated high-quality image on the report screen. That is, the output unit 223 displays the high-quality image in the first depth range according to the instruction from the examiner, and displays the high-quality image in the second depth range that is at least partially different from the first depth range. You may change to the display of. At this time, the output unit 223 displays a high-quality image in the first depth range by changing the first depth range to the second depth range in response to an instruction from the examiner. You may change to display a high-quality image in the depth range. As described above, for an image that is likely to be displayed at the time of transition of the report screen, if a high-quality image has already been generated, the output unit 223 may display the generated high-quality image. The method of changing the image type is not limited to the above, and it is also possible to generate an En-Face image of OCTA in which different depth ranges are set by changing the reference layer and the offset value. In that case, when the reference layer or the offset value is changed, the high image quality improving unit 225 executes the high image quality processing on the En-Face image of an arbitrary OCTA, and the output unit 223 performs the high image quality image. Is displayed on the report screen. The reference layer and the offset value can be changed by using a user interface (for example, a combo box or a text box) (not shown). Further, by dragging (moving the layer boundary) any of the boundary lines 3413 and 3414 superimposed on the tomographic images Im3411 and Im3412, the generation range of the En-Face image of OCTA can be changed. When the boundary line is changed by dragging, the execution command of the high image quality processing is continuously executed. Therefore, the image quality improving unit 225 may always process the execution instruction, or may execute it after changing the layer boundary by dragging. Alternatively, although the execution of the high image quality processing is continuously instructed, the previous instruction may be canceled and the latest instruction may be executed when the next instruction arrives. It should be noted that the high image quality processing may take a relatively long time. Therefore, no matter what timing the command is executed as described above, it may take a relatively long time for the high-quality image to be displayed. Therefore, from the time when the depth range for generating the En-Face image of OCTA is set according to the instruction from the examiner until the high-quality image is displayed, the OCTA corresponding to the set depth range is displayed. En-Face image (low image quality image) may be displayed. That is, when the depth range is set, an OCTA En-Face image (low-quality image) corresponding to the set depth range is displayed, and when the high-quality processing is completed, the OCTA En-Face image is displayed. The display of (the low-quality image) may be configured to be changed to the display of a high-quality image. In addition, information indicating that the high image quality processing is being executed may be displayed from the time when the depth range is set until the high image quality image is displayed. It should be noted that these are not only in the case where the execution of the high image quality processing has already been specified (the button 3420 is in the active state), but also, for example, the execution of the high image quality processing in response to an instruction from the examiner. Can be applied even until a high-quality image is displayed when is instructed.

本変形例では、OCTAのEn−Face画像として、Im3407とIm3408に異なる層を表示し、低画質と高画質な画像は切り替えて表示する例を示したが、これに限らない。例えば、Im3407には低画質なOCTAのEn−Face画像、Im3408には高画質なOCTAのEn−Face画像を並べて表示するようにしてもよい。画像を切り替えて表示する場合には、同じ場所で画像を切り替えるので変化がある部分の比較を行いやすく、並べて表示する場合には、同時に画像を表示することが出来るので画像全体を比較しやすい。 In this modification, different layers are displayed on Im3407 and Im3408 as En-Face images of OCTA, and low-quality and high-quality images are switched and displayed, but the present invention is not limited to this. For example, the Im3407 may display a low-quality OCTA En-Face image, and the Im3408 may display a high-quality OCTA En-Face image side by side. When the images are switched and displayed, the images are switched at the same place, so that it is easy to compare the parts where there is a change.

次に、画面遷移における高画質化処理の実行について、図15(a)と(b)を用いて説明を行う。図15(a)は、図15(b)におけるOCTA画像を拡大表示した画面例である。図15(a)においても、図15(b)と同様にボタン3420を表示する。図15(b)から図15(a)への画面遷移は、例えば、OCTA画像をダブルクリックすることで遷移し、図15(a)から図15(b)へは閉じるボタン3430で遷移する。なお、画面遷移に関しては、ここで示した方法に限らず、不図示のユーザーインターフェースを用いてもよい。 Next, the execution of the high image quality processing in the screen transition will be described with reference to FIGS. 15A and 15B. FIG. 15A is an enlarged screen example of the OCTA image in FIG. 15B. Also in FIG. 15 (a), the button 3420 is displayed in the same manner as in FIG. 15 (b). The screen transition from FIG. 15 (b) to FIG. 15 (a) is made by, for example, double-clicking the OCTA image, and the transition from FIG. 15 (a) to FIG. 15 (b) is performed by the close button 3430. The screen transition is not limited to the method shown here, and a user interface (not shown) may be used.

画面遷移の際に高画質化処理の実行が指定されている場合(ボタン3420がアクティブ)、画面遷移時においてもその状態を保つ。すなわち、図15(b)の画面で高画質画像を表示している状態で図15(a)の画面に遷移する場合、図15(a)の画面においても高画質画像を表示する。そして、ボタン3420はアクティブ状態にする。図15(a)から図15(b)へ遷移する場合にも同様である。図15(a)において、ボタン3420を指定して低画質画像に表示を切り替えることもできる。 When execution of high image quality processing is specified at the time of screen transition (button 3420 is active), that state is maintained even at the time of screen transition. That is, when transitioning to the screen of FIG. 15 (a) while displaying the high-quality image on the screen of FIG. 15 (b), the high-quality image is also displayed on the screen of FIG. 15 (a). Then, the button 3420 is activated. The same applies to the transition from FIG. 15 (a) to FIG. 15 (b). In FIG. 15A, the button 3420 can be specified to switch the display to a low-quality image.

画面遷移に関して、ここで示した画面に限らず、経過観察用の表示画面、又はパノラマ用の表示画面など同じ撮影データを表示する画面への遷移であれば、高画質画像の表示状態を保ったまま遷移を行う。すなわち、遷移後の表示画面において、遷移前の表示画面におけるボタン3420の状態に対応する画像が表示される。例えば、遷移前の表示画面におけるボタン3420がアクティブ状態であれば、遷移後の表示画面において高画質画像が表示される。また、例えば、遷移前の表示画面におけるボタン3420のアクティブ状態が解除されていれば、遷移後の表示画面において低画質画像が表示される。なお、経過観察用の表示画面におけるボタン3420がアクティブ状態になると、経過観察用の表示画面に並べて表示される異なる日時(異なる検査日)で得た複数の画像が高画質画像に切り換わるようにしてもよい。すなわち、経過観察用の表示画面におけるボタン3420がアクティブ状態になると、異なる日時で得た複数の画像に対して一括で反映されるように構成してもよい。 Regarding the screen transition, not only the screen shown here, but also the display state of the high-quality image was maintained if the transition was to a screen displaying the same shooting data such as a display screen for follow-up observation or a display screen for panorama. Make the transition as it is. That is, on the display screen after the transition, an image corresponding to the state of the button 3420 on the display screen before the transition is displayed. For example, if the button 3420 on the display screen before the transition is in the active state, a high-quality image is displayed on the display screen after the transition. Further, for example, if the active state of the button 3420 on the display screen before the transition is released, a low-quality image is displayed on the display screen after the transition. When the button 3420 on the follow-up display screen becomes active, a plurality of images obtained at different dates and times (different inspection dates) displayed side by side on the follow-up display screen are switched to high-quality images. You may. That is, when the button 3420 on the display screen for follow-up observation becomes active, it may be configured to be collectively reflected on a plurality of images obtained at different dates and times.

ここで、経過観察用の表示画面の例を、図16に示す。検者からの指示に応じてタブ3801が選択されると、図16のように、経過観察用の表示画面が表示される。このとき、計測対象領域の深度範囲を、リストボックスに表示された既定の深度範囲セット(3802及び3803)から検者が選択することで変更できる。例えば、リストボックス3802では網膜表層が選択され、また、リストボックス3803では網膜深層が選択されている。上側の表示領域には網膜表層のモーションコントラスト画像の解析結果が表示され、また、下側の表示領域には網膜深層のモーションコントラスト画像の解析結果が表示されている。すなわち、深度範囲が選択されると、異なる日時の複数の画像について、選択された深度範囲の複数のモーションコントラスト画像の解析結果の並列表示に一括して変更される。 Here, an example of a display screen for follow-up observation is shown in FIG. When tab 3801 is selected in response to an instruction from the examiner, a display screen for follow-up observation is displayed as shown in FIG. At this time, the depth range of the measurement target area can be changed by the examiner selecting from the default depth range sets (3802 and 3803) displayed in the list box. For example, in the list box 3802, the surface layer of the retina is selected, and in the list box 3803, the deep layer of the retina is selected. The analysis result of the motion contrast image of the surface layer of the retina is displayed in the upper display area, and the analysis result of the motion contrast image of the deep layer of the retina is displayed in the lower display area. That is, when the depth range is selected, the analysis results of the plurality of motion contrast images in the selected depth range are collectively displayed in parallel for the plurality of images having different dates and times.

このとき、解析結果の表示を非選択状態にすると、異なる日時の複数のモーションコントラスト画像の並列表示に一括して変更されてもよい。そして、検者からの指示に応じてボタン3420が指定されると、複数のモーションコントラスト画像の表示が複数の高画質画像の表示に一括して変更される。 At this time, if the display of the analysis result is set to the non-selected state, the display may be changed to the parallel display of a plurality of motion contrast images having different dates and times at once. Then, when the button 3420 is specified in response to the instruction from the examiner, the display of the plurality of motion contrast images is changed to the display of the plurality of high-quality images at once.

また、解析結果の表示が選択状態である場合には、検者からの指示に応じてボタン3420が指定されると、複数のモーションコントラスト画像の解析結果の表示が複数の高画質画像の解析結果の表示に一括して変更される。ここで、解析結果の表示は、解析結果を任意の透明度により画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 Further, when the display of the analysis result is in the selected state, when the button 3420 is specified in response to the instruction from the examiner, the display of the analysis result of the plurality of motion contrast images is the analysis result of the plurality of high-quality images. It is changed to the display of. Here, the analysis result may be displayed by superimposing the analysis result on the image with arbitrary transparency. At this time, the change to the display of the analysis result may be changed to a state in which the analysis result is superimposed on the displayed image with arbitrary transparency, for example. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with an arbitrary transparency.

また、深度範囲の指定に用いる層境界の種類とオフセット位置をそれぞれ、3805,3806のようなユーザーインターフェースから一括して変更することができる。なお、断層画像も一緒に表示させ、断層画像上に重畳された層境界データを検者からの指示に応じて移動させることにより、異なる日時の複数のモーションコントラスト画像の深度範囲を一括して変更されてもよい。このとき、異なる日時の複数の断層画像を並べて表示し、1つの断層画像上で上記移動が行われると、他の断層画像上でも同様に層境界データが移動されてもよい。また、画像投影法やプロジェクションアーティファクト抑制処理の有無を、例えば、コンテキストメニューのようなユーザーインターフェースから選択することにより変更してもよい。また、選択ボタン3807を選択して選択画面を表示させ、該選択画面上に表示された画像リストから選択された画像が表示されてもよい。なお、図16の上部に表示されている矢印3804は現在選択されている検査であることを示す印であり、基準検査(Baseline)はFollow−up撮影の際に選択した検査(図16の一番左側の画像)である。もちろん、基準検査を示すマークを表示部300に表示させてもよい。 In addition, the type of layer boundary and the offset position used to specify the depth range can be collectively changed from a user interface such as 3805 and 3806, respectively. By displaying the tomographic image together and moving the layer boundary data superimposed on the tomographic image according to the instruction from the examiner, the depth range of multiple motion contrast images at different dates and times can be changed at once. May be done. At this time, when a plurality of tomographic images having different dates and times are displayed side by side and the above movement is performed on one tomographic image, the layer boundary data may be similarly moved on another tomographic image. Further, the presence / absence of the image projection method or the projection artifact suppression process may be changed by selecting from a user interface such as a context menu. Further, the selection button 3807 may be selected to display the selection screen, and the image selected from the image list displayed on the selection screen may be displayed. The arrow 3804 displayed at the upper part of FIG. 16 is a mark indicating that the inspection is currently selected, and the reference inspection (Baseline) is the inspection selected at the time of Follow-up imaging (one of FIG. 16). The image on the far left). Of course, a mark indicating a reference inspection may be displayed on the display unit 300.

また、「Show Difference」チェックボックス3808が指定された場合には、基準画像上に基準画像に対する計測値分布(マップもしくはセクタマップ)を表示する。さらに、この場合には、それ以外の検査日に対応する領域に基準画像に対して算出した計測値分布と当該領域に表示される画像に対して算出した計測分布との差分計測値マップを表示する。計測結果としては、レポート画面上にトレンドグラフ(経時変化計測によって得られた各検査日の画像に対する計測値のグラフ)を表示させてもよい。すなわち、異なる日時の複数の画像に対応する複数の解析結果の時系列データ(例えば、時系列グラフ)が表示されてもよい。このとき、表示されている複数の画像に対応する複数の日時以外の日時に関する解析結果についても、表示されている複数の画像に対応する複数の解析結果と判別可能な状態で(例えば、時系列グラフ上の各点の色が画像の表示の有無で異なる)時系列データとして表示させてもよい。また、該トレンドグラフの回帰直線(曲線)や対応する数式をレポート画面に表示させてもよい。 When the "Show Difference" check box 3808 is specified, the measured value distribution (map or sector map) with respect to the reference image is displayed on the reference image. Further, in this case, a difference measurement value map between the measurement value distribution calculated for the reference image and the measurement distribution calculated for the image displayed in the area is displayed in the area corresponding to the other inspection dates. To do. As the measurement result, a trend graph (a graph of the measured values for the image of each inspection day obtained by the time-dependent change measurement) may be displayed on the report screen. That is, time-series data (for example, a time-series graph) of a plurality of analysis results corresponding to a plurality of images having different dates and times may be displayed. At this time, the analysis results related to the date and time other than the plurality of date and time corresponding to the plurality of displayed images can be discriminated from the plurality of analysis results corresponding to the plurality of displayed images (for example, time series). The color of each point on the graph differs depending on whether or not the image is displayed). It may be displayed as time series data. Further, the regression line (curve) of the trend graph and the corresponding mathematical formula may be displayed on the report screen.

本変形例においては、モーションコントラスト画像に関して説明を行ったが、これに限らない。本変形例に係る表示、高画質化、及び画像解析等の処理に関する画像は、断層画像でもよい。さらには、断層画像だけではなく、SLO画像、眼底写真、又は蛍光眼底写真など、異なる画像であっても構わない。その場合、高画質化処理を実行するためのユーザーインターフェースは、種類の異なる複数の画像に対して高画質化処理の実行を指示するもの、種類の異なる複数の画像から任意の画像を選択して高画質化処理の実行を指示するものがあってもよい。 In this modification, the motion contrast image has been described, but the present invention is not limited to this. The image related to processing such as display, high image quality, and image analysis according to this modification may be a tomographic image. Further, not only a tomographic image but also a different image such as an SLO image, a fundus photograph, or a fluorescent fundus photograph may be used. In that case, the user interface for executing the high image quality processing is one that instructs the execution of the high image quality processing for a plurality of different types of images, and an arbitrary image is selected from a plurality of different types of images. There may be something that instructs the execution of the high image quality processing.

例えば、B−スキャンによる断層画像を高画質化して表示する場合には、図15(a)に示す断層画像Im3411,Im3412を高画質化して表示してもよい。また、OCTA正面画像Im3407,Im3408が表示されている領域に高画質化された断層画像が表示されてもよい。また、B−スキャンによる断層画像は、輝度の断層画像だけでなく、モーションコントラストデータを用いて得たB−スキャンによる断層画像であってもよい。なお、高画質化され、表示される断層画像は、1つだけ表示されてもよいし、複数表示されてもよい。1つだけ表示される場合には、例えばサークルスキャン等により得られた断層画像を高画質化して表示されてもよい。また、複数の断層画像が表示される場合には、それぞれ異なる副走査方向の位置で取得された断層画像が表示されてもよいし、例えばクロススキャン等により得られた複数の断層画像を高画質化して表示する場合には、異なる走査方向の画像がそれぞれ表示されてもよい。なお、クロススキャン等により得られた複数の断層画像の画像特徴は似ていることが多いため、例えば、これらの断層画像を学習データとして学習して得た共通の学習済モデルを用いて、各走査方向の画像を高画質化してもよい。また、例えばラジアルスキャン等により得られた複数の断層画像を高画質化して表示する場合には、一部選択された複数の断層画像(例えば基準ラインに対して互いに対称な位置の2つの断層画像)がそれぞれ表示されてもよい。さらに、図16に示されるような経過観察用の表示画面に複数の断層画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚さ等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいて断層画像に高画質化処理を実行してもよい。 For example, when displaying a tomographic image obtained by B-scan with high image quality, the tomographic images Im3411 and Im3412 shown in FIG. 15A may be displayed with high image quality. Further, a high-quality tomographic image may be displayed in the area where the OCTA front images Im3407 and Im3408 are displayed. Further, the tomographic image by B-scan may be not only a tomographic image of brightness but also a tomographic image by B-scan obtained by using motion contrast data. It should be noted that only one tomographic image may be displayed or a plurality of tomographic images may be displayed with high image quality. When only one is displayed, the tomographic image obtained by, for example, a circle scan may be displayed with high image quality. Further, when a plurality of tomographic images are displayed, the tomographic images acquired at positions in different sub-scanning directions may be displayed, and the plurality of tomographic images obtained by, for example, cross-scanning may be displayed in high image quality. When the images are displayed in different directions, images in different scanning directions may be displayed. Since the image features of a plurality of tomographic images obtained by cross-scanning or the like are often similar, for example, using a common trained model obtained by learning these tomographic images as training data, each of them is used. The image quality in the scanning direction may be improved. Further, when displaying a plurality of tomographic images obtained by, for example, a radial scan with high image quality, a plurality of partially selected tomographic images (for example, two tomographic images at positions symmetrical with respect to a reference line) are displayed. ) May be displayed respectively. Further, a plurality of tomographic images are displayed on a display screen for follow-up observation as shown in FIG. 16, and instructions for improving the image quality and analysis results (for example, the thickness of a specific layer, etc.) are obtained by the same method as the above method. ) May be displayed. Further, the tomographic image may be subjected to high image quality processing based on the information stored in the database by the same method as the above method.

同様に、SLO眼底画像を高画質化して表示する場合には、例えば、SLO眼底画像Im3405を高画質化して表示してよい。さらに、輝度のEn−Face画像を高画質化して表示する場合には、例えば輝度のEn−Face画像Im3409を高画質化して表示してよい。さらに、図16に示されるような経過観察用の表示画面に複数のSLO眼底画像や輝度のEn−Face画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚さ等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいてSLO眼底画像や輝度のEn−Face画像に高画質化処理を実行してもよい。なお、断層画像、SLO眼底画像、及び輝度のEn−Face画像の表示は例示であり、これらの画像は所望の構成に応じて任意の態様で表示されてよい。また、OCTA正面画像、断層画像、SLO眼底画像、及び輝度のEn−Face画像の少なくとも2つ以上が、一度の指示で高画質化され表示されてもよい。 このような構成により、本変形例に係る高画質化部225が処理した画像を出力部223が表示部300に表示することができる。このとき、上述したように、高画質画像の表示、解析結果の表示、表示される正面画像の深度範囲等に関する複数の条件のうち少なくとも1つが選択された状態である場合には、表示画面が遷移されても、選択された状態が維持されてもよい。 Similarly, when displaying the SLO fundus image with high image quality, for example, the SLO fundus image Im3405 may be displayed with high image quality. Further, when the brightness En-Face image is displayed with high image quality, for example, the brightness En-Face image Im3409 may be displayed with high image quality. Further, a plurality of SLO fundus images and En-Face images having brightness are displayed on a follow-up display screen as shown in FIG. 16, and instructions and analysis results for improving the image quality (for example, by the same method as the above method). , The thickness of a specific layer, etc.) may be displayed. Further, high image quality processing may be executed on the SLO fundus image and the En-Face image of brightness based on the information stored in the database by the same method as the above method. The display of the tomographic image, the SLO fundus image, and the brightness En-Face image is an example, and these images may be displayed in any manner depending on the desired configuration. Further, at least two or more of the OCTA front image, the tomographic image, the SLO fundus image, and the brightness En-Face image may be displayed in high quality with a single instruction. With such a configuration, the output unit 223 can display the image processed by the image quality improving unit 225 according to the present modification on the display unit 300. At this time, as described above, when at least one of a plurality of conditions relating to the display of the high-quality image, the display of the analysis result, the depth range of the displayed front image, and the like is selected, the display screen is displayed. Even if it is transitioned, the selected state may be maintained.

また、上述したように、複数の条件のうち少なくとも1つが選択された状態である場合には、他の条件が選択された状態に変更されても、該少なくとも1つが選択された状態が維持されてもよい。例えば、出力部223は、解析結果の表示が選択状態である場合に、検者からの指示に応じて(例えば、ボタン3420が指定されると)、低画質画像の解析結果の表示を高画質画像の解析結果の表示に変更してもよい。また、出力部223は、解析結果の表示が選択状態である場合に、検者からの指示に応じて(例えば、ボタン3420の指定が解除されると)、高画質画像の解析結果の表示を低画質画像の解析結果の表示に変更してもよい。 Further, as described above, when at least one of the plurality of conditions is in the selected state, the selected state of at least one is maintained even if the other conditions are changed to the selected state. You may. For example, when the display of the analysis result is in the selected state, the output unit 223 displays the analysis result of the low-quality image in high quality according to the instruction from the examiner (for example, when the button 3420 is specified). You may change to display the analysis result of the image. Further, when the display of the analysis result is in the selected state, the output unit 223 displays the analysis result of the high-quality image according to the instruction from the examiner (for example, when the designation of the button 3420 is canceled). The display may be changed to display the analysis result of a low-quality image.

また、出力部223は、高画質画像の表示が非選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示の指定が解除されると)、低画質画像の解析結果の表示を低画質画像の表示に変更してもよい。また、出力部223は、高画質画像の表示が非選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示が指定されると)、低画質画像の表示を低画質画像の解析結果の表示に変更してもよい。また、出力部223は、高画質画像の表示が選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示の指定が解除されると)、高画質画像の解析結果の表示を高画質画像の表示に変更してもよい。また、出力部223は、高画質画像の表示が選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示が指定されると)、高画質画像の表示を高画質画像の解析結果の表示に変更してもよい。 Further, the output unit 223 analyzes the low-quality image according to the instruction from the examiner (for example, when the designation of displaying the analysis result is canceled) when the display of the high-quality image is not selected. The display of the result may be changed to the display of a low-quality image. Further, when the display of the high-quality image is not selected, the output unit 223 reduces the display of the low-quality image according to the instruction from the examiner (for example, when the display of the analysis result is specified). You may change to display the analysis result of the image quality image. Further, the output unit 223 responds to an instruction from the examiner (for example, when the designation of displaying the analysis result is canceled) when the display of the high-quality image is selected, and the analysis result of the high-quality image is released. The display of may be changed to the display of a high-quality image. Further, when the display of the high-quality image is selected, the output unit 223 displays the high-quality image with high image quality in response to an instruction from the examiner (for example, when the display of the analysis result is specified). You may change to display the analysis result of the image.

また、高画質画像の表示が非選択状態で且つ第1の種類の解析結果の表示が選択状態である場合を考える。この場合には、出力部223は、検者からの指示に応じて(例えば、第2の種類の解析結果の表示が指定されると)、低画質画像の第1の種類の解析結果の表示を低画質画像の第2の種類の解析結果の表示に変更してもよい。また、高画質画像の表示が選択状態で且つ第1の種類の解析結果の表示が選択状態である場合を考える。この場合には、出力部223は、検者からの指示に応じて(例えば、第2の種類の解析結果の表示が指定されると)、高画質画像の第1の種類の解析結果の表示を高画質画像の第2の種類の解析結果の表示に変更してもよい。 Further, consider the case where the display of the high-quality image is in the non-selected state and the display of the analysis result of the first type is in the selected state. In this case, the output unit 223 displays the analysis result of the first type of the low-quality image according to the instruction from the examiner (for example, when the display of the analysis result of the second type is specified). May be changed to display the analysis result of the second type of the low image quality image. Further, consider the case where the display of the high-quality image is in the selected state and the display of the analysis result of the first type is in the selected state. In this case, the output unit 223 displays the analysis result of the first type of the high-quality image according to the instruction from the examiner (for example, when the display of the analysis result of the second type is specified). May be changed to display the analysis result of the second type of the high-quality image.

なお、経過観察用の表示画面においては、上述したように、これらの表示の変更が、異なる日時で得た複数の画像に対して一括で反映されるように構成してもよい。ここで、解析結果の表示は、解析結果を任意の透明度により画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 As described above, the display screen for follow-up observation may be configured so that these display changes are collectively reflected on a plurality of images obtained at different dates and times. Here, the analysis result may be displayed by superimposing the analysis result on the image with arbitrary transparency. At this time, the change to the display of the analysis result may be changed to a state in which the analysis result is superimposed on the displayed image with arbitrary transparency, for example. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with an arbitrary transparency.

なお、本変形例では、高画質化部225が高画質化モデルを用いて断層画像の画質を改善した高画質画像を生成した。しかしながら、高画質化モデルを用いて高画質画像を生成する構成要素は高画質化部225に限られない。例えば、高画質化部225とは別の第2の高画質化部を設け、第2の高画質化部が高画質化モデルを用いて高画質画像を生成してもよい。この場合、第2の高画質化部は、学習済モデルを用いて領域毎に異なる画像処理が行われた高画質画像ではなく、画像全体に対して同一の画像処理が行われた高画質画像を生成してもよい。この際、学習済モデルの出力データは、画像全体に対して同一の高画質化処理が行われた画像であってよい。なお、第2の高画質化部や第2の高画質化部が用いる高画質化モデルは、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 In this modified example, the image quality improving unit 225 generated a high image quality image in which the image quality of the tomographic image was improved by using the image quality improving model. However, the component that generates a high-quality image using the high-quality model is not limited to the high-quality unit 225. For example, a second image quality improving unit different from the image quality improving unit 225 may be provided, and the second image quality improving unit may generate a high image quality image using the image quality improving model. In this case, the second high-quality image unit is not a high-quality image in which different image processing is performed for each region using the trained model, but a high-quality image in which the same image processing is performed on the entire image. May be generated. At this time, the output data of the trained model may be an image in which the same high image quality processing has been performed on the entire image. The high image quality model used by the second high image quality unit and the second high image quality unit may be composed of a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA. It may be configured by a circuit or the like that performs a specific function such as an ASIC.

(変形例2)
上述した変形例において、出力部223は、高画質化部225によって生成された高画質画像と入力画像のうち、検者からの指示に応じて選択された画像を表示部300に表示させることができる。また、出力部223は、検者からの指示に応じて、表示部300上の表示を撮影画像(入力画像)から高画質画像に切り替えてもよい。すなわち、出力部223は、検者からの指示に応じて、低画質画像の表示を高画質画像の表示に変更してもよい。また、出力部223は、検者からの指示に応じて、高画質画像の表示を低画質画像の表示に変更してもよい。
(Modification 2)
In the above-described modification, the output unit 223 may display the high-quality image and the input image generated by the high-quality image-enhancing unit 225 on the display unit 300 in response to an instruction from the examiner. it can. Further, the output unit 223 may switch the display on the display unit 300 from a captured image (input image) to a high-quality image in response to an instruction from the examiner. That is, the output unit 223 may change the display of the low-quality image to the display of the high-quality image in response to an instruction from the examiner. Further, the output unit 223 may change the display of the high-quality image to the display of the low-quality image in response to an instruction from the examiner.

さらに、制御装置200(あるいは画像処理部220)における高画質化部225が、高画質化エンジン(高画質化用の学習済モデル)による高画質化処理の開始(高画質化エンジンへの画像の入力)を検者からの指示に応じて実行し、出力部223が、高画質化部225によって生成された高画質画像を表示部300に表示させてもよい。これに対し、撮影装置100によって入力画像が撮影されると、高画質化エンジンが自動的に入力画像に基づいて高画質画像を生成し、出力部223が、検者からの指示に応じて高画質画像を表示部300に表示させてもよい。ここで、高画質化エンジンとは、上述した高画質化処理を行う学習済モデルを含む。 Further, the high image quality unit 225 in the control device 200 (or the image processing unit 220) starts the high image quality processing by the high image quality engine (learned model for high image quality) (images to the high image quality engine). (Input) may be executed in response to an instruction from the examiner, and the output unit 223 may display the high-quality image generated by the high-quality image-enhancing unit 225 on the display unit 300. On the other hand, when the input image is taken by the photographing device 100, the high image quality engine automatically generates a high image quality image based on the input image, and the output unit 223 is set to be high according to the instruction from the examiner. The image quality image may be displayed on the display unit 300. Here, the high image quality engine includes a trained model that performs the high image quality processing described above.

なお、これらの処理は解析結果の出力についても同様に行うことができる。すなわち、出力部223は、検者からの指示に応じて、低画質画像の解析結果の表示を高画質画像の解析結果の表示に変更してもよい。また、出力部223は、検者からの指示に応じて、高画質画像の解析結果の表示を低画質画像の解析結果の表示に変更してもよい。もちろん、出力部223は、検者からの指示に応じて、低画質画像の解析結果の表示を低画質画像の表示に変更してもよい。また、出力部223は、検者からの指示に応じて、低画質画像の表示を低画質画像の解析結果の表示に変更してもよい。また、出力部223は、検者からの指示に応じて、高画質画像の解析結果の表示を高画質画像の表示に変更してもよい。また、出力部223は、検者からの指示に応じて、高画質画像の表示を高画質画像の解析結果の表示に変更してもよい。 Note that these processes can be performed in the same manner for the output of the analysis result. That is, the output unit 223 may change the display of the analysis result of the low-quality image to the display of the analysis result of the high-quality image in response to the instruction from the examiner. Further, the output unit 223 may change the display of the analysis result of the high-quality image to the display of the analysis result of the low-quality image in response to the instruction from the examiner. Of course, the output unit 223 may change the display of the analysis result of the low-quality image to the display of the low-quality image in response to the instruction from the examiner. Further, the output unit 223 may change the display of the low-quality image to the display of the analysis result of the low-quality image in response to an instruction from the examiner. Further, the output unit 223 may change the display of the analysis result of the high-quality image to the display of the high-quality image in response to an instruction from the examiner. Further, the output unit 223 may change the display of the high-quality image to the display of the analysis result of the high-quality image in response to an instruction from the examiner.

また、出力部223は、検者からの指示に応じて、低画質画像の解析結果の表示を低画質画像の他の種類の解析結果の表示に変更してもよい。また、出力部223は、検者からの指示に応じて、高画質画像の解析結果の表示を高画質画像の他の種類の解析結果の表示に変更してもよい。 Further, the output unit 223 may change the display of the analysis result of the low-quality image to the display of the analysis result of another type of the low-quality image in response to the instruction from the examiner. Further, the output unit 223 may change the display of the analysis result of the high-quality image to the display of the analysis result of another type of the high-quality image in response to the instruction from the examiner.

ここで、高画質画像の解析結果の表示は、高画質画像の解析結果を任意の透明度により高画質画像に重畳表示させたものであってもよい。また、低画質画像の解析結果の表示は、低画質画像の解析結果を任意の透明度により低画質画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 Here, the display of the analysis result of the high-quality image may be a display in which the analysis result of the high-quality image is superimposed and displayed on the high-quality image with arbitrary transparency. Further, the display of the analysis result of the low-quality image may be a display in which the analysis result of the low-quality image is superimposed and displayed on the low-quality image with arbitrary transparency. At this time, the change to the display of the analysis result may be changed to a state in which the analysis result is superimposed on the displayed image with arbitrary transparency, for example. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with an arbitrary transparency.

なお、本変形例では、高画質化部225が高画質化モデルを用いて断層画像の画質を改善した高画質画像を生成した。しかしながら、高画質化モデルを用いて高画質画像を生成する構成要素は高画質化部225に限られない。例えば、高画質化部225とは別の第2の高画質化部を設け、第2の高画質化部が高画質化モデルを用いて高画質画像を生成してもよい。この場合、第2の高画質化部は、学習済モデルを用いて領域毎に異なる画像処理が行われた高画質画像ではなく、画像全体に対して同一の画像処理が行われた高画質画像を生成してもよい。この際、学習済モデルの出力データは、画像全体に対して同一の高画質化処理が行われた画像であってよい。なお、第2の高画質化部や第2の高画質化部が用いる高画質化モデルは、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 In this modified example, the image quality improving unit 225 generated a high image quality image in which the image quality of the tomographic image was improved by using the image quality improving model. However, the component that generates a high-quality image using the high-quality model is not limited to the high-quality unit 225. For example, a second image quality improving unit different from the image quality improving unit 225 may be provided, and the second image quality improving unit may generate a high image quality image using the image quality improving model. In this case, the second high-quality image unit is not a high-quality image in which different image processing is performed for each region using the trained model, but a high-quality image in which the same image processing is performed on the entire image. May be generated. At this time, the output data of the trained model may be an image in which the same high image quality processing has been performed on the entire image. The high image quality model used by the second high image quality unit and the second high image quality unit may be composed of a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA. It may be configured by a circuit or the like that performs a specific function such as an ASIC.

(変形例3)
上述した様々な実施形態及び変形例における出力部223は、表示画面のレポート画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。このとき、例えば、各種のアーティファクトの低減処理が適用された医用画像を解析することで、精度の良い解析結果を表示させることができる。なお、アーティファクトは、例えば、血管領域等による光吸収により生じる偽像領域、プロジェクションアーティファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーティファクト等であってもよい。また、アーティファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、上述したような様々なアーティファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、シュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。また標準データベースを用いて得た標準値や標準範囲と、解析結果とを比較して得た比較結果が表示されてもよい。
(Modification example 3)
The output unit 223 in the various embodiments and modifications described above may display analysis results such as a desired layer thickness and various blood vessel densities on the report screen of the display screen. In addition, the optic nerve head, macular region, vascular region, nerve fiber bundle, vitreous region, macular region, choroidal region, scleral region, lamina cribrosa region, retinal layer boundary, retinal layer boundary edge, photoreceptor cells, blood cells, The value (distribution) of the parameter relating to the site of interest including at least one such as the vascular wall, the vascular inner wall boundary, the vascular lateral boundary, the ganglion cell, the corneal region, the corner region, and Schlemm's canal may be displayed as the analysis result. At this time, for example, by analyzing the medical image to which the reduction processing of various artifacts is applied, it is possible to display the analysis result with high accuracy. The artifacts are, for example, a false image region generated by light absorption by a blood vessel region or the like, a projection artifact, a band-shaped artifact in a front image generated in the main scanning direction of the measured light depending on the state of the eye to be inspected (movement, blinking, etc.). You may. Further, the artifact may be any image loss region as long as it is randomly generated for each image taken on a medical image of a predetermined portion of the subject, for example. In addition, the value (distribution) of the parameter relating to the region including at least one of various artifacts (copy loss region) as described above may be displayed as the analysis result. In addition, the value (distribution) of the parameter relating to the region including at least one such as an abnormal site such as drusen, new blood vessel, vitiligo (hard vitiligo), and pseudo-drusen may be displayed as an analysis result. Further, the comparison result obtained by comparing the standard value or standard range obtained by using the standard database with the analysis result may be displayed.

また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。また、学習済モデルは、輝度正面画像及びモーションコントラスト正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。ここで、輝度正面画像は輝度のEn−Face画像に対応し、モーションコントラスト正面画像はOCTAのEn−Face画像に対応する。また、高画質化エンジンにより生成された高画質画像を用いて得た解析結果が表示されるように構成されてもよい。 Further, the analysis result may be displayed in an analysis map, a sector showing statistical values corresponding to each divided area, or the like. The analysis result may be generated by using a trained model (analysis result generation engine, trained model for analysis result generation) obtained by learning the analysis result of the medical image as training data. .. At this time, the trained model is trained using training data including a medical image and an analysis result of the medical image, training data including a medical image and an analysis result of a medical image of a type different from the medical image, and the like. It may be obtained by. Further, the trained model is obtained by training using training data including input data in which a plurality of medical images of different types of predetermined parts are set, such as a luminance front image and a motion contrast front image. May be good. Here, the brightness front image corresponds to the brightness En-Face image, and the motion contrast front image corresponds to the OCTA En-Face image. Further, the analysis result obtained by using the high-quality image generated by the high-quality engine may be displayed.

また、学習データに含まれる入力データとしては、高画質化エンジンにより生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、解析結果生成用の学習済モデルにより得た解析結果が表示されるように構成されてもよい。例えば、医用画像処理装置は、(高画質化用の学習済モデルとは異なる)解析結果生成用の学習済モデルを用いて、種々の医用画像から該医用画像に関連する画像解析結果を生成することができる。また、例えば、出力部223は、種々の医用画像から解析結果生成用の学習済モデルを用いて得た画像解析結果を表示部300に表示させることができる。 Further, the input data included in the learning data may be a high-quality image generated by the high-quality image engine, or may be a set of a low-quality image and a high-quality image. Further, the training data includes, for example, at least analysis values (for example, average value, median value, etc.) obtained by analyzing the analysis area, a table including the analysis values, an analysis map, the position of the analysis area such as a sector in the image, and the like. The information including one may be the data labeled (annotated) with the input data as the correct answer data (for supervised learning). In addition, according to the instruction from the examiner, the analysis result obtained by the trained model for generating the analysis result may be displayed. For example, a medical image processing apparatus uses a trained model for generating analysis results (different from a trained model for high image quality) to generate image analysis results related to the medical image from various medical images. be able to. Further, for example, the output unit 223 can display the image analysis result obtained by using the trained model for generating the analysis result from various medical images on the display unit 300.

また、上述した様々な実施形態及び変形例における出力部223は、表示画面のレポート画面において、緑内障や加齢黄斑変性等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーティファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果は、特定された異常部位の位置を画像上に表示されてもよいし、また、異常部位の状態等を文字等によって表示されてもよい。また、異常部位等の分類結果(例えば、カーティン分類)を診断結果として表示させてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。また、診断結果は、被検者の今後の診療方針等に関する情報であってもよい。また、診断結果は、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報であってもよい。このとき、例えば、検者からの指示に応じて入力された診断名等の診断結果よりも確からしい診断結果を医用支援情報として表示させてもよい。また、複数の種類の医用画像が用いられた場合には、例えば、診断結果の根拠となり得る種類の医用画像が識別可能に表示されてもよい。 In addition, the output unit 223 in the various embodiments and modifications described above may display various diagnostic results such as glaucoma and age-related macular degeneration on the report screen of the display screen. At this time, for example, by analyzing the medical image to which the various artifact reduction processes as described above are applied, it is possible to display an accurate diagnostic result. Further, in the diagnosis result, the position of the specified abnormal portion may be displayed on the image, or the state of the abnormal portion may be displayed by characters or the like. Further, the classification result of the abnormal part or the like (for example, Curtin classification) may be displayed as the diagnosis result. Further, as the classification result, for example, information indicating the certainty of each abnormal part (for example, a numerical value indicating the ratio) may be displayed. In addition, information necessary for the doctor to confirm the diagnosis may be displayed as a diagnosis result. As the necessary information, for example, advice such as additional shooting can be considered. For example, when an abnormal site is detected in the blood vessel region in the OCTA image, it may be displayed that fluorescence imaging using a contrast medium capable of observing the blood vessel in more detail than OCTA is performed. In addition, the diagnosis result may be information on the future medical treatment policy of the subject. In addition, the diagnosis result is, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, the findings (interpretation findings, etc.), and the basis of the diagnosis name (affirmation). Medical support information, etc.), grounds for denying the diagnosis name (negative medical support information, etc.), etc. may be included in the information. At this time, for example, a diagnosis result that is more probable than the diagnosis result such as the diagnosis name input in response to the instruction from the examiner may be displayed as medical support information. Further, when a plurality of types of medical images are used, for example, the types of medical images that can be the basis of the diagnosis result may be displayed in an identifiable manner.

なお、診断結果は、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。また、高画質化エンジンにより生成された高画質画像を用いて得た診断結果が表示されるように構成されてもよい。例えば、医用画像処理装置は、(高画質化用の学習済モデルとは異なる)診断結果生成用の学習済モデルを用いて、種々の医用画像から該医用画像に関連する診断結果を生成することができる。また、例えば、出力部223は、種々の医用画像から診断結果生成用の学習済モデルを用いて得た診断結果を表示部300に表示させることができる。 The diagnosis result may be generated by using a trained model (diagnosis result generation engine, trained model for generation of diagnosis result) obtained by learning the diagnosis result of the medical image as training data. .. At this time, the trained model is trained using training data including a medical image and a diagnosis result of the medical image, training data including a medical image and a diagnosis result of a medical image of a type different from the medical image, and the like. It may be obtained by. Further, the diagnosis result obtained by using the high-quality image generated by the high-quality engine may be displayed. For example, a medical image processing apparatus uses a trained model for generating diagnostic results (different from a trained model for high image quality) to generate diagnostic results related to the medical image from various medical images. Can be done. Further, for example, the output unit 223 can display the diagnosis result obtained by using the learned model for generating the diagnosis result from various medical images on the display unit 300.

また、学習データに含まれる入力データとしては、高画質化エンジンにより生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルにより得た診断結果が表示されるように構成されてもよい。 Further, the input data included in the learning data may be a high-quality image generated by the high-quality image engine, or may be a set of a low-quality image and a high-quality image. In addition, the learning data includes, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, the findings (interpretation findings, etc.), and the basis of the diagnosis name (affirmation). Information including at least one such as (general medical support information, etc.) and grounds for denying the diagnosis name (negative medical support information), etc. are labeled (annotated) in the input data as correct answer data (for supervised learning). It may be data. In addition, according to the instruction from the examiner, the diagnosis result obtained by the trained model for generating the diagnosis result may be displayed.

また、上述した様々な実施形態及び変形例における出力部223は、表示画面のレポート画面において、上述したような注目部位、アーティファクト領域、異常部位等の部分領域の物体認識結果(物体検出結果)やセグメンテーション結果を表示させてもよい。このとき、例えば、画像上の物体の周辺に矩形の枠等を重畳して表示させてもよい。また、例えば、画像における物体上に色等を重畳して表示させてもよい。なお、物体認識結果やセグメンテーション結果は、物体認識やセグメンテーションを示す情報を正解データとして医用画像にラベル付け(アノテーション)した学習データを学習して得た学習済モデル(物体認識エンジン、物体認識用の学習済モデル、セグメンテーションエンジン、セグメンテーション用の学習済モデル)を用いて生成されたものであってもよい。例えば、医用画像処理装置は、(高画質化用の学習済モデルとは異なる)セグメンテーション用または物体認識用の学習済モデルを用いて、種々の医用画像から該医用画像に関連するセグメンテーション結果または物体認識結果を生成することができる。また、例えば、出力部223は、種々の医用画像からセグメンテーション用または物体認識用の学習済モデルを用いて得たセグメンテーション結果または物体認識結果を表示部300に表示させることができる。なお、上述した解析結果生成や診断結果生成は、上述した物体認識結果やセグメンテーション結果を利用することで得られたものであってもよい。例えば、物体認識やセグメンテーションの処理により得た注目部位に対して解析結果生成や診断結果生成の処理を行ってもよい。 Further, the output unit 223 in the various embodiments and modifications described above can be used to display an object recognition result (object detection result) of a partial region such as a region of interest, an artifact region, or an abnormal region as described above on the report screen of the display screen. The segmentation result may be displayed. At this time, for example, a rectangular frame or the like may be superimposed and displayed around the object on the image. Further, for example, colors and the like may be superimposed and displayed on the object in the image. The object recognition result and the segmentation result are learned models (object recognition engine, for object recognition) obtained by learning the learning data in which the information indicating the object recognition and the segmentation is used as the correct answer data and labeled (annotated) on the medical image. It may be generated using a trained model, a segmentation engine, a trained model for segmentation). For example, a medical image processing device may use a trained model for segmentation or object recognition (different from the trained model for high image quality) to perform segmentation results or objects related to the medical image from various medical images. The recognition result can be generated. Further, for example, the output unit 223 can display the segmentation result or the object recognition result obtained from various medical images by using the trained model for segmentation or object recognition on the display unit 300. The above-mentioned analysis result generation and diagnosis result generation may be obtained by using the above-mentioned object recognition result and segmentation result. For example, analysis result generation or diagnosis result generation processing may be performed on a region of interest obtained by object recognition or segmentation processing.

また、異常部位を検出する場合には、医用画像処理装置は、敵対的生成ネットワーク(GAN:Generative Adversarial Netwoks)や変分オートエンコーダ(VAE:Variational auto−encoder)を用いてもよい。例えば、断層画像の生成を学習して得た生成器と、生成器が生成した新たな断層画像と本物の眼底正面画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。 In addition, when detecting an abnormal site, the medical image processing apparatus may use a hostile generation network (GAN: Generative Adversarial Networks) or a variational autoencoder (VAE: Variational Auto-Encoder). For example, a DCGAN (Deep Convolutional GAN) consisting of a generator obtained by learning the generation of a tomographic image and a discriminator obtained by learning the discrimination between a new tomographic image generated by the generator and a real frontal image of the fundus of the eye. ) Can be used as a machine learning model.

DCGANを用いる場合には、例えば、識別器が入力された断層画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。また、VAEを用いる場合には、例えば、入力された断層画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像像との差分を異常部位として抽出することができる。なお、入力データの例として断層画像を例として説明したが、眼底画像や前眼の正面画像等を用いてもよい。 When DCGAN is used, for example, the discriminator encodes the input tomographic image into a latent variable, and the generator generates a new tomographic image based on the latent variable. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal part. When VAE is used, for example, the input tomographic image is encoded by an encoder to be a latent variable, and the latent variable is decoded by a decoder to generate a new tomographic image. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal part. Although a tomographic image has been described as an example of the input data, a fundus image, a frontal image of the anterior eye, or the like may be used.

さらに、医用画像処理装置は、畳み込みオートエンコーダ(CAE:Convolutional Auto−Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ画像を学習させる。これにより、推定時に異常部位がある画像をCAEに入力すると、学習の傾向に従って異常部位がない画像が出力される。その後、CAEに入力された画像とCAEから出力された画像の差分を異常部位として抽出することができる。なお、この場合にも、断層画像だけでなく、眼底画像や前眼の正面画像等を入力データとして用いてもよい。 Further, the medical image processing apparatus may detect an abnormal site by using a convolutional autoencoder (CAE). When CAE is used, the same image is learned as input data and output data at the time of learning. As a result, when an image with an abnormal part is input to CAE at the time of estimation, an image without an abnormal part is output according to the learning tendency. After that, the difference between the image input to the CAE and the image output from the CAE can be extracted as an abnormal portion. In this case as well, not only the tomographic image but also the fundus image, the frontal image of the anterior eye, and the like may be used as input data.

これらの場合、医用画像処理装置は、敵対的生成ネットワーク又はオートエンコーダを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、医用画像処理装置は、高速に精度よく異常部位を検出することが期待できる。ここで、オートエンコーダには、VAEやCAE等が含まれる。例えば、医用画像処理装置は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダに入力された医用画像との差に関する情報を、異常部位に関する情報として生成することができる。また、例えば、出力部223は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダに入力された医用画像との差に関する情報を、異常部位に関する情報として表示部300に表示させることができる。 In these cases, the medical image processing apparatus obtains information on the difference between the medical image obtained by using the hostile generation network or the autoencoder and the medical image input to the hostile generation network or the autoencoder, and information on the abnormal part. Can be generated as. As a result, the medical image processing apparatus can be expected to detect abnormal parts at high speed and with high accuracy. Here, the autoencoder includes VAE, CAE, and the like. For example, a medical image processing apparatus obtains information on a difference between a medical image obtained from various medical images using a hostile generation network or an autoencoder and a medical image input to the hostile generation network or the autoencoder. , Can be generated as information about abnormal parts. Further, for example, the output unit 223 provides information on the difference between the medical image obtained from various medical images by using the hostile generation network or the autoencoder and the medical image input to the hostile generation network or the autoencoder. Can be displayed on the display unit 300 as information regarding the abnormal portion.

また、疾病眼では、疾病の種類に応じて画像特徴が異なる。そのため、上述した様々な実施例や変形例において用いられる学習済モデルは、疾病の種類毎又は異常部位毎にそれぞれ生成・用意されてもよい。この場合には、例えば、医用画像処理装置は、操作者からの被検眼の疾病の種類や異常部位等の入力(指示)に応じて、処理に用いる学習済モデルを選択することができる。なお、疾病の種類や異常部位毎に用意される学習済モデルは、網膜層の検出や領域ラベル画像等の生成に用いられる学習済モデルに限られず、例えば、画像の評価用のエンジンや解析用のエンジン等で用いられる学習済モデルであってもよい。このとき、医用画像処理装置は、別に用意された学習済モデルを用いて、画像から被検眼の疾病の種類や異常部位を識別してもよい。この場合には、医用画像処理装置は、当該別に用意された学習済モデルを用いて識別された疾病の種類や異常部位に基づいて、上記処理に用いる学習済モデルを自動的に選択することができる。なお、当該被検眼の疾病の種類や異常部位を識別するための学習済モデルは、断層画像や眼底画像等を入力データとし、疾病の種類やこれら画像における異常部位を出力データとした学習データのペアを用いて学習を行ってよい。ここで、学習データの入力データとしては、断層画像や眼底画像等を単独で入力データとしてもよいし、これらの組み合わせを入力データとしてもよい。 Further, in the diseased eye, the image features differ depending on the type of disease. Therefore, the trained models used in the various examples and modifications described above may be generated and prepared for each type of disease or for each abnormal site. In this case, for example, the medical image processing apparatus can select a trained model to be used for processing according to an input (instruction) of the type of disease of the eye to be inspected, an abnormal part, or the like from the operator. The trained model prepared for each type of disease or abnormal site is not limited to the trained model used for detecting the retinal layer and generating a region label image, for example, for an engine for image evaluation or for analysis. It may be a trained model used in the engine of the above. At this time, the medical image processing apparatus may identify the type of disease or abnormal site of the eye to be inspected from the image by using a separately prepared learned model. In this case, the medical image processing apparatus may automatically select the trained model to be used for the above processing based on the type of disease or abnormal site identified by using the trained model prepared separately. it can. The trained model for identifying the disease type and abnormal site of the eye to be inspected is the training data in which the tomographic image, the fundus image, etc. are input data, and the disease type and the abnormal site in these images are output data. Learning may be performed using pairs. Here, as the input data of the training data, a tomographic image, a fundus image, or the like may be used alone as input data, or a combination thereof may be used as input data.

また、特に診断結果生成用の学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとするデータ等が考えられる。また、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとするデータ等も考えられる。また、異なる種類の複数の医療画像は、異なるモダリティ、異なる光学系、又は異なる原理等により取得されたものであれば何でもよい。 Further, in particular, the trained model for generating the diagnosis result may be a trained model obtained by learning from the training data including the input data including a set of a plurality of medical images of different types of the predetermined part of the subject. Good. At this time, as the input data included in the training data, for example, data in which a motion contrast front image of the fundus and a luminance front image (or a luminance tom image) are set can be considered. Further, as the input data included in the training data, for example, data in which a tomographic image (B scan image) of the fundus and a color fundus image (or a fluorescent fundus image) are set can be considered. Further, the plurality of medical images of different types may be anything as long as they are acquired by different modality, different optical systems, different principles, or the like.

また、特に診断結果生成用の学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとするデータ等が考えられる。また、学習データに含まれる入力データとして、例えば、眼底の黄斑の3次元OCT画像(3次元断層画像)と眼底の視神経乳頭のサークルスキャン(またはラスタスキャン)断層画像とをセットとするデータ等も考えられる。 Further, the trained model for generating the diagnosis result may be a trained model obtained by learning from the training data including the input data including a plurality of medical images of different parts of the subject. At this time, as the input data included in the training data, for example, data in which a tomographic image of the fundus of the eye (B scan image) and a tomographic image of the anterior segment of the eye (B scan image) are set can be considered. Further, as input data included in the training data, for example, data in which a three-dimensional OCT image (three-dimensional tomographic image) of the macula of the fundus and a circle scan (or raster scan) tomographic image of the optic nerve head of the fundus are set are also included. Conceivable.

なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した種々の学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。このとき、パノラマ画像のような広画角画像を学習データとして用いることにより、狭画角画像よりも情報量が多い等の理由から画像の特徴量を精度良く取得できる可能性があるため、各処理の結果を向上することができる。例えば、推定時(予測時)において、広画角画像における複数の位置で異常部位が検出された場合に、各異常部位の拡大画像を順次表示可能に構成させる。これにより、複数の位置における異常部位を効率よく確認することができるため、例えば、検者の利便性を向上することができる。このとき、例えば、異常部位が検出された広画角画像上の各位置を検者が選択可能に構成され、選択された位置における異常部位の拡大画像が表示されるように構成されてもよい。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。 The input data included in the learning data may be different parts of the subject and a plurality of different types of medical images. At this time, the input data included in the training data may be, for example, input data in which a tomographic image of the anterior segment of the eye and a color fundus image are set. Further, the various trained models described above may be trained models obtained by learning from training data including input data including a set of a plurality of medical images having different shooting angles of view of a predetermined part of the subject. Good. Further, the input data included in the learning data may be a combination of a plurality of medical images obtained by time-dividing a predetermined portion into a plurality of regions, such as a panoramic image. At this time, by using a wide angle-of-view image such as a panoramic image as learning data, there is a possibility that the feature amount of the image can be accurately acquired because the amount of information is larger than that of the narrow angle-of-view image. The result of processing can be improved. For example, when an abnormal portion is detected at a plurality of positions in a wide angle-of-view image at the time of estimation (prediction), an enlarged image of each abnormal portion can be sequentially displayed. As a result, it is possible to efficiently confirm the abnormal portion at a plurality of positions, so that the convenience of the examiner can be improved, for example. At this time, for example, the examiner may be configured to select each position on the wide angle-of-view image in which the abnormal portion is detected, and an enlarged image of the abnormal portion at the selected position may be displayed. .. Further, the input data included in the learning data may be input data in which a plurality of medical images of different dates and times of a predetermined part of the subject are set.

また、上述した解析結果と診断結果と物体認識結果とセグメンテーション結果とのうち少なくとも1つの結果が表示される表示画面は、レポート画面に限らない。このような表示画面は、例えば、撮影確認画面、経過観察用の表示画面、及び撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されてもよい。例えば、上述した種々の学習済モデルを用いて得た上記少なくとも1つの結果を撮影確認画面に表示させることにより、検者は、撮影直後であっても精度の良い結果を確認することができる。また、例えば、特定の物体が認識されると、認識された物体を囲う枠がライブ動画像に重畳表示させるように構成されてもよい。このとき、物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、例えば、物体を囲う枠の色が変更される等のように強調表示されてもよい。これにより、検者は、物体をライブ動画上で容易に識別することができる。また、上述した低画質画像と高画質画像との表示の変更は、例えば、低画質画像の解析結果と高画質画像の解析結果との表示の変更であってもよい。 Further, the display screen on which at least one of the above-mentioned analysis result, diagnosis result, object recognition result, and segmentation result is displayed is not limited to the report screen. Such a display screen is, for example, at least one display screen such as a shooting confirmation screen, a display screen for follow-up observation, and a preview screen for various adjustments before shooting (a display screen on which various live moving images are displayed). It may be displayed in. For example, by displaying at least one result obtained by using the various trained models described above on the shooting confirmation screen, the examiner can confirm the accurate result even immediately after shooting. Further, for example, when a specific object is recognized, a frame surrounding the recognized object may be configured to be superimposed and displayed on the live moving image. At this time, if the information indicating the certainty of the object recognition result (for example, the numerical value indicating the ratio) exceeds the threshold value, the color of the frame surrounding the object may be changed or highlighted. Good. This allows the examiner to easily identify the object on the live video. Further, the above-mentioned change in the display between the low-quality image and the high-quality image may be, for example, a change in the display between the analysis result of the low-quality image and the analysis result of the high-quality image.

ここで、上述した様々な学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を機械学習モデルとして用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダ(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。また、学習には、各ユニット(各ニューロン)を学習毎にランダムに不活性化させる手法(ドロップアウト)が用いられてもよい。また、学習には、多階層のニューラルネットワークの各層に伝わったデータを、活性化関数(例えばReLu関数)が適用される前に、正規化する手法(バッチ正規化)が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。また、学習データとは、入力データ及び出力データ(正解データ)のペアで構成される。ここで、学習データを教師データという場合もあるし、あるいは、正解データを教師データという場合もある。 Here, the various trained models described above can be obtained by machine learning using the training data. Machine learning includes, for example, deep learning consisting of a multi-layer neural network. Further, for at least a part of the multi-layer neural network, for example, a convolutional neural network (CNN) can be used as a machine learning model. Further, a technique related to an autoencoder (self-encoder) may be used for at least a part of a multi-layer neural network. Further, a technique related to backpropagation (error backpropagation method) may be used for learning. Further, for learning, a method (dropout) in which each unit (each neuron) is randomly inactivated for each learning may be used. Further, for learning, a method (batch normalization) may be used in which the data transmitted to each layer of the multi-layer neural network is normalized before the activation function (for example, the ReLu function) is applied. However, the machine learning is not limited to deep learning, and any learning using a model capable of extracting (expressing) the features of learning data such as images by learning may be used. Here, the machine learning model refers to a learning model based on a machine learning algorithm such as deep learning. The trained model is a model in which a machine learning model by an arbitrary machine learning algorithm is trained (learned) in advance using appropriate learning data. However, the trained model does not require further learning, and additional learning can be performed. The learning data is composed of a pair of input data and output data (correct answer data). Here, the learning data may be referred to as teacher data, or the correct answer data may be referred to as teacher data.

なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本変形例では、学習部(不図示)の一例である画像処理部220による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPUまたはGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 The GPU can perform efficient calculations by processing more data in parallel. Therefore, when learning is performed a plurality of times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in this modification, a GPU is used in addition to the CPU for processing by the image processing unit 220, which is an example of the learning unit (not shown). Specifically, when executing a learning program including a learning model, learning is performed by the CPU and the GPU collaborating to perform calculations. The processing of the learning unit may be performed only by the CPU or GPU. Further, the processing unit (estimation unit) that executes the processing using the various trained models described above may also use the GPU as in the learning unit. Further, the learning unit may include an error detecting unit and an updating unit (not shown). The error detection unit obtains an error between the output data output from the output layer of the neural network and the correct answer data according to the input data input to the input layer. The error detection unit may use the loss function to calculate the error between the output data from the neural network and the correct answer data. Further, the update unit updates the coupling weighting coefficient between the nodes of the neural network based on the error obtained by the error detection unit so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error backpropagation method is a method of adjusting the coupling weighting coefficient between the nodes of each neural network so that the above error becomes small.

また、高画質化やセグメンテーション等に用いられる機械学習モデルとしては、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルが適用可能である。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 In addition, as machine learning models used for high image quality and segmentation, there are an encoder function consisting of a plurality of layers including a plurality of downsampling layers and a decoder function consisting of a plurality of layers including a plurality of upsampling layers. A U-net type machine learning model having the above is applicable. In the U-net type machine learning model, position information (spatial information) that is ambiguous in a plurality of layers configured as encoders is displayed in layers of the same dimension (layers corresponding to each other) in a plurality of layers configured as a decoder. ) (For example, using a skip connection).

また、高画質化やセグメンテーション等に用いられる機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Further, as a machine learning model used for high image quality, segmentation, etc., for example, FCN (Full Convolutional Network), SegNet, or the like can be used. Further, a machine learning model that recognizes an object in a region unit according to a desired configuration may be used. As a machine learning model for performing object recognition, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Further, as a machine learning model for recognizing an object in a region unit, YOLO (You Only Look Object) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used.

また、機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。 Further, the machine learning model may be, for example, a capsule network (Capsule Network; CapsNet). Here, in a general neural network, each unit (each neuron) is configured to output a scalar value, so that, for example, spatial information regarding the spatial positional relationship (relative position) between features in an image can be obtained. It is configured to be reduced. Thereby, for example, learning can be performed so as to reduce the influence of local distortion and translation of the image. On the other hand, in the capsule network, each unit (each capsule) is configured to output spatial information as a vector, so that, for example, spatial information is retained. Thereby, for example, learning can be performed in which the spatial positional relationship between the features in the image is taken into consideration.

また、高画質化エンジン(高画質化用の学習済モデル)は、高画質化エンジンにより生成された少なくとも1つの高画質画像を含む学習データを追加学習して得た学習済モデルであってもよい。このとき、高画質画像を追加学習用の学習データとして用いるか否かを、検者からの指示により選択可能に構成されてもよい。なお、これらの構成は、高画質化用の学習済モデルに限らず、上述した様々な学習済モデルに対しても適用可能である。また、上述した様々な学習済モデルの学習に用いられる正解データの生成には、ラベル付け(アノテーション)等の正解データを生成するための正解データ生成用の学習済モデルが用いられてもよい。このとき、正解データ生成用の学習済モデルは、検者がラベル付け(アノテーション)して得た正解データを(順次)追加学習することにより得られたものであってもよい。すなわち、正解データ生成用の学習済モデルは、ラベル付け前のデータを入力データとし、ラベル付け後のデータを出力データとする学習データを追加学習することにより得られたものであってもよい。また、動画像等のような連続する複数フレームにおいて、前後のフレームの物体認識やセグメンテーション等の結果を考慮して、結果の精度が低いと判定されたフレームの結果を修正するように構成されてもよい。このとき、検者からの指示に応じて、修正後の結果を正解データとして追加学習するように構成されてもよい。 Further, the high image quality engine (trained model for high image quality) may be a trained model obtained by additionally learning learning data including at least one high image quality image generated by the high image quality engine. Good. At this time, whether or not to use the high-quality image as the learning data for additional learning may be configured to be selectable according to the instruction from the examiner. It should be noted that these configurations can be applied not only to the trained model for high image quality but also to the various trained models described above. Further, in the generation of the correct answer data used for learning the various trained models described above, the trained model for generating the correct answer data for generating the correct answer data such as labeling (annotation) may be used. At this time, the trained model for generating correct answer data may be obtained by (sequentially) additionally learning the correct answer data obtained by labeling (annotation) by the examiner. That is, the trained model for generating correct answer data may be obtained by additional training of training data in which the data before labeling is used as input data and the data after labeling is used as output data. Further, in a plurality of consecutive frames such as a moving image, the result of the frame judged to have low accuracy is corrected in consideration of the results of object recognition and segmentation of the preceding and following frames. May be good. At this time, according to the instruction from the examiner, the corrected result may be additionally learned as correct answer data.

なお、上述した様々な実施形態及び変形例において、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて被検眼の部分領域(例えば、注目部位、アーティファクト領域、異常部位等)を検出する場合には、検出した領域毎に所定の画像処理を施すこともできる。例えば、硝子体領域、網膜領域、及び脈絡膜領域のうちの少なくとも2つの領域を検出する場合を考える。この場合には、検出された少なくとも2つの領域に対してコントラスト調整等の画像処理を施す際に、それぞれ異なる画像処理のパラメータを用いることで、各領域に適した調整を行うことができる。各領域に適した調整が行われた画像を表示することで、操作者は領域毎の疾病等をより適切に診断することができる。なお、検出された領域毎に異なる画像処理のパラメータを用いる構成については、例えば、学習済モデルを用いずに検出された被検眼の領域について同様に適用されてもよい。 In the various embodiments and modifications described above, a partial region of the eye to be inspected (for example, a region of interest, an artifact region, an abnormal region, etc.) is detected using a trained model for object recognition and a trained model for segmentation. In this case, predetermined image processing can be performed for each detected area. For example, consider the case of detecting at least two regions of the vitreous region, the retinal region, and the choroid region. In this case, when performing image processing such as contrast adjustment on at least two detected regions, adjustments suitable for each region can be performed by using different image processing parameters. By displaying the image adjusted suitable for each area, the operator can more appropriately diagnose the disease or the like in each area. Note that the configuration using different image processing parameters for each detected region may be similarly applied to the region of the eye to be inspected detected without using the trained model, for example.

(変形例4)
上述した様々な実施形態及び変形例におけるプレビュー画面において、ライブ動画像の少なくとも1つのフレーム毎に上述した種々の学習済モデルが用いられるように構成されてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。
(Modification example 4)
In the preview screens in the various embodiments and modifications described above, the various trained models described above may be used for at least one frame of the live video. At this time, when a plurality of live moving images of different parts or different types are displayed on the preview screen, the trained model corresponding to each live moving image may be used. As a result, for example, even if it is a live moving image, the processing time can be shortened, so that the examiner can obtain highly accurate information before the start of shooting. Therefore, for example, the failure of re-imaging can be reduced, so that the accuracy and efficiency of diagnosis can be improved.

なお、複数のライブ動画像は、例えば、XYZ方向のアライメントのための前眼部の動画像、眼底観察光学系のフォーカス調整やOCTフォーカス調整のための眼底の正面動画像であってもよい。また、複数のライブ動画像は、例えば、OCTのコヒーレンスゲート調整(測定光路長と参照光路長との光路長差の調整)のための眼底の断層動画像等の少なくとも1つの動画像であってもよい。このとき、上述した物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された領域が所定の条件を満たすように、上述した各種調整が行われるように構成されてもよい。例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層等に関する値(例えば、コントラスト値あるいは強度値)が閾値を超える(あるいはピーク値になる)ように、OCTフォーカス調整等の各種調整が行われるように構成されてもよい。また、例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層が深さ方向における所定の位置になるように、OCTのコヒーレンスゲート調整が行われるように構成されてもよい。 The plurality of live moving images may be, for example, a moving image of the anterior segment for alignment in the XYZ direction, a frontal moving image of the fundus for focus adjustment or OCT focus adjustment of the fundus observation optical system. Further, the plurality of live moving images are at least one moving image such as a tomographic moving image of the fundus for coherence gate adjustment of OCT (adjustment of the optical path length difference between the measured optical path length and the reference optical path length). May be good. At this time, the above-mentioned various adjustments may be performed so that the region detected by using the above-described trained model for object recognition or the above-mentioned trained model for segmentation satisfies a predetermined condition. For example, a value (for example, a contrast value or an intensity value) related to a predetermined retinal layer such as a vitreous region or RPE detected using a trained model for object recognition or a trained model for segmentation exceeds a threshold value (for example, a contrast value or an intensity value). Alternatively, various adjustments such as OCT focus adjustment may be performed so as to reach a peak value). Further, for example, the OCT so that a predetermined retinal layer such as a vitreous region or RPE detected by using a trained model for object recognition or a trained model for segmentation is at a predetermined position in the depth direction. The coherence gate adjustment may be configured to be performed.

これらの場合には、医用画像処理装置における高画質化部225は、学習済モデルを用いて、動画像について高画質化処理を行って、高画質な動画像を生成することができる。また、制御部211は、高画質な動画像が表示された状態で、セグメンテーション処理等により得た注目部位等の部分領域が表示領域における所定の位置になるように、参照ミラー143等の撮影範囲を変更するための光学部材を駆動制御することができる。このような場合には、制御部211は、精度の高い情報に基づいて、所望される領域が表示領域の所定の位置になるように自動的にアライメント処理を行うことができる。なお、撮影範囲を変更する光学部材としては、例えばコヒーレンスゲート位置を調整する光学部材であってよく、具体的には参照ミラー143等であってよい。また、コヒーレンスゲート位置は、測定光路長及び参照光路長の光路長差を変更する光学部材によって調整されることができ、当該光学部材は、例えば、不図示の測定光の光路長を変更するためのミラー等であってもよい。なお、撮影範囲を変更する光学部材は、例えばステージ部(不図示)であってもよい。また、制御部211は、撮影開始に関する指示に応じて、撮影の途中あるいは撮影の最後に、セグメンテーション処理等により得たアーティファクト領域等の部分領域が再度撮影(リスキャン)されるように、上述した走査部を駆動制御してもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を自動的に行うように構成されてもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を検者からの指示に応じて実行可能な状態に変更(実行禁止状態を解除)するように構成されてもよい。 In these cases, the image quality improving unit 225 in the medical image processing device can perform high image quality processing on the moving image using the trained model to generate a high quality moving image. Further, the control unit 211 has a photographing range of the reference mirror 143 or the like so that the partial area such as the attention portion obtained by the segmentation process or the like is at a predetermined position in the display area in the state where the high-quality moving image is displayed. It is possible to drive and control the optical member for changing the. In such a case, the control unit 211 can automatically perform the alignment process so that the desired area becomes a predetermined position of the display area based on the highly accurate information. The optical member for changing the photographing range may be, for example, an optical member for adjusting the coherence gate position, and specifically, a reference mirror 143 or the like. Further, the coherence gate position can be adjusted by an optical member that changes the optical path length difference between the measurement optical path length and the reference optical path length, and the optical member can change, for example, the optical path length of the measurement light (not shown). It may be a mirror or the like. The optical member for changing the photographing range may be, for example, a stage portion (not shown). Further, the control unit 211 scans (rescans) the partial area such as the artifact area obtained by the segmentation process or the like during the shooting or at the end of the shooting in response to the instruction regarding the start of shooting. The unit may be driven and controlled. Further, for example, when the information indicating the certainty of the object recognition result regarding the region of interest (for example, the numerical value indicating the ratio) exceeds the threshold value, each adjustment, shooting start, etc. may be automatically performed. Good. Further, for example, when the information indicating the certainty of the object recognition result regarding the region of interest (for example, the numerical value indicating the ratio) exceeds the threshold value, each adjustment, the start of imaging, etc. can be executed according to the instruction from the examiner. It may be configured to change to the above state (release the execution prohibited state).

また、上述した種々の学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化エンジンにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成させてもよい。 Further, the moving image to which the various trained models described above can be applied is not limited to the live moving image, and may be, for example, a moving image stored (stored) in the storage unit. At this time, for example, the moving image obtained by aligning each frame of the tomographic moving image of the fundus stored (stored) in the storage unit may be displayed on the display screen. For example, when it is desired to observe the vitreous body preferably, first, a reference frame based on a condition such as the presence of the vitreous body on the frame as much as possible may be selected. At this time, each frame is a tomographic image (B scan image) in the XZ direction. Then, a moving image in which another frame is aligned in the XZ direction with respect to the selected reference frame may be displayed on the display screen. At this time, for example, a high-quality image (high-quality frame) sequentially generated by the high-quality engine may be continuously displayed for each at least one frame of the moving image.

ここで、各種の調整中では、被検眼の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。 Here, during various adjustments, it is possible that the imaged object such as the retina of the eye to be inspected has not yet been successfully imaged. Therefore, since there is a large difference between the medical image input to the trained model and the medical image used as the training data, there is a possibility that a high-quality image cannot be obtained with high accuracy. Therefore, when the evaluation value such as the image quality evaluation of the tomographic image (B scan) exceeds the threshold value, the display of the high-quality moving image (continuous display of the high-quality frame) may be automatically started. Further, when the evaluation value such as the image quality evaluation of the tomographic image (B scan) exceeds the threshold value, the image quality enhancement button may be configured to be changed to a state (active state) that can be specified by the examiner.

また、走査パターン等が異なる撮影モード毎に異なる高画質化エンジンを用意して、選択された撮影モードに対応する高画質化エンジンが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化エンジンが用いられてもよい。 Further, a different high image quality engine may be prepared for each shooting mode having a different scanning pattern or the like, and the high image quality engine corresponding to the selected shooting mode may be selected. Further, one high image quality engine obtained by learning learning data including various medical images obtained in different imaging modes may be used.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されてもよいし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われても良く、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層画像(Bスキャン像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 As the above-mentioned method for aligning between frames, the same method may be applied to the method for aligning in the X direction and the method for aligning in the Z direction (depth direction), or all different methods may be applied. May be applied. Further, the alignment in the same direction may be performed a plurality of times by different methods. For example, after performing the coarse alignment, the precise alignment may be performed. Further, as a method of alignment, for example, a plurality of alignments obtained by segmenting a tomographic image (B scan image) using a retinal layer boundary obtained by performing segmentation processing (coarse in the Z direction) and dividing the tomographic image. Alignment using the correlation information (similarity) between the region and the reference image (precise in the X and Z directions), and using the one-dimensional projection image generated for each tomographic image (B scan image) (in the X direction). ) Alignment, etc. Alignment (in the X direction) using a two-dimensional front image. Further, it may be configured so that the alignment is roughly performed in pixel units and then the precise alignment is performed in sub-pixel units.

(変形例5)
上述した様々な実施形態及び変形例においては、学習済モデルが追加学習の実行中である場合、追加学習の実行中の学習済モデル自体を用いて出力(推論・予測)することが難しい可能性がある。このため、追加学習の実行中の学習済モデルに対する学習データ以外の医用画像の入力を禁止するように構成されることがよい。また、追加学習の実行前の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意してもよい。このとき、追加学習の実行中には、予備の学習済モデルに対する学習データ以外の医用画像の入力を実行可能なように構成されることがよい。そして、追加学習が完了した後に、追加学習の実行後の学習済モデルを評価し、問題なければ、予備の学習済モデルから追加学習の実行後の学習済モデルに置き換えればよい。また、問題があれば、予備の学習済モデルが用いられるようにしてもよい。なお、追加学習して得た学習済モデルの評価としては、例えば、高画質化用の学習済モデルで得た高画質画像を他の種類の画像と分類するための分類用の学習済モデルが用いられてもよい。分類用の学習済モデルは、例えば、高画質化用の学習済モデルで得た高画質画像と低画質画像とを含む複数の画像を入力データとし、これらの画像の種類がラベル付け(アノテーション)されたデータを正解データとして含む学習データを学習して得た学習済モデルであってもよい。このとき、推定時(予測時)の入力データの画像の種類が、学習時の正解データに含まれる画像の種類毎の確からしさを示す情報(例えば、割合を示す数値)と合わせて表示されてもよい。なお、分類用の学習済モデルの入力データとしては、上記の画像以外にも、複数の低画質画像の重ね合わせ処理(例えば、位置合わせして得た複数の低画質画像の平均化処理)等によって、高コントラスト化やノイズ低減等が行われたような高画質な画像が含まれてもよい。また、追加学習の実行後の学習済モデルの評価としては、例えば、追加学習の実行後の学習済モデルと追加学習の実行前の学習済モデルとをそれぞれ用いて同一の画像から得た複数の高画質画像を比較、あるいは該複数の高画質画像の解析結果を比較してもよい。このとき、例えば、該複数の高画質画像の比較結果(追加学習による変化の一例)、あるいは該複数の高画質画像の解析結果の比較結果(追加学習による変化の一例)が所定の範囲であるか否かを判定し、判定結果が表示されてもよい。
(Modification 5)
In the various embodiments and modifications described above, when the trained model is executing the additional learning, it may be difficult to output (infer / predict) using the trained model itself during the execution of the additional learning. There is. Therefore, it is preferable to prohibit the input of medical images other than the training data to the trained model during the execution of the additional learning. Further, another trained model that is the same as the trained model before the execution of the additional learning may be prepared as another preliminary trained model. At this time, during the execution of the additional learning, it is preferable that the input of the medical image other than the training data to the preliminary trained model can be executed. Then, after the additional learning is completed, the trained model after the execution of the additional learning is evaluated, and if there is no problem, the preliminary trained model may be replaced with the trained model after the execution of the additional learning. Also, if there is a problem, a preliminary trained model may be used. As an evaluation of the trained model obtained by additional learning, for example, a trained model for classification for classifying a high-quality image obtained by the trained model for high image quality with another type of image is used. It may be used. The trained model for classification uses, for example, a plurality of images including a high-quality image and a low-quality image obtained by the trained model for high image quality as input data, and the types of these images are labeled (annotation). It may be a trained model obtained by training training data including the obtained data as correct answer data. At this time, the image type of the input data at the time of estimation (prediction) is displayed together with the information (for example, a numerical value indicating the ratio) indicating the certainty of each type of image included in the correct answer data at the time of learning. May be good. In addition to the above images, the input data of the trained model for classification includes superposition processing of a plurality of low-quality images (for example, averaging processing of a plurality of low-quality images obtained by alignment) and the like. It may include a high-quality image in which high contrast, noise reduction, etc. are performed. Further, as an evaluation of the trained model after the execution of the additional learning, for example, a plurality of trained models obtained from the same image using the trained model after the execution of the additional learning and the trained model before the execution of the additional learning are used. High-quality images may be compared, or the analysis results of the plurality of high-quality images may be compared. At this time, for example, the comparison result of the plurality of high-quality images (an example of change due to additional learning) or the comparison result of the analysis result of the plurality of high-quality images (an example of change due to additional learning) is within a predetermined range. It may be determined whether or not, and the determination result may be displayed.

また、撮影部位毎に学習して得た学習済モデルを選択的に利用できるようにしてもよい。具体的には、第1の撮影部位(肺、被検眼等)を含む学習データを用いて得た第1の学習済モデルと、第1の撮影部位とは異なる第2の撮影部位を含む学習データを用いて得た第2の学習済モデルと、を含む複数の学習済モデルを用意することができる。そして、これら複数の学習済モデルのいずれかを(不図示の選択手段を用いて)選択するように構成されてもよい。このとき、医用画像処理装置は、選択された学習済モデルに対して追加学習として実行する制御手段(不図示)を有してもよい。制御手段は、検者からの指示に応じて、選択された学習済モデルに対応する撮影部位と該撮影部位の撮影画像とがペアとなるデータを検索し、検索して得たデータを学習データとする学習を、選択された学習済モデルに対して追加学習として実行することができる。なお、選択された学習済モデルに対応する撮影部位は、データのヘッダの情報から取得したり、検者により手動入力されたりしたものであってよい。また、データの検索は、例えば、病院や研究所等の外部施設のサーバ等からネットワークを介して行われてよい。これにより、学習済モデルに対応する撮影部位の撮影画像を用いて、撮影部位毎に効率的に追加学習することができる。 In addition, the trained model obtained by learning for each imaging site may be selectively used. Specifically, learning including a first learned model obtained by using learning data including a first imaging site (lung, eye to be examined, etc.) and a second imaging site different from the first imaging site. A second trained model obtained using the data and a plurality of trained models including the second trained model can be prepared. Then, any of these plurality of trained models may be configured to be selected (using a selection means (not shown). At this time, the medical image processing apparatus may have a control means (not shown) that executes additional learning on the selected trained model. The control means searches for data in which the imaged part corresponding to the selected trained model and the photographed image of the imaged part are paired according to the instruction from the examiner, and the data obtained by the search is the learning data. Can be executed as additional learning for the selected trained model. The imaging site corresponding to the selected trained model may be acquired from the information in the header of the data or manually input by the examiner. Further, the data search may be performed from a server of an external facility such as a hospital or a research institute via a network, for example. As a result, additional learning can be efficiently performed for each imaged part by using the photographed image of the imaged part corresponding to the trained model.

なお、選択手段及び制御手段は、医用画像処理装置のCPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、選択手段及び制御手段は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 The selection means and the control means may be composed of a software module executed by a processor such as a CPU or an MPU of a medical image processing device. Further, the selection means and the control means may be composed of a circuit that performs a specific function such as an ASIC, an independent device, or the like.

また、追加学習用の学習データを、病院や研究所等の外部施設のサーバ等からネットワークを介して取得する際には、改ざんや、追加学習時のシステムトラブル等による信頼性低下を低減したい。そこで、デジタル署名やハッシュ化による一致性の確認を行うことで、追加学習用の学習データの正当性を検出してもよい。これにより、追加学習用の学習データを保護することができる。このとき、デジタル署名やハッシュ化による一致性の確認した結果として、追加学習用の学習データの正当性が検出できなかった場合には、その旨の警告を行い、その学習データによる追加学習を行わない。なお、サーバは、その設置場所を問わず、例えば、クラウドサーバ、フォグサーバ、エッジサーバ等のどのような形態でもよい。また、上述したような一致性の確認によるデータの保護は、追加学習用の学習データに限らず、医用画像を含むデータに適用可能である。また、複数の施設のサーバの間の医用画像を含むデータの取引が分散型のネットワークにより管理されるように画像管理システムが構成されてもよい。また、取引履歴と、前のブロックのハッシュ値とが一緒に記録された複数のブロックを時系列につなぐように画像管理システムが構成されてもよい。なお、一致性の確認等を行うための技術としては、量子ゲート方式等の量子コンピュータを用いても計算が困難な暗号(例えば、格子暗号、量子鍵配送による量子暗号等)が用いられてもよい。 In addition, when acquiring learning data for additional learning from a server of an external facility such as a hospital or research institute via a network, it is desired to reduce reliability deterioration due to falsification or system trouble during additional learning. Therefore, the correctness of the learning data for additional learning may be detected by confirming the consistency by digital signature or hashing. As a result, the learning data for additional learning can be protected. At this time, if the validity of the training data for additional learning cannot be detected as a result of confirming the consistency by digital signature or hashing, a warning to that effect is given and additional learning is performed using the training data. Absent. The server may be in any form, for example, a cloud server, a fog server, an edge server, or the like, regardless of its installation location. Further, the data protection by confirming the consistency as described above can be applied not only to the learning data for additional learning but also to the data including the medical image. Further, the image management system may be configured so that the transaction of data including medical images between servers of a plurality of facilities is managed by a distributed network. Further, the image management system may be configured to connect a plurality of blocks in which the transaction history and the hash value of the previous block are recorded together in a time series. As a technique for confirming consistency, even if a cipher that is difficult to calculate even using a quantum computer such as a quantum gate method (for example, lattice-based cryptography, quantum cryptography by quantum key distribution, etc.) is used. Good.

(変形例6)
上述した様々な実施形態及び変形例において、検者からの指示は、手動による指示(例えば、ユーザーインターフェース等を用いた指示)以外にも、音声等による指示であってもよい。このとき、例えば、機械学習により得た音声認識エンジン(音声認識モデル、音声認識用の学習済モデル)を含む機械学習エンジンが用いられてもよい。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力等による指示であってもよい。このとき、例えば、機械学習により得た文字認識エンジン(文字認識モデル、文字認識用の学習済モデル)を含む機械学習エンジンが用いられてもよい。また、検者からの指示は、ジェスチャー等による指示であってもよい。このとき、機械学習により得たジェスチャー認識エンジン(ジェスチャー認識モデル、ジェスチャー認識用の学習済モデル)を含む機械学習エンジンが用いられてもよい。
(Modification 6)
In the various embodiments and modifications described above, the instruction from the examiner may be an instruction by voice or the like in addition to a manual instruction (for example, an instruction using a user interface or the like). At this time, for example, a machine learning engine including a voice recognition engine (speech recognition model, trained model for voice recognition) obtained by machine learning may be used. Further, the manual instruction may be an instruction by character input or the like using a keyboard, a touch panel, or the like. At this time, for example, a machine learning engine including a character recognition engine (character recognition model, trained model for character recognition) obtained by machine learning may be used. Further, the instruction from the examiner may be an instruction by a gesture or the like. At this time, a machine learning engine including a gesture recognition engine (gesture recognition model, learned model for gesture recognition) obtained by machine learning may be used.

また、検者からの指示は、表示部300における表示画面上の検者の視線検出結果等であってもよい。視線検出結果は、例えば、表示部300における表示画面の周辺から撮影して得た検者の動画像を用いた瞳孔検出結果であってもよい。このとき、動画像からの瞳孔検出は、上述したような物体認識エンジンを用いてもよい。また、検者からの指示は、脳波、体を流れる微弱な電気信号等による指示であってもよい。 Further, the instruction from the examiner may be an eye-gaze detection result of the examiner on the display screen of the display unit 300 or the like. The line-of-sight detection result may be, for example, a pupil detection result using a moving image of the examiner obtained by photographing from the periphery of the display screen on the display unit 300. At this time, the object recognition engine as described above may be used for the pupil detection from the moving image. Further, the instruction from the examiner may be an instruction by an electroencephalogram, a weak electric signal flowing through the body, or the like.

このような場合、例えば、学習データとしては、上述したような種々の学習済モデルの処理による結果の表示の指示を示す文字データまたは音声データ(波形データ)等を入力データとし、種々の学習済モデルの処理による結果等を実際に表示部300に表示させるための実行命令を正解データとする学習データであってもよい。また、学習データとしては、例えば、高画質化用の学習済モデルで得た高画質画像の表示の指示を示す文字データまたは音声データ等を入力データとし、高画質画像の表示の実行命令及びボタン3420をアクティブ状態に変更するための実行命令を正解データとする学習データであってもよい。もちろん、学習データとしては、例えば、文字データまたは音声データ等が示す指示内容と実行命令内容とが互いに対応するものであれば何でもよい。また、音響モデルや言語モデル等を用いて、音声データから文字データに変換してもよい。また、複数のマイクで得た波形データを用いて、音声データに重畳しているノイズデータを低減する処理を行ってもよい。また、文字または音声等による指示と、マウス、タッチパネル等による指示とを、検者からの指示に応じて選択可能に構成されてもよい。また、文字または音声等による指示のオン・オフを、検者からの指示に応じて選択可能に構成されてもよい。 In such a case, for example, as the training data, various trained data such as character data or voice data (waveform data) indicating instructions for displaying the results obtained by processing the various trained models as described above are used as input data. It may be learning data in which the execution instruction for actually displaying the result or the like obtained by the processing of the model on the display unit 300 is the correct answer data. Further, as the training data, for example, character data or audio data indicating an instruction for displaying a high-quality image obtained by a trained model for high image quality is used as input data, and an execution command and a button for displaying the high-quality image are used as input data. It may be learning data in which the execution instruction for changing the 3420 to the active state is the correct answer data. Of course, the learning data may be any data as long as the instruction content and the execution instruction content indicated by the character data, the voice data, or the like correspond to each other. Further, the voice data may be converted into character data by using an acoustic model, a language model, or the like. Further, the waveform data obtained by the plurality of microphones may be used to perform a process of reducing the noise data superimposed on the voice data. Further, the instruction by characters or voice and the instruction by a mouse, a touch panel or the like may be configured to be selectable according to the instruction from the examiner. Further, the on / off of the instruction by characters or voice may be selectably configured according to the instruction from the examiner.

ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも一部には、例えば、再帰型ニューラルネットワーク(RNN:Recurrernt Neural Network)を用いることができる。ここで、本変形例に係る機械学習エンジンの一例として、時系列情報を扱うニューラルネットワークであるRNNに関して、図13(a)及び(b)を参照して説明する。また、RNNの一種であるLong short−term memory(以下、LSTM)に関して、図14(a)及び(b)を参照して説明する。 Here, machine learning includes deep learning as described above, and for at least a part of a multi-layer neural network, for example, a recurrent neural network (RNN) can be used. Here, as an example of the machine learning engine according to this modified example, RNN, which is a neural network that handles time series information, will be described with reference to FIGS. 13 (a) and 13 (b). Further, a Long short-term memory (hereinafter referred to as LSTM), which is a kind of RNN, will be described with reference to FIGS. 14 (a) and 14 (b).

図13(a)は、機械学習エンジンであるRNNの構造を示す。RNN3520は、ネットワークにループ構造を持ち、時刻tにおいてデータx3510を入力し、データh3530を出力する。RNN3520はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図13(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx3510にはN個(Params1〜ParamsN)のデータが含まれる。また、RNN3520より出力されるデータh3530には入力データに対応するN個(Params1〜ParamsN)のデータが含まれる。 FIG. 13A shows the structure of the RNN, which is a machine learning engine. The RNN 3520 has a loop structure in the network, inputs data x t 3510 at time t, and outputs data h t 3530. Since the RNN3520 has a loop function in the network, the current state can be inherited to the next state, so that time-series information can be handled. FIG. 13B shows an example of input / output of the parameter vector at time t. The data x t 3510 contains N pieces of data (Params1 to ParamsN). Further, the data h t 3530 output from the RNN 3520 includes N data (Params1 to ParamsN) corresponding to the input data.

しかし、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができないため、LSTMが用いられることがある。LSTMは、忘却ゲート、入力ゲート、出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図14(a)にLSTMの構造を示す。LSTM3540において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct−1と出力データht−1である。なお、図の小文字(c、h、x)はベクトルを表している。 However, since RNN cannot handle long-term information at the time of error back propagation, LSTM may be used. The LSTM can learn long-term information by providing a forgetting gate, an input gate, and an output gate. Here, FIG. 14A shows the structure of the LSTM. In the RSTM3540, the information that the network takes over at the next time t is the internal state c t-1 of the network called the cell and the output data h t-1 . The lowercase letters (c, h, x) in the figure represent vectors.

次に、図14(b)にLSTM3540の詳細を示す。図14(b)において、FGは忘却ゲートネットワーク、IGは入力ゲートネットワーク、OGは出力ゲートネットワークを示し、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。CUは、セル更新候補ネットワークであり、活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。 Next, FIG. 14 (b) shows the details of RSTM3540. In FIG. 14B, FG indicates a forgetting gate network, IG indicates an input gate network, and OG indicates an output gate network, each of which is a sigmoid layer. Therefore, a vector in which each element has a value of 0 to 1 is output. The oblivion gate network FG determines how much past information is retained, and the input gate network IG determines which value to update. The CU is a cell update candidate network and is an activation function tanh layer. This creates a vector of new candidate values to be added to the cell. The output gate network OG selects the cell candidate element and selects how much information to convey at the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習エンジンは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。また、検者からの指示が文字または音声等による入力の場合には、自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。また、検者に対して文字または音声等による出力で応答する対話エンジン(対話モデル、対話用の学習済モデル)が適用されてもよい。 Since the above-mentioned LSTM model is a basic model, it is not limited to the network shown here. You may change the coupling between the networks. QRNN (Quasi Recurrent Neural Network) may be used instead of RSTM. Further, the machine learning engine is not limited to the neural network, and boosting, a support vector machine, or the like may be used. Further, when the instruction from the examiner is input by characters, voice, or the like, a technique related to natural language processing (for example, Sequence to Sequence) may be applied. Further, a dialogue engine (dialogue model, trained model for dialogue) that responds to the examiner by outputting characters or voices may be applied.

また、自然言語処理に関する技術としては、文書データを教師なし学習により事前学習して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、事前学習して得た学習済モデルを更に目的に応じて転移学習(あるいはファインチューニング)して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、例えば、BERT(Bidirectional Encoder Representations from Transformers)が適用されてもよい。また、自然言語処理に関する技術としては、文章内の特定の単語を左右両方の文脈から予測することで、文脈(特徴量)を自ら抽出(表現)可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、入力される時系列データにおける2つのシーケンス(センテンス)の関係性(連続性)を判断可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、隠れ層にTransformerのEncoderが用いられ、ベクトルのシーケンスが入力、出力されるモデルが適用されてもよい。 Further, as a technique related to natural language processing, a trained model obtained by pre-learning document data by unsupervised learning may be used. Further, as a technique related to natural language processing, a trained model obtained by further transfer learning (or fine tuning) of a trained model obtained by pre-learning may be used. Further, as a technique related to natural language processing, for example, BERT (Bidirectional Encoder Representations from Transfermers) may be applied. Further, as a technique related to natural language processing, a model capable of extracting (expressing) a context (feature amount) by itself by predicting a specific word in a sentence from both the left and right contexts may be applied. Further, as a technique related to natural language processing, a model capable of determining the relationship (continuity) of two sequences (sentences) in the input time series data may be applied. Further, as a technique related to natural language processing, a Transformer Encoder is used for the hidden layer, and a model in which a vector sequence is input and output may be applied.

ここで、本変形例が適用可能な検者からの指示は、上述した様々な実施例及び変形例に記載のような種々の画像や解析結果の表示の変更、En−Face画像の生成のための深度範囲の選択、追加学習用の学習データとして用いるか否かの選択、学習済モデルの選択、種々の学習済モデルを用いて得た結果の出力(表示や送信等)や保存等、に関する少なくとも1つの指示であれば何でもよい。また、本変形例が適用可能な検者からの指示は、撮影後の指示だけでなく、撮影前の指示であってもよく、例えば、種々の調整に関する指示、種々の撮影条件の設定に関する指示、撮影開始に関する指示であってもよい。また、本変形例が適用可能な検者からの指示は、表示画面の変更(画面遷移)に関する指示であってもよい。 Here, the instruction from the examiner to which this modification is applicable is for changing the display of various images and analysis results as described in the various examples and modifications described above, and for generating an En-Face image. Selection of depth range, selection of whether to use as training data for additional learning, selection of trained model, output (display, transmission, etc.) and storage of results obtained using various trained models, etc. Any instruction may be used as long as it is at least one instruction. Further, the instruction from the examiner to which this modification is applicable may be an instruction before photography as well as an instruction after photography. For example, an instruction regarding various adjustments and an instruction regarding setting of various imaging conditions. , It may be an instruction regarding the start of shooting. Further, the instruction from the examiner to which this modification is applicable may be an instruction regarding a change (screen transition) of the display screen.

(変形例7)
また、上述した様々な実施形態及び変形例において、高画質画像または合成画像等は、検者からの指示に応じて記憶部に保存されてもよい。このとき、高画質画像または合成画像等を保存するための検者からの指示の後、ファイル名の登録の際に、推奨のファイル名として、ファイル名のいずれかの箇所(例えば、最初の箇所、最後の箇所)に、高画質化用の学習済モデルを用いた処理(高画質化処理)により生成された画像であることを示す情報(例えば、文字)を含むファイル名が、検者からの指示に応じて編集可能な状態で表示されてもよい。
(Modification 7)
Further, in the various embodiments and modifications described above, the high-quality image, the composite image, or the like may be stored in the storage unit according to an instruction from the examiner. At this time, after an instruction from the examiner to save a high-quality image or a composite image, etc., when registering the file name, one of the file names (for example, the first part) is recommended as the file name. , The last part), the file name containing information (for example, characters) indicating that the image is generated by processing using the trained model for high image quality (high image quality processing) is given by the examiner. It may be displayed in an editable state according to the instruction of.

また、レポート画面等の種々の表示画面において、上述したように、表示部300に高画質画像を表示させる際に、表示されている画像が高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示が、高画質画像とともに表示されてもよい。この場合には、ユーザーは、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。また、高画質化用の学習済モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルを用いた処理により生成された結果であることを示す表示が、その結果とともに表示されてもよい。 Further, on various display screens such as a report screen, as described above, when displaying a high-quality image on the display unit 300, the displayed image is generated by processing using a trained model for high image quality. A display indicating that the image is a high-quality image may be displayed together with the high-quality image. In this case, the user can easily identify from the display that the displayed high-quality image is not the image itself acquired by shooting, so that misdiagnosis can be reduced or the diagnosis efficiency can be improved. Can be done. The display indicating that the image is a high-quality image generated by the process using the trained model for high image quality is a display that can distinguish the input image and the high-quality image generated by the process. It may be of any aspect. Further, not only the processing using the trained model for high image quality but also the processing using various trained models as described above is the result generated by the processing using the trained model of the same type. A display indicating that there is may be displayed with the result.

このとき、レポート画面等の表示画面は、検者からの指示に応じて、画像データとして記憶部に保存されてもよい。例えば、高画質画像または合成画像等と、これらの画像が高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示とが並んだ1つの画像としてレポート画面が記憶部に保存されてもよい。 At this time, the display screen such as the report screen may be saved in the storage unit as image data according to the instruction from the examiner. For example, a report screen as one image in which a high-quality image, a composite image, or the like and a display indicating that these images are high-quality images generated by processing using a trained model for high image quality are arranged. May be stored in the storage unit.

また、高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示について、高画質化用の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部300に表示されてもよい。当該表示としては、学習データの入力データと正解データの種類の説明の表示、入力データと正解データに含まれる撮影部位等の正解データに関する任意の表示等を含んでよい。なお、高画質化用の学習済モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部300に表示されてもよい。 In addition, what kind of training data was used by the trained model for high image quality to learn the display indicating that the image is a high quality image generated by processing using the trained model for high image quality. A display indicating the presence or absence may be displayed on the display unit 300. The display may include a display of an explanation of the input data of the learning data and the type of the correct answer data, an arbitrary display of the correct answer data such as the imaging part included in the input data and the correct answer data, and the like. It should be noted that not only the processing using the trained model for high image quality but also the processing using the various trained models as described above is trained by what kind of training data the trained model of that type uses. A display indicating whether or not the data is used may be displayed on the display unit 300.

また、高画質化用の学習済モデルを用いた処理により生成された画像であることを示す情報(例えば、文字)を、高画質画像または合成画像等に重畳した状態で表示または保存されるように構成されてもよい。このとき、画像上に重畳する箇所は、撮影対象となる注目部位等が表示されている領域には重ならない領域(例えば、画像の端)であればどこでもよい。また、重ならない領域を判定し、判定された領域に重畳させてもよい。 In addition, information (for example, characters) indicating that the image is generated by processing using a trained model for high image quality is displayed or saved in a state of being superimposed on a high image quality image or a composite image. It may be configured in. At this time, the portion to be superimposed on the image may be any region (for example, the edge of the image) that does not overlap with the region where the region of interest to be photographed is displayed. Further, the non-overlapping areas may be determined and superimposed on the determined areas.

また、レポート画面の初期表示画面として、ボタン3420がアクティブ状態(高画質化処理がオン)となるようにデフォルト設定されている場合には、検者からの指示に応じて、高画質画像または合成画像等を含むレポート画面に対応するレポート画像がサーバに送信されるように構成されてもよい。また、ボタン3420がアクティブ状態となるようにデフォルト設定されている場合には、検査終了時(例えば、検者からの指示に応じて、撮影確認画面やプレビュー画面からレポート画面に変更された場合)に、高画質画像または合成画像等を含むレポート画面に対応するレポート画像がサーバに(自動的に)送信されるように構成されてもよい。このとき、デフォルト設定における各種設定(例えば、レポート画面の初期表示画面におけるEn−Face画像の生成のための深度範囲、解析マップの重畳の有無、高画質画像か否か、経過観察用の表示画面か否か等の少なくとも1つに関する設定)に基づいて生成されたレポート画像がサーバに送信されるように構成されもよい。 In addition, when the button 3420 is set to the active state (high image quality processing is on) by default as the initial display screen of the report screen, a high image quality image or composition is performed according to the instruction from the examiner. The report image corresponding to the report screen including the image and the like may be configured to be transmitted to the server. In addition, when the button 3420 is set to the active state by default, at the end of the inspection (for example, when the shooting confirmation screen or the preview screen is changed to the report screen according to the instruction from the inspector). In addition, the report image corresponding to the report screen including the high-quality image, the composite image, and the like may be configured to be (automatically) transmitted to the server. At this time, various settings in the default settings (for example, the depth range for generating the En-Face image on the initial display screen of the report screen, the presence / absence of superimposition of the analysis map, whether or not the image is high quality, and the display screen for follow-up observation. The report image generated based on (settings related to at least one such as whether or not) may be configured to be transmitted to the server.

(変形例8)
また、上述した様々な実施形態及び変形例において、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルで得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、セグメンテーション結果を示す画像)を、第1の種類とは異なる第2の種類の学習済モデルに入力してもよい。このとき、第2の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、セグメンテーション結果)が生成されるように構成されてもよい。
(Modification 8)
Further, in the various embodiments and modifications described above, among the various trained models described above, the analysis results of images (for example, high-quality images, analysis maps, etc.) obtained by the first type of trained model. (Image showing the image, the image showing the object recognition result, the image showing the segmentation result) may be input to the trained model of the second type different from the first type. At this time, the result (for example, analysis result, diagnosis result, object recognition result, segmentation result) of the processing of the second type of trained model may be generated.

また、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、セグメンテーション結果)を用いて、第1の種類の学習済モデルに入力した画像から、第1の種類とは異なる第2の種類の学習済モデルに入力する画像を生成してもよい。このとき、生成された画像は、第2の種類の学習済モデルにより処理する画像として適した画像である可能性が高い。このため、生成された画像を第2の種類の学習済モデルに入力して得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、セグメンテーション結果を示す画像)の精度を向上することができる。 Further, among the various trained models as described above, the result of processing the trained model of the first type (for example, analysis result, diagnosis result, object recognition result, segmentation result) is used to use the first type. An image to be input to a second type of trained model different from the first type may be generated from the image input to the trained model of. At this time, the generated image is likely to be an image suitable as an image to be processed by the second type of trained model. Therefore, an image obtained by inputting the generated image into the second type of trained model (for example, a high-quality image, an image showing an analysis result such as an analysis map, an image showing an object recognition result, and a segmentation result are displayed. The accuracy of the image shown) can be improved.

また、上述したような種々の学習済モデルは、被検体の二次元の医用画像を含む学習データを学習して得た学習済モデルであってもよいし、また、被検体の三次元の医用画像を含む学習データを学習して得た学習済モデルであってもよい。 Further, the various trained models as described above may be trained models obtained by learning learning data including a two-dimensional medical image of the subject, or may be a three-dimensional medical model of the subject. It may be a trained model obtained by learning training data including images.

また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の画像が、既に機械学習等によって該複数の画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。例えば、医用画像処理装置は、(高画質化用の学習済モデルとは異なる)類似症例画像検索用の学習済モデルを用いて、種々の医用画像から該医用画像に関連する類似症例画像の検索を行うことができる。また、例えば、出力部223は、種々の医用画像から類似症例画像検索用の学習済モデルを用いて得た類似症例画像を表示部300に表示させることができる。このとき、類似症例画像は、例えば、学習済モデルに入力された医用画像の特徴量と類似する特徴量の画像である。また、複数の類似症例画像が検索されてもよく、特徴量が類似する順番が識別可能に複数の類似症例画像が表示されてもよい。また、複数の類似症例画像のうち、検者からの指示に応じて選択された画像と該画像との特徴量とを含む学習データを用いて、類似症例画像検索用の学習済モデルが追加学習されるように構成されてもよい。 Further, a similar case image search using an external database stored in a server or the like may be performed using the analysis result, the diagnosis result, etc. obtained by the processing of the learned model as described above as a search key. If a plurality of images stored in the database are already managed by machine learning or the like with the feature amount of each of the plurality of images attached as incidental information, the image itself is used as a search key. A similar case image search engine (similar case image search model, trained model for similar case image search) may be used. For example, a medical image processing apparatus uses a trained model for searching for similar case images (different from the trained model for high image quality) to search various medical images for similar case images related to the medical image. It can be performed. Further, for example, the output unit 223 can display the similar case image obtained from various medical images by using the learned model for searching the similar case image on the display unit 300. At this time, the similar case image is, for example, an image having a feature amount similar to the feature amount of the medical image input to the trained model. Further, a plurality of similar case images may be searched, and a plurality of similar case images may be displayed so that the order in which the feature amounts are similar can be identified. In addition, a trained model for searching similar case images is additionally learned by using learning data including an image selected according to an instruction from an examiner and a feature amount of the image among a plurality of similar case images. It may be configured to be.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した様々な実施形態及び変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes one or more functions of the various embodiments and modifications described above is supplied to the system or device via a network or various storage media, and the computer (or CPU) of the system or device is supplied. This is a process in which an MPU or the like reads and executes a program.

また、本発明は、上述した様々な実施形態及び変形例の1以上の機能を実現するソフトウェア(プログラム)を、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。 Further, the present invention supplies software (program) that realizes one or more functions of the various embodiments and modifications described above to a system or device via a network or storage medium, and the computer of the system or device supplies the software (program). It can also be realized by the process of reading and executing the program. A computer may have one or more processors or circuits and may include multiple separate computers or a network of separate processors or circuits to read and execute computer executable instructions.

このとき、プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 At this time, the processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

Claims (18)

第1の撮影装置により被検体の所定部位を撮影して得た第1の医用画像を取得する取得部と、
第1の撮影装置により被検体の所定部位を撮影して得た医用画像を入力データとし、該第1の撮影装置とは異なる第2の撮影装置により被検体の所定部位を撮影して得た医用画像を出力データとする学習データを用いて得た学習済モデルを用いて、前記取得された第1の医用画像から、該第1の医用画像と比べて高画質化された第2の医用画像を生成する高画質化部と、
を備える、医用画像処理装置。
An acquisition unit that acquires a first medical image obtained by photographing a predetermined part of a subject with a first imaging device, and
The medical image obtained by photographing a predetermined part of the subject with the first imaging device was used as input data, and the predetermined part of the subject was photographed with a second imaging device different from the first imaging device. Using the trained model obtained by using the training data using the medical image as the output data, the second medical image has a higher image quality than the first medical image from the acquired first medical image. High image quality section that generates images and
A medical image processing device.
前記第1の撮影装置と前記第2の撮影装置とは、機種が異なる、請求項1に記載の医用画像処理装置。 The medical image processing device according to claim 1, wherein the first imaging device and the second imaging device are of different models. 前記第1の撮影装置と前記第2の撮影装置とは、撮影方式が異なる、請求項1または2に記載の医用画像処理装置。 The medical image processing device according to claim 1 or 2, wherein the first imaging device and the second imaging device have different imaging methods. 前記第2の撮影装置は、前記第1の撮影装置に比べて高い解像度の医用画像を取得可能である、請求項1乃至3のいずれか1項に記載の医用画像処理装置。 The medical image processing device according to any one of claims 1 to 3, wherein the second imaging device can acquire a medical image having a higher resolution than that of the first imaging device. 前記第1の撮影装置は、前記第2の撮影装置の撮影画角よりも広い撮影画角により撮影可能であり、
前記第2の撮影装置は、前記第1の撮影装置の分解能よりも高い分解能により撮影可能である、請求項1乃至4のいずれか1項に記載の医用画像処理装置。
The first photographing device can shoot with a shooting angle of view wider than the shooting angle of view of the second shooting device.
The medical image processing apparatus according to any one of claims 1 to 4, wherein the second imaging device can image with a resolution higher than that of the first imaging device.
前記第1の撮影装置は、SS−OCT装置であり、
前記第2の撮影装置は、SD−OCT装置である、請求項1乃至5のいずれか1項に記載の医用画像処理装置。
The first imaging device is an SS-OCT device.
The medical image processing apparatus according to any one of claims 1 to 5, wherein the second imaging apparatus is an SD-OCT apparatus.
前記被検体は、被検眼である、請求項1乃至6のいずれか1項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 6, wherein the subject is an eye to be inspected. 前記第2の医用画像を表示部に表示させる表示制御部を更に備える、医用画像処理装置。 A medical image processing apparatus further comprising a display control unit for displaying the second medical image on the display unit. 前記表示制御部は、被検体の医用画像を学習して得た解析結果生成用の学習済モデルを用いて生成された解析結果であって、前記第1の医用画像又は前記第2の医用画像に関する解析結果を前記表示部に表示させる、請求項8に記載の医用画像処理装置。 The display control unit is an analysis result generated by using a trained model for generating an analysis result obtained by learning a medical image of a subject, and is the first medical image or the second medical image. The medical image processing apparatus according to claim 8, wherein the analysis result relating to the above is displayed on the display unit. 前記表示制御部は、被検体の医用画像を学習して得た診断結果生成用の学習済モデルを用いて生成された診断結果であって、前記第1の医用画像又は前記第2の医用画像に関する診断結果を前記表示部に表示させる、請求項8または9に記載の医用画像処理装置。 The display control unit is a diagnostic result generated by using a trained model for generating a diagnostic result obtained by learning a medical image of a subject, and is the first medical image or the second medical image. The medical image processing apparatus according to claim 8 or 9, wherein the diagnostic result relating to the above is displayed on the display unit. 前記表示制御部は、前記第1の医用画像又は前記第2の医用画像が入力された敵対的生成ネットワーク又はオートエンコーダを用いて生成された画像と、該敵対的生成ネットワーク又はオートエンコーダに入力された医用画像との差に関する情報を、異常部位に関する情報として前記表示部に表示させる、請求項8乃至10のいずれか1項の記載の医用画像処理装置。 The display control unit inputs an image generated by using the hostile generation network or autoencoder into which the first medical image or the second medical image is input and the hostile generation network or autoencoder. The medical image processing apparatus according to any one of claims 8 to 10, wherein information on a difference from the medical image is displayed on the display unit as information on an abnormal portion. 前記表示制御部は、被検体の医用画像を学習して得た類似症例画像検索用の学習済モデルを用いて検索された類似症例画像であって、前記第1の医用画像又は前記第2の医用画像に関する類似症例画像を前記表示部に表示させる、請求項8乃至11のいずれか1項に記載の医用画像処理装置。 The display control unit is a similar case image searched by using a learned model for searching a similar case image obtained by learning a medical image of a subject, and is the first medical image or the second medical image. The medical image processing apparatus according to any one of claims 8 to 11, wherein a similar case image relating to a medical image is displayed on the display unit. 前記表示制御部は、被検体の医用画像を学習して得た物体認識用の学習済モデルまたはセグメンテーション用の学習済モデルを用いて生成された物体検出結果またはセグメンテーション結果であって、前記第1の医用画像又は前記第2の医用画像に関する物体検出結果またはセグメンテーション結果を、前記表示部に表示させる、請求項8乃至12のいずれか1項に記載の医用画像処理装置。 The display control unit is an object detection result or a segmentation result generated by using a trained model for object recognition or a trained model for segmentation obtained by learning a medical image of a subject, and is the first. The medical image processing apparatus according to any one of claims 8 to 12, wherein an object detection result or a segmentation result relating to the medical image or the second medical image is displayed on the display unit. 前記表示制御部は、前記第1の医用画像及び前記第2の医用画像を学習済モデルに入力して得た画像、情報、又は結果を、前記表示部に表示させる、請求項8乃至13のいずれか1項に記載の医用画像処理装置。 The display control unit has the display unit display the image, information, or result obtained by inputting the first medical image and the second medical image into the trained model, according to claims 8 to 13. The medical image processing apparatus according to any one of the following items. 前記高画質化に関する検者からの指示は、文字認識用の学習済モデルと音声認識用の学習済モデルとジェスチャー認識用の学習済モデルとのうち少なくとも1つの学習済モデルを用いて得た情報である、請求項1乃至14のいずれか1項に記載の医用画像処理装置。 The instruction from the examiner regarding the image quality improvement is information obtained by using at least one trained model of a trained model for character recognition, a trained model for voice recognition, and a trained model for gesture recognition. The medical image processing apparatus according to any one of claims 1 to 14. 前記第2の医用画像のファイル名は、前記高画質化されることにより生成された画像であることを示す情報を、検者からの指示に応じて編集可能な状態で含む、請求項1乃至15のいずれか1項に記載の医用画像処理装置。 The first to second claims, wherein the file name of the second medical image includes information indicating that the image is an image generated by improving the image quality in a state in which the image can be edited according to an instruction from the examiner. The medical image processing apparatus according to any one of 15. 第1の撮影装置により被検体の所定部位を撮影して得た第1の医用画像を取得する工程と、
第1の撮影装置により被検体の所定部位を撮影して得た医用画像を入力データとし、該第1の撮影装置とは異なる第2の撮影装置により被検体の所定部位を撮影して得た医用画像を出力データとする学習データを用いて得た学習済モデルを用いて、前記取得された第1の医用画像から、該第1の医用画像と比べて高画質化された第2の医用画像を生成する工程と、
を含む、医用画像処理方法。
A step of acquiring a first medical image obtained by photographing a predetermined part of a subject with a first imaging device, and
The medical image obtained by photographing a predetermined part of the subject with the first imaging device was used as input data, and the predetermined part of the subject was photographed with a second imaging device different from the first imaging device. Using the trained model obtained by using the training data using the medical image as the output data, the second medical image has a higher image quality than the first medical image from the acquired first medical image. The process of generating an image and
Medical image processing methods, including.
プロセッサーによって実行されると、該プロセッサーに請求項17に記載の医用画像処理方法の各工程を実行させるプログラム。 A program that, when executed by a processor, causes the processor to perform each step of the medical image processing method according to claim 17.
JP2019217333A 2019-11-29 2019-11-29 Medical image processing apparatus, medical image processing method, and program Pending JP2021086560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019217333A JP2021086560A (en) 2019-11-29 2019-11-29 Medical image processing apparatus, medical image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019217333A JP2021086560A (en) 2019-11-29 2019-11-29 Medical image processing apparatus, medical image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021086560A true JP2021086560A (en) 2021-06-03

Family

ID=76087917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019217333A Pending JP2021086560A (en) 2019-11-29 2019-11-29 Medical image processing apparatus, medical image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021086560A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021559A1 (en) * 2021-08-16 2023-02-23 日本電気株式会社 Estimation model training device, estimation model training method, recognition device, recognition method, and non-temporary computer-readable medium
WO2023090090A1 (en) * 2021-11-22 2023-05-25 富士フイルム株式会社 Device and method for generating learning data, and device and method for generating learning model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021559A1 (en) * 2021-08-16 2023-02-23 日本電気株式会社 Estimation model training device, estimation model training method, recognition device, recognition method, and non-temporary computer-readable medium
WO2023090090A1 (en) * 2021-11-22 2023-05-25 富士フイルム株式会社 Device and method for generating learning data, and device and method for generating learning model

Similar Documents

Publication Publication Date Title
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7250653B2 (en) Image processing device, image processing method and program
JP7341874B2 (en) Image processing device, image processing method, and program
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US20220175325A1 (en) Information processing apparatus, information processing method, information processing system, and program
JP2021039748A (en) Information processor, information processing method, information processing system, and program
WO2020183791A1 (en) Image processing device and image processing method
WO2020202680A1 (en) Information processing device and information processing method
WO2021029231A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP2021184169A (en) Image processing device, image processing method, and program
JP2021037239A (en) Area classification method
JP7362403B2 (en) Image processing device and image processing method
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP2022155690A (en) Image processing device, image processing method, and program
WO2020138128A1 (en) Image processing device, image processing method, and program
JP2021086560A (en) Medical image processing apparatus, medical image processing method, and program
JP7344847B2 (en) Image processing device, image processing method, and program
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
JP2021164535A (en) Image processing device, image processing method and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP2021079042A (en) Image processing device, image processing method, and program
JP7406901B2 (en) Information processing device and information processing method
JP2021069667A (en) Image processing device, image processing method and program
JP2021119973A (en) Photographing device, photographing method and program
JP2022121202A (en) Image processing device and image processing method