JP2021184169A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2021184169A
JP2021184169A JP2020089180A JP2020089180A JP2021184169A JP 2021184169 A JP2021184169 A JP 2021184169A JP 2020089180 A JP2020089180 A JP 2020089180A JP 2020089180 A JP2020089180 A JP 2020089180A JP 2021184169 A JP2021184169 A JP 2021184169A
Authority
JP
Japan
Prior art keywords
image
map
data
trained model
symmetry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020089180A
Other languages
Japanese (ja)
Other versions
JP7413147B2 (en
Inventor
一将 田中
Kazumasa Tanaka
好彦 岩瀬
Yoshihiko Iwase
弘樹 内田
Hiroki Uchida
治 嵯峨野
Osamu Sagano
律也 富田
Ritsuya Tomita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020089180A priority Critical patent/JP7413147B2/en
Publication of JP2021184169A publication Critical patent/JP2021184169A/en
Application granted granted Critical
Publication of JP7413147B2 publication Critical patent/JP7413147B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To estimate a disease with high accuracy.SOLUTION: An image processing device includes a generation unit that processes a medical image of a subject to generate a symmetry map showing the symmetry of the subject, and an output unit that outputs an estimation result regarding a disease estimated from a generated symmetry map by using a learnt model obtained by learning from the use of the symmetry map.SELECTED DRAWING: Figure 1

Description

本明細書の開示は、画像処理装置、画像処理方法、及びプログラムに関する。 The disclosure of this specification relates to an image processing apparatus, an image processing method, and a program.

昨今、コンピュータで医用画像などの医用情報を解析して、得られた結果を診断の補助として利用する技術への期待が高まっている。特許文献1には、眼底写真を機械学習させて、緑内障をはじめとする目の症状に関する情報を推定する手法が開示されている。また、光干渉断層撮影法(OCT:Optical Coherence Tomography)を用いた装置(OCT装置)により、測定対象の断層画像を非侵襲で取得することができることが知られている。 In recent years, there are increasing expectations for a technology that analyzes medical information such as medical images with a computer and uses the obtained results as an aid to diagnosis. Patent Document 1 discloses a method of estimating information on eye symptoms such as glaucoma by machine learning a fundus photograph. Further, it is known that a tomographic image to be measured can be acquired non-invasively by an apparatus (OCT apparatus) using an optical coherence tomography (OCT).

国際公開2019−073962号公報International Publication No. 2019-073962

眼底写真などから緑内障などの疾患を推定する機械学習モデルを生成した場合、モデルの推定精度が不十分であると、例えば初期の緑内障などの疾患を見落とす場合がある。そのため、機械学習モデルによる疾患の推定精度の向上が求められる。 When a machine learning model for estimating a disease such as glaucoma is generated from a photograph of the fundus of the eye, if the estimation accuracy of the model is insufficient, a disease such as early glaucoma may be overlooked. Therefore, it is required to improve the accuracy of disease estimation by a machine learning model.

本開示の一実施態様に係る画像処理装置は、被検体の医用画像を画像処理して被検体の対称性を示す対称性マップを生成する生成部と、対称性マップを用いた学習により得た学習済モデルを用いて、前記生成した対称性マップから推定した疾患に関する推定結果を出力する出力部とを備える。 The image processing apparatus according to one embodiment of the present disclosure is obtained by image processing of a medical image of a subject to generate a symmetry map showing the symmetry of the subject, and learning using the symmetry map. Using the trained model, it is provided with an output unit that outputs an estimation result regarding the disease estimated from the generated symmetry map.

本開示の少なくとも一実施形態によれば、高精度に疾患を推定できる。 According to at least one embodiment of the present disclosure, the disease can be estimated with high accuracy.

第1実施形態に係るOCT装置の全体構成の一例を概略的に示す。An example of the overall configuration of the OCT apparatus according to the first embodiment is schematically shown. 第1実施形態に係る画像処理の動作のフローチャートの一例を示す。An example of a flowchart of the operation of image processing according to the first embodiment is shown. 第1実施形態に係る対称性マップの生成処理のフローチャートの一例を示す。An example of the flowchart of the symmetry map generation process according to the first embodiment is shown. 第1実施形態に係る幾何補正処理の過程の例を示す。An example of the process of the geometric correction processing according to the first embodiment is shown. 第1実施形態に係る対称性マップの生成過程の例を示す。An example of the process of generating the symmetry map according to the first embodiment is shown. 第3実施形態に係る相関マップの生成処理のフローチャートの一例を示す。An example of the flowchart of the correlation map generation process according to the third embodiment is shown. 第3実施形態に係る相関マップの生成過程の概略図を示す。The schematic diagram of the generation process of the correlation map which concerns on 3rd Embodiment is shown. 第3実施形態に係る機械学習モデルの一例を示す。An example of the machine learning model according to the third embodiment is shown. 第3実施形態に係る機械学習モデルの一例を示す。An example of the machine learning model according to the third embodiment is shown. 変形例2に係る層厚プロファイルの例を示す。An example of the layer thickness profile according to the modification 2 is shown. 変形例8に係る機械学習モデルの一例を示す。An example of the machine learning model according to the modification 8 is shown.

以下、図面を参照して本発明を実施するための例示的な実施形態を詳細に説明する。図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。また、各図面において説明上重要ではない構成要素、部材、及び処理の一部は省略して表示する場合がある。 Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the drawings, the same reference numerals are used between the drawings to indicate elements that are the same or functionally similar. In addition, some components, members, and processes that are not important for explanation may be omitted in each drawing.

なお、以下において、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施形態及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。 In the following, the machine learning model refers to a learning model based on a machine learning algorithm. Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, the decision tree, and the support vector machine. In addition, deep learning (deep learning) in which features for learning and coupling weighting coefficients are generated by themselves using a neural network can also be mentioned. As appropriate, any of the above algorithms that can be used can be applied to the following embodiments and modifications. The teacher data refers to learning data and is composed of a pair of input data and output data. The correct answer data means the output data of the learning data (teacher data).

なお、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。 The trained model is a model in which training (learning) is performed in advance using appropriate teacher data (learning data) for a machine learning model that follows an arbitrary machine learning algorithm such as deep learning. .. However, although the trained model is obtained by using appropriate training data in advance, it is not that no further training is performed, and additional training can be performed. Additional learning can be done even after the device has been installed at the site of use.

また、本明細書では、OCT、眼底カメラ、及び走査型レーザ検眼鏡(SLO:Scanning Laser Ophthalmoscope)など各撮影技術(モダリティ)で取得される被検眼の眼底の画像をまとめて「眼底画像」と呼ぶこととする。さらに、本明細書においては、被検体の深さ方向をZ方向とし、Z方向に垂直な方向をX方向とし、Z方向とX方向に垂直な方向をY方向とする。 Further, in the present specification, images of the fundus of the eye to be inspected obtained by each imaging technique (modality) such as OCT, fundus camera, and scanning laser ophthalmoscope (SLO) are collectively referred to as “fundus image”. I will call it. Further, in the present specification, the depth direction of the subject is the Z direction, the direction perpendicular to the Z direction is the X direction, and the direction perpendicular to the Z direction and the X direction is the Y direction.

(第1実施形態)
以下、本発明の第1実施形態に係る眼科撮影装置の一例である光干渉断層撮影装置(OCT装置)100について、図1乃至図5を参照しながら説明する。本実施形態に係るOCT装置100には、図1に例示するように、撮影装置101と、制御部102と、表示部103と、操作部104とが設けられている。
(First Embodiment)
Hereinafter, the optical coherence tomography apparatus (OCT apparatus) 100, which is an example of the ophthalmologic imaging apparatus according to the first embodiment of the present invention, will be described with reference to FIGS. 1 to 5. As illustrated in FIG. 1, the OCT device 100 according to the present embodiment is provided with a photographing device 101, a control unit 102, a display unit 103, and an operation unit 104.

撮影装置101は、被検眼の医用画像を撮影するための撮影光学系が設けられた装置である。撮影装置101に設けられる撮影光学系は、被検眼の断層画像を撮影するための光学系を含んでいればよく、公知のOCT光学系で構成されてよい。ここで、撮影装置101に含まれるOCT光学系としては、例えば、SD−OCT(Spectral Domain OCT)やSS−OCT(Swept Source OCT)等の任意の種類のOCT光学系であってよい。また、撮影装置101は、OCT光学系に加えて、例えば、被検眼の画像を取得するためのSLO用や眼底カメラ用、前眼部観察用等の光学系を含んでもよい。 The photographing apparatus 101 is an apparatus provided with an imaging optical system for photographing a medical image of the eye to be inspected. The photographing optical system provided in the photographing apparatus 101 may include an optical system for photographing a tomographic image of the eye to be inspected, and may be configured by a known OCT optical system. Here, the OCT optical system included in the photographing apparatus 101 may be any kind of OCT optical system such as SD-OCT (Spectral Domain OCT) or SS-OCT (Swept Source OCT). Further, in addition to the OCT optical system, the photographing apparatus 101 may include, for example, an optical system for SLO for acquiring an image of the eye to be inspected, a fundus camera, an anterior eye portion observation, and the like.

制御部102には、取得部121、画像処理部122、推定部123、駆動制御部124、表示制御部125、及び記憶部126が設けられている。なお、制御部102は、プロセッサーやメモリ等を含む一般的なコンピュータを用いて構成することができるが、OCT装置の専用のコンピュータとして構成されてもよい。 The control unit 102 is provided with an acquisition unit 121, an image processing unit 122, an estimation unit 123, a drive control unit 124, a display control unit 125, and a storage unit 126. The control unit 102 can be configured by using a general computer including a processor, a memory, and the like, but may be configured as a dedicated computer of the OCT device.

ここで、制御部102は、OCT装置100の内蔵(内部)のコンピュータであってもよいし、OCT装置100が通信可能に接続された別体(外部)のコンピュータであってもよい。また、制御部102は、例えば、パーソナルコンピュータであってもよく、デスクトップPCや、ノート型PC、タブレット型PC(携帯型の情報端末)が用いられてもよい。このとき、制御部102と撮影装置101の間の通信接続は、有線通信による接続であってもよいし、無線通信による接続であってもよい。なお、プロセッサーは、CPU(Central Processing Unit)であってよい。また、プロセッサーは、例えば、MPU(Micro Processing Unit)、GPU(Graphical Processing Unit)やFPGA(Field−Programmable Gate Array)等であってもよい。 Here, the control unit 102 may be a built-in (internal) computer of the OCT device 100, or may be a separate (external) computer to which the OCT device 100 is communicably connected. Further, the control unit 102 may be, for example, a personal computer, or a desktop PC, a notebook PC, or a tablet PC (portable information terminal) may be used. At this time, the communication connection between the control unit 102 and the photographing device 101 may be a connection by wire communication or a connection by wireless communication. The processor may be a CPU (Central Processing Unit). Further, the processor may be, for example, an MPU (Micro Processing Unit), a GPU (Graphical Processing Unit), an FPGA (Field-Programmable Gate Array), or the like.

取得部121は、例えばUSB(UniversalSerialBus)ケーブル等を用いたインタフェースを介して、撮影装置101から各種データを取得する。また、取得部121は、制御部102に接続されたサーバ等の不図示の外部装置から画像を含む各種データを取得してもよい。ここで、制御部102と不図示の外部装置はインターネット等の任意のネットワークを介して接続されていてもよい。また、取得部121は、画像処理部122で生成された被検眼の画像や記憶部126に記憶された各種データを取得してもよい。 The acquisition unit 121 acquires various data from the photographing device 101 via an interface using, for example, a USB (UniversalSerialBus) cable. Further, the acquisition unit 121 may acquire various data including images from an external device (not shown) such as a server connected to the control unit 102. Here, the control unit 102 and an external device (not shown) may be connected via an arbitrary network such as the Internet. Further, the acquisition unit 121 may acquire the image of the eye to be inspected generated by the image processing unit 122 and various data stored in the storage unit 126.

画像処理部122は、取得部121により取得されたデータや画像を用いて、被検眼の画像を生成したり、被検眼の画像について任意の画像処理を行ったりすることができる。例えば、画像処理部122は、取得部121により取得された被検眼に関するデータを用いて被検眼の断層画像等の眼底画像を生成することができる。なお、断層画像等の生成方法は公知の任意の手法を用いてよい。また、画像処理部122は、被検眼の断層画像等を用いて被検眼の各組織の層厚に関する厚みマップ等の解析マップを生成することもできる。なお、本実施形態では、画像処理部122は、厚みマップを用いて被検眼に関する対称性を示す対称性マップを生成する。 The image processing unit 122 can generate an image of the eye to be inspected or perform arbitrary image processing on the image of the eye to be inspected by using the data or the image acquired by the acquisition unit 121. For example, the image processing unit 122 can generate a fundus image such as a tomographic image of the eye to be inspected by using the data related to the eye to be inspected acquired by the acquisition unit 121. As a method for generating a tomographic image or the like, any known method may be used. Further, the image processing unit 122 can also generate an analysis map such as a thickness map relating to the layer thickness of each tissue of the eye to be inspected by using a tomographic image or the like of the eye to be inspected. In the present embodiment, the image processing unit 122 generates a symmetry map showing symmetry regarding the eye to be inspected by using the thickness map.

推定部123は、学習済モデルを用いて、被検体の画像等から被検体の疾患に関する推定を行う。本実施形態では、推定部123は、単一時間に取得された被検眼の医用画像の一例である眼底画像に基づいて眼科疾患に関する推定を行う。より具体的には、本実施形態に係る推定部123は、学習済モデルを用いて被検眼の対称性マップから被検眼の緑内障等の眼科疾患に関する推定を行う。ここで、推定部123は、学習済モデルを用いて、対称性マップから推定した疾患に関する推定結果を出力する出力部の一例として機能する。 The estimation unit 123 uses the trained model to estimate the disease of the subject from the image of the subject and the like. In the present embodiment, the estimation unit 123 estimates the ophthalmologic disease based on the fundus image, which is an example of the medical image of the eye to be inspected acquired in a single time. More specifically, the estimation unit 123 according to the present embodiment estimates the ophthalmic disease such as glaucoma of the inspected eye from the symmetry map of the inspected eye using the trained model. Here, the estimation unit 123 functions as an example of an output unit that outputs an estimation result regarding the disease estimated from the symmetry map using the trained model.

駆動制御部124は、撮影装置101における各種構成要素の駆動を制御する。表示制御部125は、制御部102に接続された表示部103の表示を制御し、表示部103に被検眼の断層画像や患者の情報等の各種データ等を表示させることができる。記憶部126は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、及び後述する処理等を行うためのプログラムを含む各種アプリケーションソフトを実現するためのプログラムを記憶することができる。また、記憶部126は、取得部121によって取得された情報や、画像処理部122で処理された各種画像、推定部123による推定結果等を記憶することもできる。 The drive control unit 124 controls the drive of various components in the photographing apparatus 101. The display control unit 125 can control the display of the display unit 103 connected to the control unit 102, and cause the display unit 103 to display various data such as a tomographic image of the eye to be inspected and patient information. The storage unit 126 can store a program for realizing various application software including an operating system (OS), a device driver of a peripheral device, and a program for performing processing described later. Further, the storage unit 126 can also store the information acquired by the acquisition unit 121, various images processed by the image processing unit 122, the estimation result by the estimation unit 123, and the like.

制御部102の記憶部126以外の各構成要素は、CPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPUやFPGA等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部126は、例えば、ハードディスク等の光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each component other than the storage unit 126 of the control unit 102 may be configured by a software module executed by a processor such as a CPU or MPU. The processor may be, for example, GPU, FPGA, or the like. Further, each component may be configured by a circuit or the like that performs a specific function such as an ASIC. The storage unit 126 may be composed of, for example, an optical disk such as a hard disk or an arbitrary storage medium such as a memory.

表示部103は、任意のディスプレイ等であり、表示制御部125による制御に基づいて、例えば被検体に関する患者情報や各種画像、疾患に関する推定結果等を表示することができる。操作部104は、マウスやキーボード、又はタッチパネル等を含んで構成され、ユーザからの指示を制御部102へ入力することができる。 The display unit 103 is an arbitrary display or the like, and based on the control by the display control unit 125, for example, patient information regarding a subject, various images, estimation results regarding a disease, and the like can be displayed. The operation unit 104 includes a mouse, a keyboard, a touch panel, and the like, and can input instructions from the user to the control unit 102.

次に、図2を参照しながら、本実施形態に係る画像処理をステップごとに説明する。図2は、本実施形態に係る画像処理の動作を示すフローチャートである。本実施形態では、特に、眼底の断層画像を用いて緑内障に関する推定を行う場合を例にして説明する。 Next, the image processing according to the present embodiment will be described step by step with reference to FIG. FIG. 2 is a flowchart showing the operation of image processing according to the present embodiment. In this embodiment, in particular, a case where estimation of glaucoma is performed using a tomographic image of the fundus will be described as an example.

[ステップS21:画像取得]
まず、ステップS21において、取得部121は、撮影装置101から被検眼の眼底の断層画像に関するデータを取得する。ここで、被検眼の眼底の断層画像に関するデータとしては、撮影装置101等により被検眼を撮影することで取得された被検眼の眼底に関する干渉信号であってもよいし、そのような干渉信号について公知の画像処理を行って得た断層画像自体であってもよい。取得部121が干渉信号を取得する場合には、取得部121は、画像処理部122が干渉信号の画像処理を行うことで生成した断層画像を取得してもよい。
[Step S21: Image acquisition]
First, in step S21, the acquisition unit 121 acquires data related to the tomographic image of the fundus of the eye to be inspected from the photographing apparatus 101. Here, the data related to the tomographic image of the fundus of the eye to be inspected may be an interference signal related to the fundus of the eye to be inspected acquired by photographing the eye to be inspected by an imaging device 101 or the like, or such an interference signal. It may be a tomographic image itself obtained by performing known image processing. When the acquisition unit 121 acquires the interference signal, the acquisition unit 121 may acquire the tomographic image generated by the image processing unit 122 performing the image processing of the interference signal.

取得部121が取得する断層画像に関するデータは、被検眼の複数のBスキャン位置で撮影されたものを含み、これにより、取得部121は被検眼の眼底に関する3次元データを取得することができる。ここで、Aスキャンとは、被検眼の一点から断層の情報を取得することいい、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼Eの当該横断方向と深さ方向の2次元の断層の情報を取得することをBスキャンという。なお、取得部121は、別の場所で取得された被検眼の眼底の断層画像に関するデータを不図示の外部装置から取得してもよい。 The data related to the tomographic image acquired by the acquisition unit 121 includes those taken at a plurality of B scan positions of the eye to be inspected, whereby the acquisition unit 121 can acquire three-dimensional data regarding the fundus of the eye to be inspected. Here, the A scan means to acquire the tomographic information from one point of the eye to be inspected, and the A scan is performed a plurality of times in an arbitrary crossing direction (main scanning direction) to obtain the crossing direction and the depth of the eye to be inspected E. Acquiring information on a two-dimensional fault in the direction is called B scan. The acquisition unit 121 may acquire data related to a tomographic image of the fundus of the eye to be inspected acquired at another location from an external device (not shown).

また、取得部121は、眼底カメラで撮影された眼底写真又は前眼部写真や、SLO光学系を用いて撮影された眼底又は前眼部の画像(SLO画像)など、他の撮影技術で取得された画像やデータを取得することもできる。ここで、眼底写真又は前眼部写真は、可視光を用いて撮影した画像であって、RGBの少なくとも2つを用いたカラー画像やRGBのいずれか一つを用いたモノクロ画像であってもよい。さらに、取得部121は、被検眼に関する患者の識別番号、眼軸長、年齢、視力、人種、病歴、及び強度近視の該非の少なくとも1つを含む等の患者データも併せて取得することができる。取得部121は、これらの画像やデータも不図示の外部装置から取得してもよい。なお、制御部102は、取得部121が取得したカルテの画像からテキストマイニング技術などを用いて患者データを抽出してもよい。 Further, the acquisition unit 121 is acquired by another imaging technique such as a fundus photograph or anterior segment photograph taken by a fundus camera, or an image of the fundus or anterior segment taken by using an SLO optical system (SLO image). It is also possible to acquire the images and data that have been created. Here, the fundus photograph or the anterior segment photograph is an image taken using visible light, and may be a color image using at least two of RGB or a monochrome image using any one of RGB. good. Further, the acquisition unit 121 may also acquire patient data including at least one of the patient's identification number, axial length, age, visual acuity, race, medical history, and severe myopia regarding the eye to be inspected. can. The acquisition unit 121 may also acquire these images and data from an external device (not shown). The control unit 102 may extract patient data from the image of the medical record acquired by the acquisition unit 121 by using a text mining technique or the like.

[ステップS22:画像処理]
ステップS22において、画像処理部122は、取得された3次元の断層画像を画像処理して、推定部123が推定処理に用いる画像を生成する。なお、画像処理部122は、取得部121が取得した干渉信号を処理して、推定部123が推定処理に用いる画像を生成してもよい。本実施形態に係る画像処理部122は、取得された断層画像を用いて対称性マップを生成する。対称性マップの生成方法の例を、図3を用いて説明する。図3は、本実施形態に係る対称性マップの生成処理のフローチャートの一例を示す。
[Step S22: Image processing]
In step S22, the image processing unit 122 performs image processing on the acquired three-dimensional tomographic image, and generates an image used by the estimation unit 123 for the estimation processing. The image processing unit 122 may process the interference signal acquired by the acquisition unit 121 to generate an image used by the estimation unit 123 for the estimation processing. The image processing unit 122 according to the present embodiment generates a symmetry map using the acquired tomographic image. An example of a method for generating a symmetry map will be described with reference to FIG. FIG. 3 shows an example of a flowchart of the symmetry map generation process according to the present embodiment.

[ステップS221:厚みマップ生成]
ステップS22における画像処理が開始されると、処理はステップS221に移行する。ステップS221では、画像処理部122は、断層画像を用いて、被検体の少なくとも一部の厚みを示す厚みマップを生成する。ここで、厚みマップとは、被検体の深さ方向(Z方向)に垂直なXY平面における各XY位置に対して、被検体、例えば被検眼の網膜内の解剖学的に定められる観察対象層の厚み(層厚)を輝度値等で表したマップ(マップ画像)である。例えば、厚みマップは、各XY位置の層厚を疑似カラースケールの輝度値に変換して表したものとすることができる。また、厚みマップは、各XY位置における層厚をグレースケールの輝度値に変換して表したものであってもよい。なお、厚みマップは、被検体の医用画像を解析して得た情報(解析情報)を示す解析マップの一例であり、解析マップは、例えば後述するOCTA(OCT Angiography)画像を解析して得た血管密度(面積密度又は長さ密度)を示す血管密度マップ等を含むことができる。
[Step S221: Thickness map generation]
When the image processing in step S22 is started, the processing shifts to step S221. In step S221, the image processing unit 122 uses the tomographic image to generate a thickness map showing the thickness of at least a part of the subject. Here, the thickness map is an anatomically determined observation target layer in the retina of the subject, for example, the subject, for each XY position in the XY plane perpendicular to the depth direction (Z direction) of the subject. It is a map (map image) in which the thickness (layer thickness) of the retina is represented by a brightness value or the like. For example, the thickness map can be represented by converting the layer thickness at each XY position into a luminance value of a pseudo color scale. Further, the thickness map may be represented by converting the layer thickness at each XY position into a grayscale luminance value. The thickness map is an example of an analysis map showing information (analysis information) obtained by analyzing a medical image of a subject, and the analysis map is obtained by analyzing, for example, an OCTA (OCT Angiografy) image described later. It can include a blood vessel density map or the like showing the blood vessel density (area density or length density).

具体的には、画像処理部122は、取得された断層画像についてセグメンテーション処理を行い、被検眼の断層における層構造を抽出し、各層構造の厚みを算出する。なお、セグメンテーション処理の手法及び層構造の厚みの算出方法は、公知の任意の手法を用いてよい。画像処理部122は、観察対象層について算出した厚みを用いて、被検眼の厚みマップを生成する。 Specifically, the image processing unit 122 performs segmentation processing on the acquired tomographic image, extracts the layer structure in the tomographic area of the eye to be inspected, and calculates the thickness of each layer structure. As a method for segmentation processing and a method for calculating the thickness of the layer structure, any known method may be used. The image processing unit 122 generates a thickness map of the eye to be inspected using the thickness calculated for the observation target layer.

[ステップS222:補正処理]
次に、ステップS222において、画像処理部122は、厚みマップに対して補正処理を行う。ステップS222における補正処理の例を、以下で説明する。なお、本実施形態に係る画像処理部122は、以下で説明する補正処理を組み合わせて実施するが、以下で説明する補正処理のいずれかのみを実施してもよい。
[Step S222: Correction process]
Next, in step S222, the image processing unit 122 performs correction processing on the thickness map. An example of the correction process in step S222 will be described below. Although the image processing unit 122 according to the present embodiment implements the correction processing described below in combination, only one of the correction processing described below may be performed.

補正処理の一例は、厚みマップの不適切な箇所の輝度値を補正する処理(エラー補正処理)である。例えば、層に関するセグメンテーション処理でエラーが生じた場合、その位置の厚みは特異的な値となり、厚みマップでは白飛び又は黒つぶれとして表される。画像処理部122は、厚みマップにおいて特異的な値を有する、そのような不適切な箇所の輝度値を、一例として周辺の平均的な値に置換する処理を行う。あるいは、画像処理部122は、そのような不適切な箇所を厚みマップから除去してもよい。また、画像処理部122は、視神経乳頭部(以下、単に「乳頭部」とも呼ぶ)など、診断に不要と考えられる領域の輝度値を同様に置換してもよいし、その領域を厚みマップから除去してもよい。さらに、画像処理部122は、厚みマップについてエッジ強調処理やコントラスト調整処理を行ってもよい。 An example of the correction process is a process (error correction process) for correcting the luminance value of an inappropriate portion of the thickness map. For example, if an error occurs in the segmentation process for a layer, the thickness at that position becomes a specific value and is represented as overexposure or underexposure in the thickness map. The image processing unit 122 performs a process of replacing the luminance value of such an inappropriate portion having a specific value in the thickness map with an average value of the surroundings as an example. Alternatively, the image processing unit 122 may remove such an inappropriate portion from the thickness map. Further, the image processing unit 122 may similarly replace the luminance value of a region considered unnecessary for diagnosis, such as the optic nerve papilla (hereinafter, also simply referred to as “papillary head”), from the thickness map. It may be removed. Further, the image processing unit 122 may perform edge enhancement processing or contrast adjustment processing on the thickness map.

補正処理の他の一例は、厚みマップを生成する際に、被検眼の眼軸長データに基づいて、層厚の値を補正する処理である。ここで、被検眼の眼軸長データは、ステップS21において取得されてもよいし、ユーザから入力されてもよい。正常眼データベースと比べて被検眼の眼軸長が長い場合、網膜が引き伸ばされることで層厚全体が薄くなる影響がある。そのため、画像処理部122は、眼軸長に応じた層厚の影響を低減するように厚みマップを補正することができる。なお、眼軸長に応じた層厚の補正は公知の任意の手法を用いて行われてよい。このような補正によって、病変により層厚が薄くなっている場合と健常時から層厚が薄くなっている場合とを識別することができる。 Another example of the correction process is a process of correcting the layer thickness value based on the axial length data of the eye to be inspected when the thickness map is generated. Here, the axial length data of the eye to be inspected may be acquired in step S21 or may be input by the user. When the axial length of the eye to be examined is longer than that of the normal eye database, the retina is stretched, which has the effect of thinning the entire layer thickness. Therefore, the image processing unit 122 can correct the thickness map so as to reduce the influence of the layer thickness according to the axial length. The layer thickness may be corrected according to the axial length by using any known method. By such correction, it is possible to distinguish between the case where the layer thickness is thinned due to the lesion and the case where the layer thickness is thinned from normal.

また、眼軸長が異なると、スキャン角度に対する眼底の撮影範囲が変わるため、画像処理部122は、厚みマップのスケールを補正する処理を行ってもよい。なお、画像処理部122は、厚みマップを生成する際に用いる断層画像のスケールを同様に補正してもよい。また、患者が強度近視である場合は眼軸長が長くなっている傾向がある。そのため、患者が強度近視である場合には、画像処理部122は厚みマップについて同様の補正を行ってもよい。なお、被検眼の眼軸長や強度近視の該非に関しては、取得された患者データに基づいて判断されてよい。 Further, since the photographing range of the fundus with respect to the scan angle changes when the axial length is different, the image processing unit 122 may perform a process of correcting the scale of the thickness map. The image processing unit 122 may similarly correct the scale of the tomographic image used when generating the thickness map. Also, when the patient has severe myopia, the axial length tends to be long. Therefore, if the patient has severe myopia, the image processing unit 122 may make similar corrections to the thickness map. The axial length of the eye to be inspected and the non-existence of severe myopia may be determined based on the acquired patient data.

さらに、補正処理の他の一例は、厚みマップの各XY位置の値を、ある基準層の厚みに対する観察対象の層の厚みの比をとった値に変換する処理である。画像処理部122は、例えば、神経線維層から内網状層までの厚みの値を基準として、それに対する神経線維層の厚みの比を各XY位置における値とするように厚みマップを補正することができる。このようにすることで、個人による全体的な網膜の厚みの違いの影響を低減して、特に着目している層の厚みの多寡を抽出することができる。なお、画像処理部122は、厚みマップの生成時に同様の処理を行ってもよい。 Further, another example of the correction process is a process of converting the value of each XY position on the thickness map into a value obtained by taking the ratio of the thickness of the layer to be observed to the thickness of a certain reference layer. The image processing unit 122 may correct the thickness map so that the ratio of the thickness of the nerve fiber layer to the value of the thickness from the nerve fiber layer to the inner plexiform layer is the value at each XY position, for example. can. By doing so, it is possible to reduce the influence of the difference in the overall thickness of the retina depending on the individual, and to extract the thickness of the layer of particular interest. The image processing unit 122 may perform the same processing when the thickness map is generated.

また、補正処理の他の一例は、厚みマップを幾何学的に補正する処理(幾何補正処理)である。幾何補正処理の例を、図4(a)及び図4(b)を用いて説明する。ここで、図4(a)は幾何補正処理前の厚みマップの一例を示し、図4(b)は機械補正処理後の厚みマップの一例を示す。 Another example of the correction process is a process of geometrically correcting the thickness map (geometric correction process). An example of the geometric correction process will be described with reference to FIGS. 4 (a) and 4 (b). Here, FIG. 4A shows an example of a thickness map before the geometric correction process, and FIG. 4B shows an example of a thickness map after the machine correction process.

幾何補正処理として、画像処理部122は、例えば記憶部126に記憶された厚みマップに関する基準情報を参照しながら、生成された厚みマップに対して、拡縮(拡大あるいは縮小)、回転、平行移動といった、幾何学的な補正処理を行う。記憶部126に記憶された基準情報の一例は、黄斑の中心位置、並びに図4(a)及び図4(b)における点線で示すような画像中の黄斑部Aから乳頭部Bまでの距離及び角度である。なお、黄斑部Aから乳頭部Bまでの角度は、例えば、画像の水平方向(横方向)に対する黄斑部Aと乳頭部Bとを結ぶ線の角度であってよい。 As the geometric correction process, the image processing unit 122 refers to, for example, reference information about the thickness map stored in the storage unit 126, and expands / contracts (enlarges or reduces), rotates, translates, and so on with respect to the generated thickness map. , Performs geometric correction processing. An example of the reference information stored in the storage unit 126 is the center position of the macula, and the distance from the macula A to the papilla B in the image as shown by the dotted lines in FIGS. 4 (a) and 4 (b). The angle. The angle from the macula A to the nipple B may be, for example, the angle of the line connecting the macula A and the nipple B with respect to the horizontal direction (horizontal direction) of the image.

具体的には、まず、画像処理部122は、黄斑部Aの中心位置が厚みマップの中心に来るように、厚みマップを平行移動する。なお、黄斑部Aの中心位置情報は断層画像や厚みマップ等を解析して取得することができる。その後、画像処理部122は、図4(a)内の点線で示す黄斑部Aと乳頭部Bとを結ぶ線が基準の長さ及び角度(水平)になるように、厚みマップの拡縮及び回転の調整を行う。このような調整により、図4(b)に示すような厚みマップを取得することができる。なお、幾何補正処理により画素値が無くなった縁の箇所には、例えば周辺の画素値の平均値を画素値として用いることできる。また、縁が十分埋まるように画像全体を切り抜く処理を行ってもよい。 Specifically, first, the image processing unit 122 translates the thickness map so that the center position of the macula portion A comes to the center of the thickness map. The center position information of the macula A can be obtained by analyzing a tomographic image, a thickness map, or the like. After that, the image processing unit 122 expands / contracts and rotates the thickness map so that the line connecting the macula portion A and the papilla B shown by the dotted line in FIG. 4A has a reference length and angle (horizontal). Make adjustments. By such adjustment, the thickness map as shown in FIG. 4B can be obtained. It should be noted that, for example, the average value of the peripheral pixel values can be used as the pixel value at the edge portion where the pixel value has disappeared due to the geometric correction process. Further, a process of cutting out the entire image may be performed so that the edges are sufficiently filled.

[ステップS23:対称性マップ生成]
次に、ステップS223において、画像処理部122は、厚みマップを用いて、被検眼に関する対称性を示す対称性マップを生成する。対称性マップは、被検眼の画像を解析して得た解析結果であって、互いに関連する位置の解析結果を比較して生成されることができる比較マップの一例である。以下、図5(a)及び図5(b)を用いて、対称性マップの生成方法の一例を説明する。図5(a)は、被検者の右目の断層画像から得られた厚みマップの一例であり、図5(b)は同一被検者の左目の断層画像から得られた厚みマップである。なお、図5(a)及び図5(b)では、被検眼の対称性に関する基準として、厚みマップの水平方向に延びる中央線H1,H2、垂直方向に延びる中央線V1,V2が一点鎖線で示されている。本実施形態では、中央線H1,H2,V1,V2は、厚みマップにおける黄斑の中心を基準として定めている。なお、被検眼の対称性に関する基準となる中央線H1,H2,V1,V2は、これに限られず、被検眼の対称性を確保できる対象を基準として定められてよい。
[Step S23: Symmetry map generation]
Next, in step S223, the image processing unit 122 uses the thickness map to generate a symmetry map showing symmetry with respect to the eye to be inspected. The symmetry map is an analysis result obtained by analyzing an image of an eye to be inspected, and is an example of a comparison map that can be generated by comparing the analysis results of positions related to each other. Hereinafter, an example of a method for generating a symmetry map will be described with reference to FIGS. 5 (a) and 5 (b). FIG. 5A is an example of a thickness map obtained from a tomographic image of the right eye of a subject, and FIG. 5B is a thickness map obtained from a tomographic image of the left eye of the same subject. In FIGS. 5A and 5B, the central lines H1 and H2 extending in the horizontal direction and the central lines V1 and V2 extending in the vertical direction of the thickness map are single-point chain lines as criteria for the symmetry of the eye to be inspected. It is shown. In the present embodiment, the center lines H1, H2, V1 and V2 are defined with reference to the center of the macula in the thickness map. The central lines H1, H2, V1 and V2, which are the criteria for the symmetry of the eye to be inspected, are not limited to this, and may be determined based on an object capable of ensuring the symmetry of the eye to be inspected.

本実施形態では、対称性マップは、被検眼についての上下の対称性、左右の対称性、及び上下かつ左右の対称性のいずれかを評価することで生成される。これら対称性マップの生成方法を以下で順に説明する。なお、以下の生成方法において、右目と左目の関係は入れ替わってもよい。 In this embodiment, the symmetry map is generated by evaluating any of the vertical symmetry, the horizontal symmetry, and the vertical and horizontal symmetry of the eye to be inspected. The method of generating these symmetry maps will be described in order below. In the following generation method, the relationship between the right eye and the left eye may be interchanged.

まず、被検眼の上下の対称性を評価して対称性マップを生成する方法の一例について説明する。本例では、図5(a)の厚みマップ内のある画素P1と、画素P1の位置に関して中央線H1に対して上下対称な位置の画素であるP2に着目する。画素P1における厚みマップの輝度値をI1とし、画素P2における厚みマップの輝度値をI2とする。本例による対称性マップの生成方法では、対称性マップの画素P1における画素値をI1/I2とし、対称性マップの画素P2における画素値をI2/I1とする。他の画素についても同様の処理を行うことで、画像処理部122は、厚みマップを用いて全体的な対称性マップを生成する。また、ここでは上下対称位置の輝度値との比を画素値としたが、これに代えて輝度値の差を画素値としてもよい。また、画素値の算出方法に輝度値の対数変換処理などを含めてもよい。 First, an example of a method of evaluating the vertical symmetry of the eye to be inspected to generate a symmetry map will be described. In this example, attention is paid to a pixel P1 in the thickness map of FIG. 5A and a pixel P2 whose position is vertically symmetrical with respect to the center line H1 with respect to the position of the pixel P1. The luminance value of the thickness map in the pixel P1 is I1, and the luminance value of the thickness map in the pixel P2 is I2. In the method of generating the symmetry map according to this example, the pixel value in the pixel P1 of the symmetry map is I1 / I2, and the pixel value in the pixel P2 of the symmetry map is I2 / I1. By performing the same processing on the other pixels, the image processing unit 122 generates an overall symmetry map using the thickness map. Further, although the ratio to the luminance value at the vertically symmetrical position is used as the pixel value here, the difference between the luminance values may be used as the pixel value instead. Further, the pixel value calculation method may include a logarithmic conversion process of the luminance value.

次に、被検眼の左右の対称性を評価して対称性マップを生成する方法の一例について説明する。本例では、図5(a)に示す厚みマップ内のある画素P1と、図5(a)における中央線V1を基準とした画素P1の位置に関して、図5(b)に示す反対側の目の厚みマップにおいて中央線V2を基準として左右対称な位置の画素P3に着目する。なお、本実施形態では、厚みマップの中心が黄斑部の中心と一致しているため、画素P3は、図5(b)に示す厚みマップにおいて左右方向の中央に対して画素P1の位置と左右対称な位置の画素となる。画素P1の輝度値をI1とし、P3の輝度値をI3とする。本例による対称性マップの生成方法では、対称性マップの画素P1における画素値をI1/I3とし、対称性マップの画素P3における画素値をI3/I1とする。他の画素についても同様の処理を行うことで、画像処理部122は、厚みマップを用いて全体的な対称性マップを生成する。また、上記と同様に、対称位置の輝度値との比に代えて、差を画素値としてもよい。また、画素値の算出方法に輝度値の対数変換処理などを含めてもよい。 Next, an example of a method of evaluating the left-right symmetry of the eye to be inspected to generate a symmetry map will be described. In this example, the positions of a pixel P1 in the thickness map shown in FIG. 5 (a) and the pixel P1 with respect to the center line V1 in FIG. 5 (a) are opposite eyes shown in FIG. 5 (b). Focus on the pixel P3 at a position symmetrical with respect to the center line V2 in the thickness map of. In this embodiment, since the center of the thickness map coincides with the center of the yellow spot portion, the pixel P3 is the position and the left and right of the pixel P1 with respect to the center in the left-right direction in the thickness map shown in FIG. 5 (b). The pixels are in symmetrical positions. Let the luminance value of the pixel P1 be I1, and let the luminance value of P3 be I3. In the method of generating the symmetry map according to this example, the pixel value in the pixel P1 of the symmetry map is I1 / I3, and the pixel value in the pixel P3 of the symmetry map is I3 / I1. By performing the same processing on the other pixels, the image processing unit 122 generates an overall symmetry map using the thickness map. Further, similarly to the above, the difference may be used as the pixel value instead of the ratio with the luminance value at the symmetrical position. Further, the pixel value calculation method may include a logarithmic conversion process of the luminance value.

次に、被検眼の上下かつ左右の対称性を評価して対称性マップを生成する方法の一例について説明する。本例では、図5(a)の厚みマップ内のある画素P1と、画素P1の位置に関して前述のように上下対称な位置の画素P2と、画素P1の位置に関して前述のように左右対称な位置である図5(b)の画素P3と、画素P3の位置に関して中央線H2に対して上下対称な位置の画素である画素P4とに着目する。画素P1,P2,P3,P4の輝度値をそれぞれ、I1,I2,I3,I4とする。本例による対称性マップの生成方法では、I1に対する他の3点の輝度値の比I1/I2,I1/I3,I1/I4をそれぞれ算出する。その後、対称性マップの画素P1における画素値を、これらの比のうちの他の値よりも低い値(最小値)とする。他の画素についても同様の処理を行うことで、画像処理部122は、厚みマップを用いて全体的な対称性マップを生成する。また、上記と同様に、対称位置の輝度値との比に代えて、差を画素値としてもよい。また、画素値の算出方法に輝度値の対数変換処理などを含めてもよい。 Next, an example of a method of evaluating the vertical and horizontal symmetry of the eye to be inspected to generate a symmetry map will be described. In this example, a pixel P1 in the thickness map of FIG. 5A, a pixel P2 having a vertically symmetrical position with respect to the position of the pixel P1, and a position symmetrical with respect to the position of the pixel P1 as described above. Attention is paid to the pixel P3 in FIG. 5B and the pixel P4 which is a pixel whose position is vertically symmetrical with respect to the center line H2 with respect to the position of the pixel P3. Let the luminance values of the pixels P1, P2, P3, and P4 be I1, I2, I3, and I4, respectively. In the method of generating the symmetry map according to this example, the ratios I1 / I2, I1 / I3, and I1 / I4 of the luminance values of the other three points to I1 are calculated, respectively. After that, the pixel value in the pixel P1 of the symmetry map is set to a value lower (minimum value) than the other values among these ratios. By performing the same processing on the other pixels, the image processing unit 122 generates an overall symmetry map using the thickness map. Further, similarly to the above, the difference may be used as the pixel value instead of the ratio with the luminance value at the symmetrical position. Further, the pixel value calculation method may include a logarithmic conversion process of the luminance value.

画像処理部122は、以上で述べた対称性マップの生成方法において輝度値の比を算出する前に、厚みマップに対して平滑化する処理を施してもよい。平滑化処理は、移動平均フィルタ処理、ガウシアンフィルタ処理、又はメディアンフィルタ処理などによって行うことができる。平滑化処理を施すことによって、厚みマップごとの位置ずれや回転ずれによる影響を低減することができる。 The image processing unit 122 may perform a process of smoothing the thickness map before calculating the ratio of the luminance values in the method of generating the symmetry map described above. The smoothing process can be performed by a moving average filter process, a Gaussian filter process, a median filter process, or the like. By performing the smoothing process, it is possible to reduce the influence of the positional deviation and the rotation deviation of each thickness map.

以上のように生成された対称性マップでは、被検眼の対称性に関する値が各XY位置の画素値として用いられる。そのため、対称性マップを用いることで、例えば緑内障のように、健常時には対称性を示すが、疾患時に対称性が損なわれるような症状の推定処理の精度を向上させることができる。 In the symmetry map generated as described above, the value related to the symmetry of the eye to be inspected is used as the pixel value of each XY position. Therefore, by using the symmetry map, it is possible to improve the accuracy of the estimation processing of the symptom that shows symmetry in normal condition but impairs symmetry at the time of disease, for example, glaucoma.

画像処理部122は、このように生成した対称性マップを推定部123へ出力する。また、画像処理部122は、各XY位置における層厚を示した厚みマップを推定部123へ出力してもよい。さらに、対称性マップと厚みマップを合成して、一枚の合成マップを生成して出力してもよい。この合成マップは、例えばRGBの各チャンネルのいずれかに対称性マップ又は厚みマップを当てはめることで生成することができる。また、厚みマップに代えて又は加えて眼底写真や前眼部写真、SLO画像、OCTA画像、輝度の正面画像(En−Face画像)、他の解析マップを用いて合成マップを生成してもよい。合成マップを生成する際に、合成する画像の画素サイズが異なっていた場合、画素サイズを合わせる処理が行われもよい。また、画像処理部122は、厚みマップ等の解析マップ又は対称性マップの各XY位置の輝度値をベクトルに配置した特徴ベクトルを推定部123へ出力してもよい。また、画像処理部122は、取得部121によって取得された患者データを対称性マップ又は合成マップに紐づけて、推定部123へ出力してもよい。 The image processing unit 122 outputs the symmetry map thus generated to the estimation unit 123. Further, the image processing unit 122 may output a thickness map showing the layer thickness at each XY position to the estimation unit 123. Further, the symmetry map and the thickness map may be combined to generate and output one composite map. This composite map can be generated, for example, by applying a symmetry map or a thickness map to any of the RGB channels. Further, instead of or in addition to the thickness map, a composite map may be generated by using a fundus photograph, an anterior segment photograph, an SLO image, an OCTA image, a frontal image of luminance (En-Face image), and another analysis map. .. When the composite map is generated, if the pixel sizes of the images to be composited are different, a process of matching the pixel sizes may be performed. Further, the image processing unit 122 may output a feature vector in which the luminance values of the respective XY positions of the analysis map such as the thickness map or the symmetry map are arranged in the vector to the estimation unit 123. Further, the image processing unit 122 may link the patient data acquired by the acquisition unit 121 to the symmetry map or the composite map and output the patient data to the estimation unit 123.

[ステップS23:推定]
ステップS223において対称性マップが生成され、推定部123に出力されると、処理はステップS23に移行する。ステップS23では、推定部123が、対称性マップを学習データとした学習により得た学習済モデルを用いて、画像処理部122によって生成された対称性マップから被検眼の眼科疾患に関する推定を行う。
[Step S23: Estimate]
When the symmetry map is generated in step S223 and output to the estimation unit 123, the process proceeds to step S23. In step S23, the estimation unit 123 estimates the ophthalmic disease of the eye to be inspected from the symmetry map generated by the image processing unit 122 by using the trained model obtained by learning using the symmetry map as learning data.

[機械学習モデルの例]
本実施形態において、推定部123が用いる学習済モデルは、記憶部126に記憶されている。推定部123が用いる機械学習モデルの一例はニューラルネットワークであり、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)であってよい。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダ(自己符号化器)に関する技術が用いられてもよい。
[Example of machine learning model]
In the present embodiment, the trained model used by the estimation unit 123 is stored in the storage unit 126. An example of the machine learning model used by the estimation unit 123 is a neural network, and may be, for example, deep learning consisting of a multi-layered neural network. Further, for at least a part of the multi-layered neural network, for example, a convolutional neural network (CNN) can be used. Further, a technique related to an autoencoder (self-encoder) may be used for at least a part of a multi-layer neural network.

また、学習には、バックプロパゲーション(誤差逆伝播法)に関する技術が用いられてもよい。さらに、学習には、各ユニット(各ニューロン、あるいは各ノード)をランダムに不活性化する手法(ドロップアウト)が用いられてもよい。また、学習には、多階層のニューラルネットワークの各層に伝わったデータを、活性化関数(例えばReLu関数)が適用される前に、正規化する手法(バッチ正規化)が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。 Further, a technique related to backpropagation (error backpropagation method) may be used for learning. Further, for learning, a method (dropout) in which each unit (each neuron or each node) is randomly inactivated may be used. Further, for learning, a method (batch normalization) may be used in which the data transmitted to each layer of the multi-layer neural network is normalized before the activation function (for example, the ReLu function) is applied. However, the machine learning is not limited to deep learning, and any learning using a model capable of extracting (expressing) the features of learning data such as images by learning may be used.

さらに、推定部123が用いる学習済モデルは、転移学習を用いて生成されたものでもよい。転移学習には、例えば、Inception v3などの学習済モデルを用いることができる。この場合には、例えば、診断対象の疾患とは別の疾患で学習された機械学習モデルについて転移学習を行って、推定処理に用いる学習済モデルを生成してもよい。このような転移学習を行うことによって、学習データを数多く入手するのが難しい疾患についても、効率的に学習済モデルを生成することができる。ここでいう別の疾患は、例えば、目の別の疾患であってよい。また、胃や大腸の内視鏡画像等からこれらの部位の病変を検出する機械学習モデルについて転移学習を行ってもよい。 Further, the trained model used by the estimation unit 123 may be one generated by using transfer learning. For transfer learning, for example, a trained model such as Injection v3 can be used. In this case, for example, transfer learning may be performed on a machine learning model learned in a disease different from the disease to be diagnosed to generate a trained model used for estimation processing. By performing such transfer learning, it is possible to efficiently generate a trained model even for a disease for which it is difficult to obtain a large amount of training data. The other disease referred to here may be, for example, another disease of the eye. In addition, transfer learning may be performed on a machine learning model that detects lesions at these sites from endoscopic images of the stomach or large intestine.

[学習データの例]
本実施形態で用いられる学習済モデルは、対称性マップと、眼科疾患に関する情報との関係性を学習したものである。より具体的には、学習済モデルは、上述のようにして生成された対称性マップを学習データの入力データとし、入力データとして用いられた対称性マップに係る被検眼に関する眼科疾患の情報を出力データとして学習した機械学習モデルとすることができる。
[Example of learning data]
The trained model used in this embodiment learns the relationship between the symmetry map and information on ophthalmic diseases. More specifically, the trained model uses the symmetry map generated as described above as input data for training data, and outputs information on ophthalmic diseases related to the eye to be inspected related to the symmetry map used as input data. It can be a machine learning model learned as data.

なお、対称性マップに代えて合成マップを学習データの入力データに用いてもよい。また、推定部123が用いる機械学習モデルの入力チャンネルは、1つのチャンネルに限られない。例えば、RGB用の3つのチャンネル等の任意の複数のチャンネルを用いることができる。この場合、それぞれの入力チャンネルに、対称性マップや厚みマップ、特徴ベクトル、患者データなど、種々のデータを入力することができる。これに関連して、学習データの入力データとして、対称性マップに加えて、2次元又は3次元の断層画像、厚みマップ等の解析マップ、En−Face画像、OCTA画像、特徴ベクトル、眼底写真、前眼部写真、SLO画像、視野計による計測結果、隅角情報、及び患者データ等を用いてもよい。ここで、隅角情報とは、被検眼の隅角を撮影した画像や隅角の検査結果等の隅角に関する情報をいう。なお、この場合には、学習データの入力データと学習済モデルへの入力データとを同種の複数のデータとすればよい。 A composite map may be used as the input data of the training data instead of the symmetry map. Further, the input channel of the machine learning model used by the estimation unit 123 is not limited to one channel. For example, any plurality of channels such as three channels for RGB can be used. In this case, various data such as a symmetry map, a thickness map, a feature vector, and patient data can be input to each input channel. In relation to this, as input data of training data, in addition to a symmetry map, a two-dimensional or three-dimensional tomographic image, an analysis map such as a thickness map, an En-Face image, an OCTA image, a feature vector, and a fundus photograph, Anterior segment photograph, SLO image, measurement result by a perimeter, angle information, patient data, and the like may be used. Here, the angle information refers to information related to the angle such as an image obtained by taking the angle of the eye to be inspected and the inspection result of the angle. In this case, the input data of the training data and the input data to the trained model may be a plurality of data of the same type.

推定部123が用いる機械学習モデルは、GAN(敵対的生成ネットワーク)で生成されたデータを学習に用いて生成されてもよい。例えば、「正常」とラベル付けされた対称性マップを用いて、GANで「正常」の性質を持つ対称性マップを増やすことができる。ここでいう「正常」とは、疾患を持たない状態を指す。また、「緑内障」と診断された患者の対称性マップを用いて、GANで「緑内障」の性質を持つ対称性マップを増やすことができる。このことによって、データ不足を補うことができる。なお、GANを用いて生成するデータは対称性マップに限られず、対称性マップの生成に用いられる、断層信号、断層画像、厚みマップ等の解析マップ、又はOCTA画像等であってもよい。 The machine learning model used by the estimation unit 123 may be generated by using the data generated by GAN (hostile generation network) for learning. For example, a symmetry map labeled "normal" can be used to increase the symmetry map with the "normal" property in GAN. The term "normal" as used herein refers to a state without a disease. Also, the symmetry map of patients diagnosed with "glaucoma" can be used to increase the symmetry map with the nature of "glaucoma" in GAN. This can make up for the lack of data. The data generated by using GAN is not limited to the symmetry map, and may be an analysis map such as a tomographic signal, a tomographic image, a thickness map, or an OCTA image used for generating the symmetry map.

本実施形態に係る学習データの出力データとして用いられる疾患の情報の一例は、緑内障に関する、正常・初期・中期・後期などの進行度(病期)のラベルである。なお、学習データの出力データとしては、医師等の有識者により対称性マップに係る被検眼について診断された疾患の情報(ラベル)を用いてよい。この場合、医師等の有識者は対称性マップに関する被検眼について、視野計による計測結果を用いて診断を行ってよい。なお、診断に用いる情報は、視野計による計測結果、断層画像、厚みマップ等の解析マップ、対称性マップ、En−Face画像、OCTA画像、眼底写真、前眼部写真、SLO画像、隅角情報、及びその他の情報のうちの少なくとも一つの情報であってよい。 An example of disease information used as output data of the learning data according to the present embodiment is a label of the degree of progression (stage) such as normal, early, middle, and late stages of glaucoma. As the output data of the learning data, information (label) of the disease diagnosed for the eye to be inspected related to the symmetry map by an expert such as a doctor may be used. In this case, an expert such as a doctor may make a diagnosis of the eye to be inspected regarding the symmetry map by using the measurement result by the perimeter. The information used for diagnosis includes measurement results by a perimeter, tomographic images, analysis maps such as thickness maps, symmetry maps, En-Face images, OCTA images, fundus photographs, anterior ocular segment photographs, SLO images, and angle information. , And at least one of the other information.

また、視野計による計測結果を用いずに、断層画像、厚みマップ等の解析マップ、対称性マップ、En−Face画像、OCTA画像、眼底写真、前眼部写真、SLO画像、隅角情報、及び、その他の情報の少なくとも一つのみを用いて診断を行ってよい。このような診断結果を学習データの出力データとして用いることで、学習済モデルは、視野計を用いた緑内障判定結果は陽性だが、断層画像等のOCT画像には緑内障の所見が現れていないような例を、医師と同じ基準で扱うことができる。 In addition, analysis maps such as tomographic images and thickness maps, symmetry maps, En-Face images, OCTA images, fundus photographs, anterior segment photographs, SLO images, corner angle information, and , And only one of the other information may be used to make the diagnosis. By using such a diagnosis result as output data of training data, the trained model has a positive glaucoma judgment result using a perimeter, but it seems that no glaucoma findings appear in OCT images such as tomographic images. Examples can be treated with the same criteria as doctors.

このような学習データを用いて学習を行った学習済モデルは、各推定ラベル(出力データのラベル)に対する確からしさ(割合)を出力する。例えば、機械学習モデルの最終層にソフトマックス関数を用いることで、学習済モデルからの出力結果を各推定ラベルに対する確率として解釈することができる。また、ソフトマックス関数による変換を行うことなく、各推定ラベルに対する重みを出力してもよい。この場合、各ラベルに対する重みの合計が1になるように比例倍することで、出力結果を確率として解釈することができる。 The trained model trained using such training data outputs the certainty (ratio) for each estimation label (label of output data). For example, by using the softmax function in the final layer of the machine learning model, the output result from the trained model can be interpreted as the probability for each estimated label. Further, the weight for each estimated label may be output without performing the conversion by the softmax function. In this case, the output result can be interpreted as a probability by proportionally multiplying so that the total weight for each label becomes 1.

なお、出力データに関する眼科疾患の種類は緑内障に限られず、加齢黄斑変性や糖尿病性網膜症等でもあってもよいし、これらの複数の疾患であってもよい。また、出力データには、緑内障などの疾患を有する確率、各進行度に関する確率、及び今後進行する確率などが含まれてもよい。また、出力データの他の例として、推定ラベルは、正常、緑内障、加齢黄斑変性、糖尿病性網膜症、又はその他の疾患のように、病名ごとに付けることもできる。出力データのさらに他の例として、推定ラベルは、神経線維層の菲薄化、出血、及び陥凹拡大などの所見であってもよい。 The type of ophthalmic disease related to the output data is not limited to glaucoma, and may be age-related macular degeneration, diabetic retinopathy, or the like, or a plurality of these diseases. In addition, the output data may include a probability of having a disease such as glaucoma, a probability of each degree of progression, a probability of progressing in the future, and the like. Also, as another example of output data, putative labels can be attached by disease name, such as normal, glaucoma, age-related macular degeneration, diabetic retinopathy, or other diseases. As yet another example of the output data, the putative label may be findings such as thinning of the nerve fiber layer, bleeding, and dilated depressions.

推定部123は、このような学習を行った学習済モデルを用いることで、被検眼の対称性マップから眼科疾患に関する情報である各推定ラベルについての割合(確率)を取得することができる。なお、推定部123は、年齢や病歴などの患者データに応じて、出力する確率値を補正してもよい。例えば、推定部123は、加齢黄斑変性の確率を評価する際、年齢が高い方がより病気の可能性である確率が高くなるように、学習済モデルの出力に年齢に応じた補正値を乗算又は加算等することができる。 By using the trained model obtained by such learning, the estimation unit 123 can acquire the ratio (probability) for each estimated label which is information on the ophthalmic disease from the symmetry map of the eye to be inspected. The estimation unit 123 may correct the probability value to be output according to the patient data such as age and medical history. For example, when evaluating the probability of age-related macular degeneration, the estimation unit 123 corrects the output of the trained model according to age so that the older the person is, the higher the probability of being ill. It can be multiplied or added.

推定部123は、学習済モデルを用いて得た各推定ラベルの確率に基づく推定結果を出力する。例えば、推定部123は、各推定ラベルの中で、他の推定ラベルよりも高い確率の推定ラベルを推定結果として出力することができる。また、各推定ラベルのうち閾値よりも高い確率の推定ラベルを推定結果として出力することができる。このとき、閾値よりも高い確率の推定ラベルが複数ある場合には、それらすべてを出力してもよいし、そのうちの他の推定ラベルよりも高い確率の推定ラベルを推定結果として出力してもよい。さらに、推定部123は、学習済モデルを用いて得た各推定ラベルの確率から、機械学習モデルを用いて、推定結果を決定してもよい。この場合に用いる機械学習アルゴリズムは、推定ラベルの確率の取得に用いられた機械学習アルゴリズムとは異なる種類の機械学習アルゴリズムであってもよく、例えば、ニューラルネットワーク、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等であってよい。 The estimation unit 123 outputs an estimation result based on the probability of each estimation label obtained by using the trained model. For example, the estimation unit 123 can output an estimation label having a higher probability than other estimation labels among the estimation labels as an estimation result. Further, among the estimated labels, the estimated label having a probability higher than the threshold value can be output as the estimation result. At this time, if there are a plurality of estimated labels with a probability higher than the threshold value, all of them may be output, or an estimated label with a higher probability than the other estimated labels may be output as the estimation result. .. Further, the estimation unit 123 may determine the estimation result by using the machine learning model from the probabilities of each estimation label obtained by using the trained model. The machine learning algorithm used in this case may be a different type of machine learning algorithm from the machine learning algorithm used to obtain the probability of the estimated label, for example, a neural network, a support vector machine, AdaBoost, a Basian network, etc. Alternatively, it may be a random forest or the like.

また、推定部123は、被検眼の状態が正常か異常かを、正常である確率又は異常である確率の閾値によって判定してもよい。ここでいう「異常」とは、何らかの疾患を持つ状態を指す。この場合、たとえ正常である確率が異常である確率よりも大きくても、正常である確率が閾値よりも小さい場合は、推定部123は、推定結果として疾患を持つ可能性があることを出力することができる。 Further, the estimation unit 123 may determine whether the condition of the eye to be inspected is normal or abnormal by the threshold value of the probability of being normal or the probability of being abnormal. The "abnormality" here refers to a state having some kind of disease. In this case, even if the probability of being normal is greater than the probability of being abnormal, if the probability of being normal is less than the threshold, the estimation unit 123 outputs that the estimation result may have a disease. be able to.

推定部123によって出力された推定結果は、表示制御部125によって表示部103に表示されることができる。また、推定結果は、記憶部126に記憶されることができる。なお、推定部123によって出力された推定結果は、制御部102に接続された不図示の外部装置に送信されてもよい。 The estimation result output by the estimation unit 123 can be displayed on the display unit 103 by the display control unit 125. Further, the estimation result can be stored in the storage unit 126. The estimation result output by the estimation unit 123 may be transmitted to an external device (not shown) connected to the control unit 102.

上記のように、本実施形態に係る制御部102は、画像処理部122及び推定部123を備える。画像処理部122は、被検眼の医用画像を画像処理して被検眼の対称性を示す対称性マップを生成する生成部の一例として機能する。推定部123は、対称性マップを用いた学習により得た学習済モデルを用いて、生成した対称性マップから推定した眼科疾患に関する推定結果を出力する出力部の一例として機能する。なお、学習済モデルは眼科疾患に関する確率を出力し、推定部123は、学習済モデルが出力した確率に基づいて推定された眼科疾患についての推定結果を出力することができる。 As described above, the control unit 102 according to the present embodiment includes an image processing unit 122 and an estimation unit 123. The image processing unit 122 functions as an example of a generation unit that processes a medical image of the eye to be inspected to generate a symmetry map showing the symmetry of the eye to be inspected. The estimation unit 123 functions as an example of an output unit that outputs an estimation result regarding the ophthalmic disease estimated from the generated symmetry map by using the trained model obtained by learning using the symmetry map. The trained model can output the probability related to the ophthalmic disease, and the estimation unit 123 can output the estimation result about the ophthalmic disease estimated based on the probability output by the trained model.

ここで、眼科疾患は、緑内障、糖尿病性網膜症、及び加齢黄斑変性の少なくとも1つを含む。さらに、画像処理部122が生成する対称性マップは、眼底写真、前眼部写真、SLO画像、OCTA画像、En−Face画像、及び被検眼の医用画像を解析して得た情報を示す解析マップのいずれかの上下方向及び左右方向の少なくとも一方の対称性を評価した対称性マップである。また、推定結果は、眼科疾患の病期に関する推定結果を含むことができる。 Here, ophthalmic diseases include at least one of glaucoma, diabetic retinopathy, and age-related macular degeneration. Further, the symmetry map generated by the image processing unit 122 is an analysis map showing information obtained by analyzing the fundus photograph, the anterior segment photograph, the SLO image, the OCTA image, the En-Face image, and the medical image of the eye to be inspected. It is a symmetry map which evaluated the symmetry of at least one of the vertical direction and the horizontal direction. In addition, the estimation result can include the estimation result regarding the stage of the ophthalmic disease.

本実施形態に係る制御部102は、このような構成により、被検眼の医用画像に基づいて対称性マップを生成し、学習済モデルを用いて対称性マップから高精度に眼科疾患を推定することができる。なお、対称性マップを用いることで、例えば緑内障のように、健常時には対称性を示すが、疾患時に対称性が損なわれるような症状について、より精度良く推定することができる。 With such a configuration, the control unit 102 according to the present embodiment generates a symmetry map based on the medical image of the eye to be inspected, and estimates the ophthalmic disease from the symmetry map using the trained model with high accuracy. Can be done. By using the symmetry map, it is possible to more accurately estimate a symptom such as glaucoma, which shows symmetry in normal conditions but impairs symmetry during a disease.

また、推定部123は、画像処理部122が生成した対称性マップに加えて、視野計による計測結果、2次元の断層画像、3次元の断層画像、3Dボリュームデータ、眼底写真、前眼部写真、SLO画像、En−Face画像、OCTA画像、解析マップ、隅角情報、層厚のプロファイル又は特徴ベクトル、医用画像の特徴部を抽出した特徴マップ、及び患者データのうちの少なくとも一つを用いて得た推定結果を出力することができる。これにより、学習済モデルが処理に用いる特徴量が増加することから、推定処理の精度をより向上させられることが期待できる。 Further, in the estimation unit 123, in addition to the symmetry map generated by the image processing unit 122, the measurement result by the perimeter, the two-dimensional tomographic image, the three-dimensional tomographic image, the 3D volume data, the fundus photograph, and the anterior segment photograph. , SLO image, En-Face image, OCTA image, analysis map, corner angle information, layer thickness profile or feature vector, feature map extracted feature of medical image, and patient data. The obtained estimation result can be output. As a result, the feature amount used by the trained model for processing increases, and it can be expected that the accuracy of the estimation processing can be further improved.

さらに、画像処理部122は、対称性マップを生成する前に医用画像の補正処理を行うことができる。当該補正処理は、平滑化処理、眼軸長に基づいた補正処理、基準となる層に基づいた層厚補正処理、幾何補正処理、エラー補正処理、エッジ強調処理、及びコントラスト調整処理の少なくとも1つを含む。これにより、推定処理を行うための医用画像に関して、画質を向上させたり、より実際の被検眼の状態に即した画像としたりすることができ、推定処理の精度を向上させることができる。なお、取得部121が取得し、画像処理部122が用いる医用画像は、上記の補正処理のような何らかの画像処理が既に行われた画像であってもよい。 Further, the image processing unit 122 can perform correction processing of the medical image before generating the symmetry map. The correction process is at least one of a smoothing process, a correction process based on the axial length, a layer thickness correction process based on a reference layer, a geometric correction process, an error correction process, an edge enhancement process, and a contrast adjustment process. including. As a result, the image quality of the medical image for performing the estimation process can be improved, or the image can be made more suitable for the actual state of the eye to be inspected, and the accuracy of the estimation process can be improved. The medical image acquired by the acquisition unit 121 and used by the image processing unit 122 may be an image that has already undergone some image processing such as the above correction processing.

なお、本実施形態では、眼科疾患に関する推定処理を行うこととしたが、推定処理によって推定される疾患は眼科疾患に限らずに全身疾患であってもよい。推定処理によって推定される疾患は、例えば、高血圧や動脈硬化等の循環器疾患、糖尿病や甲状腺機能亢進症等の内分泌疾患、脳梗塞や脳腫瘍、認知症等の脳疾患等であってもよい。このような疾患に関しては、例えば、被検眼の血管に関する情報等から疾患の状態や病期等を推定することができる。なお、この場合には、学習データの出力データは、推定処理によって推定される疾患に対応する推定ラベル等であってよい。 In the present embodiment, the estimation process for the ophthalmic disease is performed, but the disease estimated by the estimation process is not limited to the ophthalmic disease and may be a systemic disease. The diseases estimated by the estimation process may be, for example, cardiovascular diseases such as hypertension and arteriosclerosis, endocrine diseases such as diabetes and hyperthyroidism, and brain diseases such as cerebral infarction, brain tumor, and dementia. With respect to such a disease, for example, the state and stage of the disease can be estimated from information on the blood vessels of the eye to be inspected. In this case, the output data of the learning data may be an estimation label or the like corresponding to the disease estimated by the estimation process.

[第1実施形態の変形例]
また、推定部123は、学習済モデルが注目した領域をヒートマップで示した(マップ化した)、注意マップ(活性化マップ)を出力してもよい。なお、注意マップは、推定ラベルの確率の取得に用いられた学習済モデルから取得することができる。表示制御部125は、推定部123によって出力された注意マップを表示部103に表示させることができる。例えば、表示制御部125は、注意マップを、眼底写真、前眼部写真及びSLO画像などの画像や、画像処理部122が生成した厚みマップなどと重ねて表示部103に表示させてもよい。この場合には、医師が画像を見て診断する時に、補助的に情報を提示することができる。
[Modified example of the first embodiment]
Further, the estimation unit 123 may output a caution map (activation map) in which the region of interest of the trained model is shown (mapped) by a heat map. Note that the attention map can be obtained from the trained model used to obtain the probabilities of the estimated labels. The display control unit 125 can display the attention map output by the estimation unit 123 on the display unit 103. For example, the display control unit 125 may display the attention map on the display unit 103 by superimposing the image such as the fundus photograph, the anterior eye portion photograph, the SLO image, or the thickness map generated by the image processing unit 122. In this case, when the doctor looks at the image and makes a diagnosis, the information can be presented as an auxiliary.

さらに、推定部123は、被検眼の観察対象層等の層厚が全体的に薄い場合は、被検眼が緑内障である可能性を推定結果として出力してもよい。全体的な層厚の指標には、例えば、眼軸長補正された厚みマップの平均値や中央値などを用いることができる。この場合、推定部123は、対称性マップで初期の緑内障でないかを推定し、全体的な層厚で後期の緑内障でないかを推定することができ、複数段階の推定処理を実施することができる。 Further, the estimation unit 123 may output the possibility that the eye to be inspected has glaucoma as an estimation result when the thickness of the observation target layer or the like of the eye to be inspected is thin as a whole. As an index of the overall layer thickness, for example, the average value or the median value of the thickness map corrected for the axial length can be used. In this case, the estimation unit 123 can estimate whether or not it is early glaucoma with a symmetry map, and can estimate whether or not it is late-stage glaucoma based on the overall layer thickness, and can perform a plurality of stages of estimation processing. ..

なお、本実施形態では、推定部123により、記憶部126に記憶された学習済モデルを用いて、対称性マップから推定結果を取得した。これに対し、推定部123は、推定処理結果を出力する出力部として機能してもよい。この場合、出力部は、画像処理部122が生成した対称性マップを、制御部102に接続された不図示の外部装置に出力し、上記のような推定処理を行う外部装置から、推定結果を取得してもよい。また、制御部102の推定部123は、外部装置に設けられた学習済モデルを用いて推定処理を行ってもよい。 In this embodiment, the estimation unit 123 acquires the estimation result from the symmetry map using the trained model stored in the storage unit 126. On the other hand, the estimation unit 123 may function as an output unit that outputs the estimation processing result. In this case, the output unit outputs the symmetry map generated by the image processing unit 122 to an external device (not shown) connected to the control unit 102, and outputs the estimation result from the external device that performs the estimation processing as described above. You may get it. Further, the estimation unit 123 of the control unit 102 may perform estimation processing using a learned model provided in the external device.

推定部123が用いる学習済モデルは、2段階の機械学習によって生成されてもよい。例えば、まず第1段階の学習で、被検眼が正常か緑内障かを推定する第1の学習済モデルを生成する。第1の学習済モデルの生成時、生成した学習済モデルの推定結果が正しいか、交差検証法によってテストを行う。 The trained model used by the estimation unit 123 may be generated by two-step machine learning. For example, in the first stage of learning, a first trained model for estimating whether the eye to be inspected is normal or glaucoma is generated. When the first trained model is generated, it is tested by the cross-validation method whether the estimated result of the generated trained model is correct.

この際、学習データのうち、検証に用いられるデータの出力データでは異常のラベルが付されているにもかかわらず、学習済モデルからの出力が正常のラベルとして誤判定される対称性マップについて偽陰性とラベル付けしておく。なお、学習データの出力データは上述のように視野計による計測結果を用いて診断された情報であってよい。 At this time, among the training data, although the output data of the data used for verification is labeled as abnormal, the symmetry map in which the output from the trained model is erroneously determined as a normal label is false. Label it negative. The output data of the learning data may be the information diagnosed using the measurement result by the perimeter as described above.

次に、第2段階の学習として、第1段階で用いた学習データを用いて学習を行い第2の学習済モデルを生成する。この際、上述のように偽陰性とラベル付けされたデータについては、学習データの出力データに関するラベルを偽陰性として学習に用いる。この場合、推定部123は、第2の学習済モデルを、推定処理に用い、「正常」、「異常」、及び「偽陰性」の推定ラベルについてそれぞれの確率を取得することができる。推定部123は、推定結果として、上記と同様の処理によりこれらラベルのいずれかを出力することができる。また、推定部123は、「偽陰性」の推定ラベルの確率が高い場合、推定結果としては「異常」を出力しつつ、「偽陰性」のラベルを検者が確認できるような態様で出力してもよい。 Next, as the second stage learning, learning is performed using the learning data used in the first stage, and a second trained model is generated. At this time, for the data labeled as false negative as described above, the label related to the output data of the training data is used for training as false negative. In this case, the estimation unit 123 can use the second trained model for the estimation process and acquire the respective probabilities for the estimated labels of "normal", "abnormal", and "false negative". The estimation unit 123 can output any of these labels as the estimation result by the same processing as described above. Further, when the probability of the estimated label of "false negative" is high, the estimation unit 123 outputs "abnormal" as the estimation result and outputs the label of "false negative" in such a manner that the examiner can confirm it. May be.

このように2段階の学習による学習済モデルを用いることによって、視野計による緑内障判定結果は陽性だが、対称性マップ等の干渉信号を用いて得た画像には緑内障の所見が現れていないような症例を個別に扱うことができる。さらに、前視野緑内障(Preperimetric Glaucoma:PPG)のように、視野計による計測結果には変化が現れず、対称性マップや層厚マップには変化が現れるような症例も個別に扱うことができる。また、第1段階の学習で交差検証法を用いることにより、より多くのデータについて偽陰性のラベルをつけるべきか否かを確認できる。 By using the trained model by two-step learning in this way, the glaucoma judgment result by the perimeter is positive, but it seems that the glaucoma findings do not appear in the image obtained by using the interference signal such as the symmetry map. Cases can be treated individually. Furthermore, cases such as premimeric glaucoma (PPG) in which changes do not appear in the measurement results by the perimeter and changes appear in the symmetry map and layer thickness map can be treated individually. In addition, by using the cross-validation method in the first stage of learning, it is possible to confirm whether or not more data should be labeled as false negative.

ここでは、「偽陰性」としてラベル付けされたデータを用いて第2段階の学習を行うことについて述べたが、例えば、「偽陰性」と判断された画像について、ラベルを「異常」とし、第1の学習済モデルに追加学習させてもよい。この場合には、第1の学習済モデルによる推定精度を向上させることができ、推定部123は、追加学習を行った第1の学習済モデルを用いて精度の高い推定処理を行うことができると期待できる。なお、この場合には第2の学習済モデルを生成する必要はない。 Here, it has been described that the second stage learning is performed using the data labeled as "false negative". For example, for an image judged to be "false negative", the label is set to "abnormal" and the second step is performed. The trained model of 1 may be additionally trained. In this case, the estimation accuracy by the first trained model can be improved, and the estimation unit 123 can perform highly accurate estimation processing by using the first trained model that has undergone additional learning. Can be expected. In this case, it is not necessary to generate the second trained model.

また、推定部123が用いる学習済モデルは、教師無し学習を用いて生成されてもよい。教師無し学習は、お互いに似た特徴を持つマップや画像のデータ同士を、ひとくくりにして分類することができる。医師等の有識者は、分類されたデータ群から一定数のデータのみをピックアップして、正常又は疾患に関するラベルを付ける。このことによって、医師によるアノテーションの負荷を低減することができる。 Further, the trained model used by the estimation unit 123 may be generated by using unsupervised learning. In unsupervised learning, map and image data with similar characteristics can be classified together. An expert such as a doctor picks up only a certain number of data from the classified data group and labels them as normal or disease. This makes it possible to reduce the load of annotation by the doctor.

さらに、推定部123が用いる学習済モデルは、「正常」のラベル付けがされたデータのみを用いて学習を行ったものであってもよい。この場合、例えば、学習済モデルは、対称性マップが正常な被検眼に関する対称性マップからどのくらい乖離しているか(乖離度)を出力する。推定部123は、この乖離度に基づいて、対称性マップに係る被検眼の状態が正常か病気かを推定することができる。また、この推定に用いる乖離度の閾値は、別途、疾患データでテストして定めてもよい。この場合、学習済モデルは、CNNや、後述するGAN、変分オートエンコーダー、畳み込みオートエンコーダー等を用いて構成されてよい。 Further, the trained model used by the estimation unit 123 may be trained using only the data labeled as “normal”. In this case, for example, the trained model outputs how much the symmetry map deviates from the symmetry map for the normal eye to be inspected (dissociation degree). Based on this degree of deviation, the estimation unit 123 can estimate whether the state of the eye to be inspected related to the symmetry map is normal or sick. Further, the threshold value of the degree of deviation used for this estimation may be separately set by testing with disease data. In this case, the trained model may be configured by using a CNN, a GAN described later, a variational autoencoder, a convolutional autoencoder, or the like.

また、推定部123が使用する学習済モデルを生成する時、強度近視の該非の情報も学習データの入力データに含めて学習してもよい。このことによって、眼軸長が長いために網膜全体が薄くなる影響も含めて学習することができる。 Further, when the trained model used by the estimation unit 123 is generated, the non-information on the intensity myopia may be included in the input data of the training data for training. This makes it possible to learn about the effect of thinning the entire retina due to the long axial length.

さらに、検者は、撮影装置101を用いて取得された画像又は画像処理部122で生成された厚みマップや対称性マップ等を見て、自身の医学的な知見による判定結果を操作部104により制御部102に入力してもよい。表示制御部125は、検者が入力した判定結果と、推定部123が出力した推定結果が異なっていた場合に、表示部103に注意喚起メッセージを表示させることができる。この場合、表示制御部125は、上述した注意マップも同時に表示部103に表示させてもよい。また、表示制御部125は、推定部123の推定結果を、検者が判定結果を入力した後に表示部103に表示させるようにしてもよい。 Further, the examiner looks at the image acquired by using the photographing apparatus 101, the thickness map, the symmetry map, etc. generated by the image processing unit 122, and determines the determination result based on his / her medical knowledge by the operation unit 104. It may be input to the control unit 102. The display control unit 125 can cause the display unit 103 to display a warning message when the determination result input by the examiner and the estimation result output by the estimation unit 123 are different. In this case, the display control unit 125 may display the above-mentioned caution map on the display unit 103 at the same time. Further, the display control unit 125 may display the estimation result of the estimation unit 123 on the display unit 103 after the examiner inputs the determination result.

画像処理部122は、ステップS221において、厚みマップに代えて、撮影装置101等で取得した被検眼の眼底の断層に関する3次元データをボリュームレンダリングした正面画像(En−Face画像)を生成してもよい。この場合、推定部123は、画像処理部122がEn−Face画像を用いて生成した対称性マップから推定した眼科疾患に関する推定結果を出力することができる。緑内障などによって神経線維層が菲薄化した場合、高輝度反射層の割合が少なくなるため、菲薄化領域の輝度値が低下する。そのため、厚みマップだけではなく、En−Face画像を用いることでも、神経線維層の菲薄化を検出できる。 In step S221, the image processing unit 122 may generate a front image (En-Face image) in which three-dimensional data regarding the tomography of the fundus of the eye to be inspected acquired by the photographing apparatus 101 or the like is volume-rendered instead of the thickness map. good. In this case, the estimation unit 123 can output the estimation result regarding the ophthalmic disease estimated from the symmetry map generated by the image processing unit 122 using the En-Face image. When the nerve fiber layer is thinned due to glaucoma or the like, the proportion of the high-luminance reflective layer is reduced, so that the brightness value of the thinned region is lowered. Therefore, thinning of the nerve fiber layer can be detected not only by using the thickness map but also by using the En-Face image.

また、画像処理部122は、眼底写真、前眼部写真やSLO画像など他の撮影技術で取得された画像に対して、上記のステップS22と同様に画像処理を行い、対称性マップを生成してもよい。さらに、画像処理部122は、断層画像や眼底写真、前眼部写真、SLO画像、En−Face画像、OCTA画像等を解析して得た解析マップに対して、上記のステップS22と同様に画像処理を行い、対称性マップを生成してもよい。ここで、解析マップには、例えば、上述した厚みマップや、OCTA画像を解析して得た各XY位置における血管密度を示す血管密度マップ等が含まれる。なお、血管密度マップ等の解析マップの生成方法は公知の任意の手法を用いてよい。この場合にも、推定部123は、画像処理部122が生成した対称性マップから推定した被検体の疾患に関する推定結果を出力することができる。このようにすることで、例えば緑内障のように健常時には画像は対称性を示すが疾患時に対称性が損なわれるような症状の検出精度を向上させることができる。 Further, the image processing unit 122 performs image processing on images acquired by other photographing techniques such as a fundus photograph, an anterior eye portion photograph, and an SLO image in the same manner as in step S22 above to generate a symmetry map. You may. Further, the image processing unit 122 has the same image as in step S22 for the analysis map obtained by analyzing the tomographic image, the fundus photograph, the anterior segment photograph, the SLO image, the En-Face image, the OCTA image, and the like. Processing may be performed to generate a symmetry map. Here, the analysis map includes, for example, the above-mentioned thickness map, a blood vessel density map showing the blood vessel density at each XY position obtained by analyzing the OCTA image, and the like. As a method for generating an analysis map such as a blood vessel density map, any known method may be used. Also in this case, the estimation unit 123 can output the estimation result regarding the disease of the subject estimated from the symmetry map generated by the image processing unit 122. By doing so, it is possible to improve the detection accuracy of a symptom such as glaucoma in which the image shows symmetry at normal times but the symmetry is impaired at the time of disease.

画像処理部122は、上記と同様の処理により、OCTA画像又は干渉信号に関するデータをボリュームレンダリングした輝度のEn−Face画像などから対称性マップを生成してもよい。この場合にも、推定部123は、生成された対称性マップから推定した推定結果を出力してよい。 The image processing unit 122 may generate a symmetry map from an OCTA image, an En-Face image having a brightness obtained by volume rendering of data related to an interference signal, or the like by the same processing as described above. In this case as well, the estimation unit 123 may output the estimation result estimated from the generated symmetry map.

従って、対称性マップの生成に用いられる医用画像の一例である眼底画像は、厚みマップ等の解析マップ、3次元の断層画像、眼底写真、前眼部写真、SLO画像、OCTA画像、及びEn−Face画像の少なくとも1つを含んでよい。なお、これらの場合には、推定部123が用いる学習済モデルの学習データの入力データは、画像処理部122が生成する対称性マップと同種のものであればよい。例えば、画像処理部122がEn−Face画像やOCTA画像から対称性マップを生成する場合、学習データの入力データもEn−Face画像やOCTA画像から生成された対称性マップとすればよい。また、推定部123は、これらの場合にも、糖尿病性網膜症や加齢黄斑変性など緑内障以外の眼科疾患や、高血圧や動脈硬化等の循環器疾患、糖尿病や甲状腺機能亢進症等の内分泌疾患、脳梗塞や脳腫瘍、認知症等の脳疾患等に関する推定結果を行ってもよい。 Therefore, the fundus image, which is an example of the medical image used to generate the symmetry map, is an analysis map such as a thickness map, a three-dimensional tomographic image, a fundus photograph, an anterior segment photograph, an SLO image, an OCTA image, and En-. At least one of the face images may be included. In these cases, the input data of the training data of the trained model used by the estimation unit 123 may be the same as the symmetry map generated by the image processing unit 122. For example, when the image processing unit 122 generates a symmetry map from an En-Face image or an OCTA image, the input data of the training data may also be a symmetry map generated from the En-Face image or the OCTA image. In these cases, the estimation unit 123 also includes ophthalmic diseases other than glaucoma such as diabetic retinopathy and age-related yellow spot degeneration, cardiovascular diseases such as hypertension and arteriosclerosis, and endocrine diseases such as diabetes and hyperthyroidism. , Estimated results regarding brain diseases such as cerebral infarction, brain tumor, and dementia may be performed.

また、推定部123は、解析マップ、眼底写真、前眼部写真、SLO画像、En−Face画像、及びOCTA画像のうち少なくとも2つを用いて生成されたそれぞれの対称性マップを学習済モデルに入力してもよい。例えば、画像処理部122は、厚みマップから第1の対称性マップを生成し、OCTA画像から第2の対称性マップを生成し、推定部123は、第1の対称性マップ及び第2の対称性マップを学習済モデルに入力してよい。この場合、学習済モデルの学習データは、推定部123によって入力される対称性マップと同種の対称性マップを入力データとしたものであればよい。また、推定部123は、これらの対称性マップ毎に生成された学習済モデルを用いて、推定処理を行ってもよい。この場合、推定部123は、各学習済モデルからの出力をそれぞれ推定結果として出力してもよいし、複数の学習済モデルのうちの一つの学習済モデルの出力を推定結果として出力してもよい。例えば、推定部123は、複数の学習済モデルの一つの学習済モデルの出力が「異常」であった場合に、「異常」の推定結果を出力してもよい。 Further, the estimation unit 123 uses at least two of the analysis map, the fundus photograph, the anterior eye portion photograph, the SLO image, the En-Face image, and the OCTA image as the trained model. You may enter it. For example, the image processing unit 122 generates a first symmetry map from the thickness map and a second symmetry map from the OCTA image, and the estimation unit 123 generates a first symmetry map and a second symmetry map. You may enter the sex map into the trained model. In this case, the training data of the trained model may be any symmetry map of the same type as the symmetry map input by the estimation unit 123 as input data. Further, the estimation unit 123 may perform estimation processing using the trained model generated for each of these symmetry maps. In this case, the estimation unit 123 may output the output from each trained model as an estimation result, or may output the output of one of the plurality of trained models as an estimation result. good. For example, the estimation unit 123 may output the estimation result of "abnormality" when the output of one of the learned models of the plurality of trained models is "abnormal".

なお、En−Face画像は、例えば、SLO画像や、蛍光撮影された眼底画像、OCTで取得したデータ(3次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成された正面画像であってよい。また、OCTA画像は、3次元のOCTAデータ(3次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn−Face画像(モーションコントラスト正面画像)であってよい。 As the En-Face image, for example, an SLO image, a fluorescently photographed fundus image, and data acquired by OCT (three-dimensional OCT data) are used for at least a part of the data in the depth direction of the object to be imaged. It may be a front image generated by the above. Further, the OCTA image is an OCTA En-Face image (motion contrast front image) generated by using data in at least a part of the depth direction of the object to be photographed for the three-dimensional OCTA data (three-dimensional motion contrast data). ) May be.

ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。 Here, the motion contrast data is data showing a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast front image is also referred to as an OCTA front image (OCTA En-Face image) relating to OCTA angiography (OCTA) for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data.

モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。なお、略同一位置を測定光が複数回走査されるように走査手段を制御する際に、1つの走査(1つのBスキャン)と次の走査(次のBスキャン)との時間間隔(タイムインターバル)が変更(決定)されるように構成されてもよい。これにより、例えば、血管の状態によって血流速度が異なる場合があっても、血管領域を精度よく可視化することができる。 The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , Can be determined by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. When controlling the scanning means so that the measurement light is scanned multiple times at substantially the same position, the time interval (time interval) between one scan (one B scan) and the next scan (next B scan). ) May be modified (determined). Thereby, for example, even if the blood flow velocity may differ depending on the state of the blood vessel, the blood vessel region can be visualized with high accuracy.

このとき、例えば、検者からの指示に応じて、上記時間間隔が変更可能に構成されてもよい。また、例えば、検者からの指示に応じて、予め設定されている複数の時間間隔に対応する複数のモーションコントラスト画像から、いずれかのモーションコントラスト画像が選択可能に構成されてもよい。さらに、例えば、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータとを対応づけて記憶部126に記憶可能に構成されてもよい。また、例えば、表示制御部125、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータに対応するモーションコントラスト画像とを表示部103に表示させてもよい。さらに、例えば、上記時間間隔が自動的に決定、あるいは上記時間間隔の少なくとも1つの候補が決定されるように構成されてもよい。このとき、例えば、機械学習モデルを用いて、モーションコントラスト画像から、上記時間間隔が決定(出力)されるように構成されてもよい。このような機械学習モデルは、例えば、複数の時間間隔に対応する複数のモーションコントラスト画像を入力データとし、該複数の時間間隔から所望のモーションコントラスト画像を取得した際の時間間隔までの差を正解データとする学習データを学習することにより得ることができる。 At this time, for example, the time interval may be changed so as to be instructed by the examiner. Further, for example, any motion contrast image may be configured to be selectable from a plurality of motion contrast images corresponding to a plurality of preset time intervals according to an instruction from the examiner. Further, for example, the time interval at which the motion contrast data is acquired may be associated with the motion contrast data so that the motion contrast data can be stored in the storage unit 126. Further, for example, the display control unit 125 may display the time interval when the motion contrast data is acquired and the motion contrast image corresponding to the motion contrast data on the display unit 103. Further, for example, the time interval may be automatically determined, or at least one candidate for the time interval may be determined. At this time, for example, using a machine learning model, the time interval may be determined (output) from the motion contrast image. In such a machine learning model, for example, a plurality of motion contrast images corresponding to a plurality of time intervals are used as input data, and the difference from the plurality of time intervals to the time interval when a desired motion contrast image is acquired is correctly answered. Learning as data It can be obtained by learning the data.

また、En−Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像とすることができる。このとき、正面画像は、光干渉を用いて得たボリュームデータ(3次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影又は積算して生成される。En−Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを2次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 Further, the En-Face image can be, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and is the data corresponding to the depth range determined based on the two reference planes. Is projected or integrated on a two-dimensional plane. The En-Face image is a frontal image generated by projecting the data corresponding to the depth range determined based on the detected retinal layer among the volume data onto a two-dimensional plane. As a method of projecting data corresponding to a depth range determined based on two reference planes onto a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the detected retinal layer. May be good. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to the instruction of the operator from the range between the two layer boundaries regarding the detected retinal layer. good.

さらに、本実施形態の他の一例では、画像処理部122は、ステップS22で、解析マップやOCTA画像、En−Face画像、眼底写真、前眼部写真、SLO画像等から一部の領域を切り出した画像を生成することができる。例えば、乳頭部と黄斑部の両方が写っているような広画角な厚みマップから、乳頭部近辺のみを抽出した厚みマップ、又は黄斑部近辺のみを抽出した厚みマップを生成する。抽出する部位は、診断対象となる疾患によって選択されることができる。さらに、画像処理部122は、抽出した厚みマップに対してそれぞれ対称性マップを生成する。言い換えると、画像処理部122は、医用画像から抽出した領域の画像を用いて対称性マップを生成することができる。推定部123は、学習済モデルを用いて、このように生成された各領域の対称性マップから病変に関する推定処理を行うことができる。 Further, in another example of the present embodiment, the image processing unit 122 cuts out a part of the region from the analysis map, OCTA image, En-Face image, fundus photograph, anterior eye portion photograph, SLO image, etc. in step S22. Images can be generated. For example, from a wide angle-of-view thickness map in which both the nipple and the macula are shown, a thickness map in which only the vicinity of the nipple is extracted or a thickness map in which only the vicinity of the macula is extracted is generated. The site to be extracted can be selected according to the disease to be diagnosed. Further, the image processing unit 122 generates a symmetry map for each of the extracted thickness maps. In other words, the image processing unit 122 can generate a symmetry map using the image of the region extracted from the medical image. The estimation unit 123 can perform estimation processing on the lesion from the symmetry map of each region generated in this way by using the trained model.

推定部123は、例えば、学習済モデルを用いて黄斑部近辺に関する対称性マップから推定した推定結果と、学習済モデルを用いて乳頭部近辺に関する対称性マップから推定した推定結果とから、疾患に関して最終的な推定結果を出力することができる。なお、推定部123が用いる学習済モデルは、領域ごとに個別に生成したモデルでもよいし、共通のモデルでもよい。例えば、推定部123は、黄斑部近辺の対称性マップから推定した結果が「正常」であっても、乳頭部近辺の対称性マップから推定した結果が「緑内障」であれば、最終的な推定結果を「緑内障」として出力することができる。また、推定部123は、黄斑部近辺の対称性マップから推定した結果と乳頭部近辺の対称性マップから推定した結果がいずれも「正常」であっても、両方ともに緑内障の確率が一定以上あれば「緑内障の疑いがあること」を出力してもよい。また、各領域における推定結果と、それらの組み合わせによる最終結果とをさらに学習させて、最終的な機械学習モデルを生成してもよい。 The estimation unit 123 relates to the disease, for example, from the estimation result estimated from the symmetry map for the vicinity of the macula using the trained model and the estimation result estimated from the symmetry map for the vicinity of the papilla using the trained model. The final estimation result can be output. The trained model used by the estimation unit 123 may be a model generated individually for each region or a common model. For example, the estimation unit 123 makes a final estimation if the result estimated from the symmetry map near the macula is "normal" but the result estimated from the symmetry map near the papilla is "glaucoma". The result can be output as "glaucoma". In addition, even if the result estimated from the symmetry map near the macula and the result estimated from the symmetry map near the papilla are both "normal", the estimation unit 123 has a certain probability of glaucoma or more. For example, "suspicion of glaucoma" may be output. Further, the estimation result in each region and the final result by the combination thereof may be further learned to generate the final machine learning model.

なお、ここでは、対称性マップのみを学習済モデルに入力する例について述べたが、上述の学習済モデルと同様に、対称性マップに加えて2次元又は3次元の断層画像、解析マップ、OCTA画像、眼底写真、前眼部写真、SLO画像、及び患者情報等を学習済モデルに入力してもよい。この場合、学習データも対応するものとすればよい。なお、学習済モデルに入力する画像は、対称性マップに係る領域についての画像であってもよい。 Here, an example in which only the symmetry map is input to the trained model has been described. However, as in the above-mentioned trained model, in addition to the symmetry map, a two-dimensional or three-dimensional tomographic image, an analysis map, and an OCTA are described. Images, fundus photographs, anterior segment photographs, SLO images, patient information, etc. may be input to the trained model. In this case, the learning data may also correspond. The image input to the trained model may be an image about the region related to the symmetry map.

また、厚みマップ等の解析マップは黄斑部及び乳頭部を含むものに限られない。例えば、篩状板を含む厚みマップでもあってもよい。また、黄斑部や乳頭部と篩状板とを含む厚みマップであってもよい。 Further, the analysis map such as the thickness map is not limited to the one including the macula and the papilla. For example, it may be a thickness map including a sieve plate. Further, the thickness map may include the macula, the papilla, and the lamina cribrosa.

さらに、本実施形態の他の一例では、画像処理部122は、診断対象となる疾患に応じて、推定結果の正解率が最大となるように、取得部121が取得した画像から抽出する範囲(ROI:Region Of Interest)を最適化してもよい。この最適化は、例えば、推定結果を取得するための学習済モデルとは異なる学習済モデル用いて行われてよい。また、このROIは、画像の位置合わせを行った後に、医学的な知見に基づいて一律に指定してもよい。例えば、緑内障であれば乳頭付近、網膜血管疾患、加齢黄斑変性症、又は糖尿病性網膜症であれば黄斑付近討をROIとして指定してよい。 Further, in another example of the present embodiment, the image processing unit 122 extracts from the image acquired by the acquisition unit 121 so that the correct answer rate of the estimation result is maximized according to the disease to be diagnosed. ROI: Region Of Interest) may be optimized. This optimization may be performed, for example, using a trained model different from the trained model for acquiring the estimation result. Further, this ROI may be uniformly specified based on medical knowledge after the image is aligned. For example, near the papilla for glaucoma, retinal vascular disease, age-related macular degeneration, or near diabetic retinopathy may be designated as ROI.

また、推定部123は、推定処理の過程で画像の質に関する評価を行ってもよい。画像の質の評価方法は公知の任意の方法を用いて行われてよい。例えば、ROIが小さすぎる場合、疾患を推定するための情報が不足し、画像の質は低く評価されてよい。ROIの画像の質が不十分であると判定された場合は、画像処理部122がROIを広げる処理などを行ってよい。 Further, the estimation unit 123 may evaluate the quality of the image in the process of estimation processing. The image quality evaluation method may be performed using any known method. For example, if the ROI is too small, there is not enough information to estimate the disease and the image quality may be underestimated. If it is determined that the image quality of the ROI is insufficient, the image processing unit 122 may perform a process of expanding the ROI.

また、眼の観察対象部位が前眼部といった眼底以外である場合も、以上の処理を同様に行い、所望の解析を行うことができる。この場合、学習データは推定部123によって学習済モデルに入力されるデータと同種のものであればよく、例えば、前眼部についての医用画像を用いて生成された対称性マップ等であればよい。また、厚みマップは網膜の少なくとも1つの層の厚みではなく、前眼部の少なくとも1つの層の厚みを示す厚みマップであってよい。 Further, when the observation target portion of the eye is other than the fundus such as the anterior segment of the eye, the above processing can be performed in the same manner to perform a desired analysis. In this case, the training data may be of the same type as the data input to the trained model by the estimation unit 123, and may be, for example, a symmetry map generated using a medical image of the anterior eye portion. .. Further, the thickness map may be a thickness map showing the thickness of at least one layer of the anterior eye portion, not the thickness of at least one layer of the retina.

[第2実施形態]
次に、図2を参照して第2実施形態について説明する。本実施形態は、単一時刻に取得された複数種類(モダリティ)の画像に基づいて複数の眼科疾患に関する推定を行う。なお、本実施形態に係る制御部の構成は、第1実施形態に係る制御部102と同様であるため、同じ参照符号を用いて説明を省略する。以下、第1実施形態との違いを中心に本実施形態に係る制御部102について説明する。なお、本実施形態に係る推定対象も眼科疾患に限られず、全身疾患であってよい。
[Second Embodiment]
Next, the second embodiment will be described with reference to FIG. This embodiment estimates a plurality of ophthalmic diseases based on a plurality of types (modality) of images acquired at a single time. Since the configuration of the control unit according to the present embodiment is the same as that of the control unit 102 according to the first embodiment, the same reference numerals will be used and the description thereof will be omitted. Hereinafter, the control unit 102 according to the present embodiment will be described with a focus on the differences from the first embodiment. The estimation target according to the present embodiment is not limited to ophthalmic diseases, and may be systemic diseases.

OCTや眼底カメラなど、異なる種類の撮影技術で被検眼の眼底を撮影することで、眼底に関してそれぞれ異なる情報を取得することができる。そのため、これらの情報を組み合わせることで、より多くの情報を得ることができる。そこで、本実施形態に係る制御部102は、複数種類の画像を用いて複数の眼科疾患に関する推定を行う。なお、本実施形態に係る画像処理の動作は、図2のフローチャートで示される動作と同様の処理であるため、同じ参照符号を用いて説明する。 By photographing the fundus of the eye to be inspected with different types of imaging techniques such as OCT and fundus camera, it is possible to acquire different information about the fundus. Therefore, more information can be obtained by combining these information. Therefore, the control unit 102 according to the present embodiment estimates a plurality of ophthalmic diseases using a plurality of types of images. Since the operation of the image processing according to the present embodiment is the same as the operation shown in the flowchart of FIG. 2, it will be described using the same reference numerals.

[ステップS21:データ取得]
ステップS21において、本実施形態に係る取得部121は、撮影装置101を用いて複数の撮影技術で撮影した画像を取得する。この撮影技術は、OCT、眼底カメラ、SLO、及びOCTAなどを含み得る。なお、検者が操作部104を介して診断対象とする単一又は複数の症状を指定し、それに応じて、取得部121が、取得する画像の組み合わせを選んでもよい。例えば、取得部121は、緑内障を診断するときは断層画像と眼底写真のいずれか又は両方を取得し、糖尿病網膜症を診断するときは眼底写真又はOCTA画像を取得する。また、取得部121は、断層画像と眼底写真の両方を取得して、緑内障と糖尿病網膜症の両方を診断対象としてもよい。なお、第1実施形態と同様に、取得部121は、断層画像や眼底写真等を不図示の外部装置から取得してもよい。また、取得部121は、干渉信号を取得してもよい。
[Step S21: Data acquisition]
In step S21, the acquisition unit 121 according to the present embodiment acquires images captured by a plurality of imaging techniques using the imaging device 101. This imaging technique may include OCT, fundus camera, SLO, OCTA and the like. The examiner may specify a single or a plurality of symptoms to be diagnosed via the operation unit 104, and the acquisition unit 121 may select a combination of images to be acquired accordingly. For example, the acquisition unit 121 acquires either or both of a tomographic image and a fundus photograph when diagnosing glaucoma, and acquires a fundus photograph or an OCTA image when diagnosing diabetic retinopathy. In addition, the acquisition unit 121 may acquire both a tomographic image and a fundus photograph to diagnose both glaucoma and diabetic retinopathy. As in the first embodiment, the acquisition unit 121 may acquire a tomographic image, a fundus photograph, or the like from an external device (not shown). Further, the acquisition unit 121 may acquire an interference signal.

本実施形態の一例では、取得部121は断層画像と眼底写真を取得する。断層画像と眼底写真の両方を撮影する場合は、先に断層画像を取得し、その後に眼底写真を取得することができる。これによって、眼底写真撮影時の縮瞳による断層画像への影響を回避することができる。ただし、撮影順序はこれに限られず、所望の構成に応じて変更されてよい。 In one example of this embodiment, the acquisition unit 121 acquires a tomographic image and a fundus photograph. When taking both a tomographic image and a fundus photograph, the tomographic image can be acquired first, and then the fundus photograph can be acquired. This makes it possible to avoid the influence of miosis on the tomographic image during fundus photography. However, the shooting order is not limited to this, and may be changed according to a desired configuration.

[ステップS22:画像処理]
ステップS22では、画像処理部122は、断層画像から第1の実施形態と同様に、対称性マップを生成する。なお、画像処理部122は、血管密度マップ等の解析マップや、眼底写真、前眼部写真、SLO画像、OCTA画像、En−Face画像等を用いて対称性マップを生成してもよい。また、画像処理部122は、診断対象とする眼科疾患に応じて、対称性マップを生成するために画像処理する画像を選択することができる。例えば、画像処理部122は、緑内障が診断対象の一つとされる場合には、対称性マップを生成するための画像として断層画像や厚みマップを選択することができる。また、例えば、糖尿病性網膜症が診断対象の一つとされる場合には、対称性マップを生成するための画像としてOCTA画像を選択することができる。
[Step S22: Image processing]
In step S22, the image processing unit 122 generates a symmetry map from the tomographic image as in the first embodiment. The image processing unit 122 may generate a symmetry map using an analysis map such as a blood vessel density map, a fundus photograph, an anterior eye portion photograph, an SLO image, an OCTA image, an En-Face image, or the like. Further, the image processing unit 122 can select an image to be image-processed in order to generate a symmetry map according to the ophthalmologic disease to be diagnosed. For example, when glaucoma is one of the diagnosis targets, the image processing unit 122 can select a tomographic image or a thickness map as an image for generating a symmetry map. Further, for example, when diabetic retinopathy is one of the diagnostic targets, an OCTA image can be selected as an image for generating a symmetry map.

[ステップS23:推定]
ステップS23では、推定部123は、ステップS22で生成された対称性マップ及びステップS21で取得された画像等を用いて、複数の疾患に関して段階的に推定処理を行う。推定部123は、疾患毎に異なる学習済モデルを用いて推定処理を行う。各種学習済モデルは記憶部126に記憶されている。なお、第1実施形態の変形例で述べたように、学習済モデルは制御部102に接続される外部装置に設けられていてもよい。
[Step S23: Estimate]
In step S23, the estimation unit 123 performs stepwise estimation processing for a plurality of diseases using the symmetry map generated in step S22, the image acquired in step S21, and the like. The estimation unit 123 performs estimation processing using a learned model that differs for each disease. Various trained models are stored in the storage unit 126. As described in the modified example of the first embodiment, the trained model may be provided in an external device connected to the control unit 102.

例えば、推定部123は、最初に断層画像又は眼底写真の少なくとも一方から、被検眼に混濁があるか否かの推定処理を行う。この推定処理は、画像のコントラスト評価や、学習済モデルを用いた評価により行われる。なお、学習済モデルは、断層画像や眼底写真を入力データとし、混濁があるか否かのラベルを出力データとした学習データを学習した機械学習モデルであればよい。この場合の出力データは、医師等の有識者が断層画像等を用いて被検眼について診断を行った診断結果を用いて生成されてよい。 For example, the estimation unit 123 first estimates whether or not the eye to be inspected is opaque from at least one of the tomographic image and the fundus photograph. This estimation process is performed by image contrast evaluation or evaluation using a trained model. The trained model may be a machine learning model in which training data is trained using a tomographic image or a fundus photograph as input data and a label as to whether or not there is opacity as output data. The output data in this case may be generated by using the diagnosis result in which an expert such as a doctor diagnoses the eye to be inspected using a tomographic image or the like.

推定部123は、学習済モデルからの出力のうち「混濁がある」とする確率が高い場合は、被検眼が白内障である可能性を示す推定結果を出力する。なお、推定部123は、学習済モデルからの出力のうち「混濁がある」とする確率が閾値より高い場合に、被検眼が白内障である可能性を示す推定結果を出力してもよい。また、推定部学習済モデルからの出力のうち「混濁がない」又は「正常」とする確率が高い場合は、被検眼の状態が正常であることを示す推定結果を出力する。表示制御部125は、推定部123から出力された推定結果を表示部103に表示させる。このとき、画像処理部122は、混濁による断層画像や眼底写真等の画像のボケを、コントラスト強調処理などで低減してもよい。 The estimation unit 123 outputs an estimation result indicating that the eye to be inspected may have cataract when there is a high probability that the output from the trained model is “opaque”. The estimation unit 123 may output an estimation result indicating that the eye to be inspected may have cataract when the probability of "having opacity" among the outputs from the trained model is higher than the threshold value. Further, when the probability of "no turbidity" or "normal" among the outputs from the estimated unit trained model is high, the estimation result indicating that the condition of the eye to be inspected is normal is output. The display control unit 125 causes the display unit 103 to display the estimation result output from the estimation unit 123. At this time, the image processing unit 122 may reduce blurring of images such as tomographic images and fundus photographs due to turbidity by contrast enhancement processing or the like.

次に推定部123は、学習済モデルを用いて、断層画像から生成された厚みマップ又は眼底写真等に基づいて生成された対称性マップから糖尿病網膜症であるか否かの推定処理を行う。なお、糖尿病網膜症の推定処理に用いる学習済モデルは、第1実施形態で述べた学習済モデルと同様の学習済モデルであってよい。また、OCTA画像を用いて生成された対称性マップを糖尿病網膜症の推定処理に用いることで、推定処理の精度を向上させることができると期待できる。ただし、厚みマップや眼底写真、En−Face画像等を用いて生成された対称性マップを用いて糖尿病網膜症の推定処理を行ってもよい。 Next, the estimation unit 123 performs estimation processing of whether or not the patient has diabetic retinopathy from the thickness map generated from the tomographic image or the symmetry map generated based on the fundus photograph or the like using the trained model. The trained model used for the estimation processing of diabetic retinopathy may be the same trained model as the trained model described in the first embodiment. In addition, it can be expected that the accuracy of the estimation process can be improved by using the symmetry map generated using the OCTA image for the estimation process of diabetic retinopathy. However, the estimation process of diabetic retinopathy may be performed using a symmetry map generated by using a thickness map, a fundus photograph, an En-Face image, or the like.

その次に推定部123は、断層画像から生成された厚みマップ又は眼底写真等から、加齢黄斑変性症であるか否かを、機械学習モデルによって判定する。なお、加齢黄斑変性症の推定処理に用いる学習済モデルは、第1実施形態で述べた学習済モデルと同様の学習済モデルであってよい。また、En−Face画像やOCTA画像を用いて生成された対称性マップを加齢黄斑変性症の推定処理に用いてもよい。 Next, the estimation unit 123 determines whether or not it is age-related macular degeneration by a machine learning model from a thickness map or a fundus photograph generated from a tomographic image. The trained model used for the estimation process of age-related macular degeneration may be the same trained model as the trained model described in the first embodiment. Further, the symmetry map generated by using the En-Face image or the OCTA image may be used for the estimation process of age-related macular degeneration.

最後に、推定部123は、断層画像から生成された厚みマップ又は眼底写真等から、緑内障であるか否かを、機械学習モデルによって判定する。なお、緑内障の推定処理に用いる学習済モデルは、第1実施形態で述べた学習済モデルと同様の学習済モデルであってよい。また、En−Face画像やOCTA画像を用いて生成された対称性マップを緑内障の推定処理に用いてもよい。 Finally, the estimation unit 123 determines whether or not glaucoma is caused by a machine learning model from a thickness map or a fundus photograph generated from a tomographic image. The trained model used for the glaucoma estimation process may be the same trained model as the trained model described in the first embodiment. In addition, a symmetry map generated using an En-Face image or an OCTA image may be used for glaucoma estimation processing.

推定部123は、これらの各推定結果を出力する。表示制御部125は、推定部123から出力された各推定結果を表示部103に表示させることができる。なお、推定部123は、白内障、糖尿病性網膜症、加齢黄斑変性症、及び緑内障に関する推定結果を、不図示の外部装置に出力してもよい。 The estimation unit 123 outputs each of these estimation results. The display control unit 125 can display each estimation result output from the estimation unit 123 on the display unit 103. The estimation unit 123 may output the estimation results regarding cataract, diabetic retinopathy, age-related macular degeneration, and glaucoma to an external device (not shown).

上記のように、本実施形態に係る制御部102では、学習済モデルは、複数の学習済モデルを含み、推定部123は、診断対象とする疾患に応じて、複数の学習済モデルのうちから選択された学習済モデルを用いて推定された推定結果を出力する。また、推定部123は、複数の疾患の推定処理を行うために、それぞれ疾患の推定処理に応じた複数段階の推定結果を出力することができる。なお、画像処理部122は、診断対象とする疾患に応じて、画像処理する画像を選択することもできる。 As described above, in the control unit 102 according to the present embodiment, the trained model includes a plurality of trained models, and the estimation unit 123 is selected from the plurality of trained models according to the disease to be diagnosed. Output the estimation result estimated using the selected trained model. Further, the estimation unit 123 can output a plurality of stages of estimation results according to the disease estimation processing in order to perform the estimation processing of the plurality of diseases. The image processing unit 122 can also select an image to be image-processed according to the disease to be diagnosed.

このように段階的に推定を行うことによって、各学習済モデルは個別の症状のみに関する処理を行うモデルであればよくなる。このため、一つの学習済モデルで各疾患に関する処理を行うよりも、推定精度を向上させることができる。また、学習データの準備の負荷も低減することができる。 By performing the estimation step by step in this way, each trained model may be a model that processes only individual symptoms. Therefore, it is possible to improve the estimation accuracy as compared with the processing for each disease with one trained model. In addition, the load of preparing training data can be reduced.

なお、推定部123が段階的に疾患を推定する際、一例として、推定しやすい(推定精度が高い)疾患から順に推定を行うことができる。また、推定部123は、段階的に疾患を推定する際に、いずれかの段階で疾患を推定した場合に、以降の段階の推定処理を省略してもよい。この場合、推定しにくい(推定精度が低い)疾患について、被検体がより推定精度が高い疾患を有している可能性が除外されることで、正常とその疾患の差異の検出精度(疾患の推定精度)を向上させることができる。ただし、推定の順序は推定しやすい疾患の順に限らず、所望の構成に応じて任意に設定されてよい。また、推定部123は、異なる学習済モデルを用いた複数の疾患に関する推定処理を並列に行ってもよい。 When the estimation unit 123 estimates the disease step by step, as an example, the estimation can be performed in order from the disease that is easy to estimate (high estimation accuracy). Further, when the disease is estimated step by step, the estimation unit 123 may omit the estimation process of the subsequent steps when the disease is estimated at any stage. In this case, for diseases that are difficult to estimate (low estimation accuracy), the possibility that the subject has a disease with higher estimation accuracy is excluded, so that the detection accuracy (of the disease) of the difference between normal and the disease is excluded. Estimation accuracy) can be improved. However, the order of estimation is not limited to the order of diseases that are easy to estimate, and may be arbitrarily set according to a desired configuration. Further, the estimation unit 123 may perform estimation processing for a plurality of diseases using different trained models in parallel.

また、例えば、推定すべき被検眼の疾患が主に緑内障である場合、先んじて糖尿病性網膜症や加齢黄斑変性症であると推定された場合、表示制御部125は表示部103に警告を表示させてもよい。この場合、表示制御部125は、例えば、「この患者は判断できません」又は「糖尿病性網膜症又は加齢黄斑変性症の疑いもあるため、緑内障の判断には注意してください」等の警告を表示部103に表示させてもよい。 Further, for example, when the disease of the eye to be presumed is mainly glaucoma, and when it is presumed to be diabetic retinopathy or age-related macular degeneration in advance, the display control unit 125 warns the display unit 103. It may be displayed. In this case, the display control unit 125 issues a warning such as "This patient cannot be determined" or "Be careful in determining glaucoma because there is a suspicion of diabetic retinopathy or age-related macular degeneration." It may be displayed on the display unit 103.

また、推定部123は、例えば、眼底写真と断層画像の両方を用いて緑内障の推定処理を行う場合は、どちらかの推定結果が「正常」であっても、もう一方の推定結果が「緑内障」であれば、最終的な推定結果は「緑内障」として出力することができる。この場合には、一方の推定結果では緑内障等の眼科疾患が疑われる事例を看過してしまうことを防止できる。 Further, for example, when the estimation unit 123 performs glaucoma estimation processing using both a fundus photograph and a tomographic image, even if one of the estimation results is "normal", the other estimation result is "glaucoma". If, the final estimation result can be output as "glaucoma". In this case, it is possible to prevent overlooking a case in which an ophthalmic disease such as glaucoma is suspected in one of the estimation results.

[第2実施形態の変形例]
なお、本実施形態では、異なる学習済モデルを用いて、糖尿病性網膜症、加齢黄斑変性症、及び緑内障の推定処理を行う例について述べた。しかしながら、これらの推定処理のうち少なくとも一つを被検眼の構造等に基づくルールベースの推定処理により行ってもよい。なお、ルールベースの推定処理は公知の任意の手法を用いて行われてよい。
[Modified example of the second embodiment]
In this embodiment, an example of performing estimation processing of diabetic retinopathy, age-related macular degeneration, and glaucoma using different learned models has been described. However, at least one of these estimation processes may be performed by a rule-based estimation process based on the structure of the eye to be inspected or the like. The rule-based estimation process may be performed by any known method.

また、本実施形態では、対称性マップから、糖尿病性網膜症、加齢黄斑変性症、及び緑内障の推定処理を行う例について述べた。しかしながら、これら推定処理のうち少なくとも一つを断層画像、解析マップ、En−Face画像、OCTA画像、眼底写真、前眼部写真、SLO画像等を用いて行ってもよい。この場合には、これら画像の少なくともいずれかに基づいて、疾患の推定処理を行う学習済モデルを用いた推定処理を行ってもよいし、ルールベースの推定処理を行ってもよい。なお、これら学習済モデルを用いた推定処理やルールベースの推定処理は、公知の任意のものであってよい。 Further, in the present embodiment, an example of performing estimation processing of diabetic retinopathy, age-related macular degeneration, and glaucoma from a symmetry map has been described. However, at least one of these estimation processes may be performed using a tomographic image, an analysis map, an En-Face image, an OCTA image, a fundus photograph, an anterior ocular segment photograph, an SLO image, or the like. In this case, based on at least one of these images, estimation processing using a trained model that performs estimation processing of the disease may be performed, or rule-based estimation processing may be performed. The estimation process using these trained models and the rule-based estimation process may be any known one.

本実施形態の別の例では、推定部123が用いる学習済モデルは、複数の撮影技術で撮影した画像のそれぞれが入力される複数のチャンネルを有し、ラベル付けされた複数の疾患を分類する、一つの学習済モデルであってもよい。この場合、推定部123は、例えば、学習済モデルから出力される各推定ラベルのうち他の推定ラベルよりも高い確率の疾患を、最終的な推定結果として出力することができる。さらに、推定部123は、学習済モデルを用いて得た各推定ラベルの確率から、機械学習モデルを用いて、推定結果を決定してもよい。この場合に用いる機械学習アルゴリズムは、推定ラベルの確率の取得に用いられた機械学習アルゴリズムとは異なる種類の機械学習アルゴリズムであってもよく、例えば、ニューラルネットワーク、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等であってよい。 In another example of this embodiment, the trained model used by the estimation unit 123 has a plurality of channels into which each of the images captured by the plurality of imaging techniques is input, and classifies the plurality of labeled diseases. , May be one trained model. In this case, the estimation unit 123 can output, for example, a disease having a higher probability than the other estimation labels among the estimation labels output from the trained model as the final estimation result. Further, the estimation unit 123 may determine the estimation result by using the machine learning model from the probabilities of each estimation label obtained by using the trained model. The machine learning algorithm used in this case may be a different type of machine learning algorithm from the machine learning algorithm used to obtain the probability of the estimated label, for example, a neural network, a support vector machine, AdaBoost, a Basian network, etc. Alternatively, it may be a random forest or the like.

また、本実施形態の別の例では、推定部123が用いるデータは、複数の層の各々に対して取得されたデータ(それぞれの層で得られる厚みマップや対称性マップなど)であってよい。複数の各層の例として、神経線維層のみ、神経線維層から内網状層まで、神経節細胞層から内網状層まで、又は網膜全層が挙げられ、その他種々の組み合わせを用いることもできる。 Further, in another example of the present embodiment, the data used by the estimation unit 123 may be data acquired for each of the plurality of layers (thickness map, symmetry map, etc. obtained in each layer). .. Examples of each of the plurality of layers include only the nerve fiber layer, from the nerve fiber layer to the inner plexiform layer, from the ganglion cell layer to the inner plexiform layer, or the entire retinal layer, and various other combinations can also be used.

本実施形態の別の例では、推定部123は、各撮影技術で撮影した画像や、各層から得られたデータ(厚みマップや対称性マップなど)で個別に推定を行った後、出力された確率が他の疾患よりも高い確率の疾患を、最終的な判定結果として出力してもよい。また、推定部123は、学習済モデルを用いて得た各推定ラベルの確率から、機械学習モデルを用いて、推定結果を決定してもよい。この場合に用いる機械学習アルゴリズムは、推定ラベルの確率の取得に用いられた機械学習アルゴリズムとは異なる種類の機械学習アルゴリズムであってもよく、例えば、ニューラルネットワーク、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等であってよい。 In another example of the present embodiment, the estimation unit 123 individually estimates the images taken by each shooting technique and the data (thickness map, symmetry map, etc.) obtained from each layer, and then outputs the data. A disease having a higher probability than other diseases may be output as a final determination result. Further, the estimation unit 123 may determine the estimation result by using the machine learning model from the probabilities of each estimation label obtained by using the trained model. The machine learning algorithm used in this case may be a different type of machine learning algorithm from the machine learning algorithm used to obtain the probability of the estimated label, for example, a neural network, a support vector machine, AdaBoost, a Basian network, etc. Alternatively, it may be a random forest or the like.

[第3実施形態]
次に、図6乃至図8(b)を参照して第3実施形態について説明する。本実施形態では、異なる時間に取得された医用画像に基づいて眼科疾患に関する推定を行う。なお、本実施形態に係る制御部の構成は、第1実施形態に係る制御部102と同様であるため、同じ参照符号を用いて説明を省略する。以下、第1実施形態との違いを中心に本実施形態に係る制御部102について説明する。なお、本実施形態に係る推定対象も眼科疾患に限られず、全身疾患であってよい。
[Third Embodiment]
Next, the third embodiment will be described with reference to FIGS. 6 to 8 (b). In this embodiment, estimation of ophthalmic diseases is made based on medical images acquired at different times. Since the configuration of the control unit according to the present embodiment is the same as that of the control unit 102 according to the first embodiment, the same reference numerals will be used and the description thereof will be omitted. Hereinafter, the control unit 102 according to the present embodiment will be described with a focus on the differences from the first embodiment. The estimation target according to the present embodiment is not limited to ophthalmic diseases, and may be systemic diseases.

眼科疾患に関する予後を予測するため、被検眼を異なる時間に撮影して得た複数の医用画像(時系列データ)から、疾患の進行を高精度に推定することが求められる。そこで、本実施形態に係る制御部102は、時系列データから異なる時間に取得されたデータ間の相関関係を示す相関値を画素値とした相関マップを生成することで、疾患の進行を高精度に推定する。なお、本実施形態に係る画像処理の動作は、図2のフローチャートで示される動作と同様の処理であるため、同じ参照符号を用いて説明する。 In order to predict the prognosis of ophthalmic diseases, it is required to estimate the progress of the disease with high accuracy from a plurality of medical images (time-series data) obtained by photographing the eye to be inspected at different times. Therefore, the control unit 102 according to the present embodiment generates a correlation map in which the correlation value indicating the correlation between the data acquired at different times from the time series data is used as the pixel value, so that the progress of the disease is highly accurate. Estimate to. Since the operation of the image processing according to the present embodiment is the same as the operation shown in the flowchart of FIG. 2, it will be described using the same reference numerals.

[ステップS21:画像入力]
ステップS21において、本実施形態に係る取得部121は、被検体を異なる時間に撮影して得た複数の眼底画像を取得する。例えば、取得部121は、過去に撮影された少なくとも1つの3次元の断層画像を、通信ネットワークなどを通して既存のデータベースから取得することができる。また、取得部121は、新たに撮影された断層画像を、撮影装置101から取得することができる。なお、過去の断層画像は、予め記憶部126に記憶しておき、記憶部126から取得されてもよい。
[Step S21: Image input]
In step S21, the acquisition unit 121 according to the present embodiment acquires a plurality of fundus images obtained by photographing the subject at different times. For example, the acquisition unit 121 can acquire at least one three-dimensional tomographic image taken in the past from an existing database through a communication network or the like. In addition, the acquisition unit 121 can acquire a newly captured tomographic image from the imaging device 101. The past tomographic image may be stored in the storage unit 126 in advance and acquired from the storage unit 126.

なお、第1実施形態と同様に、取得部121は、新たに撮影された眼底画像を不図示の外部装置から取得してもよい。また、取得部121は、複数の眼底画像に関する干渉信号を取得してもよい。また、取得部121は、第1実施形態と同様に、眼底写真や前眼部写真、SLO画像、En−Face画像、OCTA画像、患者データ等も取得することができる。 As in the first embodiment, the acquisition unit 121 may acquire a newly captured fundus image from an external device (not shown). Further, the acquisition unit 121 may acquire interference signals related to a plurality of fundus images. Further, the acquisition unit 121 can also acquire a fundus photograph, an anterior eye portion photograph, an SLO image, an En-Face image, an OCTA image, patient data, and the like, as in the first embodiment.

[ステップS22:画像処理]
ステップS22においては、画像処理部122が、異なる時間に撮影して得た同一被検眼の眼底画像を比較して、相関マップを生成する。相関マップ生成の例を、図6に示すフローチャート及び図7に示す概略図を用いて説明する。
[Step S22: Image processing]
In step S22, the image processing unit 122 compares the fundus images of the same eye to be inspected obtained by taking pictures at different times to generate a correlation map. An example of correlation map generation will be described with reference to the flowchart shown in FIG. 6 and the schematic diagram shown in FIG. 7.

まず、ステップS621において、画像処理部122は、新しく撮影された断層画像701から第1の厚みマップ711を生成する。また、同様に、過去に撮影された断層画像702から第2の厚みマップ712を生成する。厚みマップは、第1実施形態で述べた方法と同様の方法で生成される。 First, in step S621, the image processing unit 122 generates a first thickness map 711 from the newly captured tomographic image 701. Similarly, a second thickness map 712 is generated from the tomographic image 702 taken in the past. The thickness map is generated by the same method as described in the first embodiment.

次に、ステップS622において、画像処理部122は、第1の厚みマップ711及び第2の厚みマップ712に対して補正処理を行う。本実施形態の補正処理の一例は、幾何補正処理を含むことができる。画像処理部122は第1実施形態で述べた方法と同様に、記憶部126に記憶された基準情報を参照しながら、第1の厚みマップ711及び第2の厚みマップ712に対して、拡縮(拡大あるいは縮小)、回転、平行移動といった、幾何学的な補正処理を行う。なお、基準情報は、最も古い時間に撮影された断層画像から生成された厚みマップの黄斑部Aから乳頭部Bまでの距離、角度、並びに黄斑部A及び乳頭部Bの位置としてもよい。この場合、基準情報を参照しながら、他の時間に撮影された断層画像から生成された厚みマップを補正する。また、基準情報の取得に用いる画像は、最も古いものに限れず、任意の時間に撮影された画像であってよい。なお、基準情報は、第1実施形態で述べたものを用いてもよい。 Next, in step S622, the image processing unit 122 performs correction processing on the first thickness map 711 and the second thickness map 712. An example of the correction process of the present embodiment can include a geometric correction process. Similar to the method described in the first embodiment, the image processing unit 122 scales the first thickness map 711 and the second thickness map 712 while referring to the reference information stored in the storage unit 126. Performs geometric correction processing such as enlargement or reduction), rotation, and translation. The reference information may be the distance and angle from the macula A to the papilla B of the thickness map generated from the tomographic image taken at the oldest time, and the positions of the macula A and the papilla B. In this case, the thickness map generated from the tomographic images taken at other times is corrected with reference to the reference information. Further, the image used for acquiring the reference information is not limited to the oldest image, and may be an image taken at an arbitrary time. As the reference information, the information described in the first embodiment may be used.

また、本実施形態の補正処理の一例は、厚みマップを平滑化する処理を含むことができる。平滑化処理によって、異なる時間に撮影された断層画像同士の位置ずれや回転ずれの影響を低減することができる。なお、補正処理は、不適切箇所の輝度値の補正や眼軸長に応じた補正等、その他の画像処理を含んでもよい。 Further, an example of the correction process of the present embodiment can include a process of smoothing the thickness map. By the smoothing process, it is possible to reduce the influence of the positional deviation and the rotational deviation between the tomographic images taken at different times. The correction process may include other image processes such as correction of the luminance value of the inappropriate portion and correction according to the axial length.

次に、ステップS623において、画像処理部122は、補正後の第1の厚みマップ721及び補正後の第2の厚みマップ722を比較することで相関マップを生成する。本実施形態の一例では、画像処理部122は、各XY位置で、補正後の第2の厚みマップ722の輝度値に対する補正後の第1の厚みマップ721の輝度値の比を算出し、算出した比を当該位置の画素値とすることで、相関マップを生成する。 Next, in step S623, the image processing unit 122 generates a correlation map by comparing the corrected first thickness map 721 and the corrected second thickness map 722. In an example of the present embodiment, the image processing unit 122 calculates and calculates the ratio of the brightness value of the corrected first thickness map 721 to the brightness value of the corrected second thickness map 722 at each XY position. A correlation map is generated by using the ratio as the pixel value at the position.

また、画像処理部122は、過去に撮影された複数の断層画像のそれぞれから厚みマップを生成し、最も古い時間に撮影された厚みマップの輝度値に対して他の厚みマップの輝度値との比を算出し、算出した比を画素値として複数の相関マップを生成してもよい。これにより、画像処理部122は、相関マップの時系列データを生成することができる。また、比を算出する際の対象は最も古い時間に撮影された画像から得られる厚みマップに限らず、別の時間に撮影された画像から得られる厚みマップや、健常時の画像から得られる厚みマップであってもよい。なお、本実施形態では、厚みマップを用いたが、血管密度マップ等の他の解析マップを用いてもよい。 Further, the image processing unit 122 generates a thickness map from each of the plurality of tomographic images taken in the past, and sets the brightness value of the thickness map taken at the oldest time to the brightness value of the other thickness map. A ratio may be calculated, and a plurality of correlation maps may be generated using the calculated ratio as a pixel value. As a result, the image processing unit 122 can generate time-series data of the correlation map. In addition, the target for calculating the ratio is not limited to the thickness map obtained from the image taken at the oldest time, but also the thickness map obtained from the image taken at another time and the thickness obtained from the normal image. It may be a map. In this embodiment, the thickness map is used, but other analysis maps such as the blood vessel density map may be used.

また、本実施形態の別の例では、画像処理部122は、第1の厚みマップから第1の対称性マップを生成し、第2の厚みマップから第2の対称性マップを生成することができる。対称性マップの生成方法は第1の実施形態と同様である。対称性マップの各XY位置で、第2の対称性マップの輝度値に対する第1の対称性マップの輝度値の比をとることで、相関マップが生成される。 Further, in another example of the present embodiment, the image processing unit 122 may generate a first symmetry map from the first thickness map and generate a second symmetry map from the second thickness map. can. The method of generating the symmetry map is the same as that of the first embodiment. A correlation map is generated by taking the ratio of the luminance value of the first symmetry map to the luminance value of the second symmetry map at each XY position of the symmetry map.

また、ここでは異なる時間の厚みマップの輝度値の比を画素値とすることで相関マップを生成した。しかしながら、相関マップの画素値は、比に代えて異なる時間の厚みマップの輝度値の差を用いてもよい。また、画素値の算出方法に、輝度値の対数変換処理などを含めてもよい。 Further, here, the correlation map is generated by using the ratio of the luminance values of the thickness maps at different times as the pixel values. However, as the pixel value of the correlation map, the difference in the luminance value of the thickness map at different times may be used instead of the ratio. Further, the pixel value calculation method may include a logarithmic transformation process of the luminance value.

[ステップS23:推定]
ステップS623において複数の相関マップが生成され、推定部123に出力されると、処理はステップS23に移行する。ステップS23では、推定部123が、相関マップを学習データとした学習により得た学習済モデルを用いて、画像処理部122から入力された相関マップから被検眼の疾患の進行に関する推定を行う。
[Step S23: Estimate]
When a plurality of correlation maps are generated in step S623 and output to the estimation unit 123, the process proceeds to step S23. In step S23, the estimation unit 123 estimates the progression of the disease of the eye to be inspected from the correlation map input from the image processing unit 122 by using the trained model obtained by learning using the correlation map as learning data.

本実施形態の一例では、推定部123は、疾患の進行の有無やその確率を推定した推定結果を出力する。また、推定部123は、所定の時間経過後に(未来において)、症状がどのくらい進行しているかを推定した推定結果を出力してもよい。この場合の学習済モデルの学習データは、学習用データの断層画像から相関マップを生成したものを入力データとし、その後の進行の有無や、所定の時間経過後にどのくらいまで重症化したかを示すラベルを出力データとして生成されてよい。 In one example of the present embodiment, the estimation unit 123 outputs an estimation result that estimates the presence or absence of disease progression and its probability. Further, the estimation unit 123 may output an estimation result of estimating how much the symptom has progressed after a lapse of a predetermined time (in the future). The training data of the trained model in this case is a correlation map generated from the tomographic image of the training data as input data, and a label indicating the presence or absence of subsequent progress and how severe the disease has become after a predetermined time has elapsed. May be generated as output data.

なお、相関マップの時系列データを学習済モデルへの入力とする場合には、学習データの入力データも相関マップの時系列データとすることができる。この場合、時系列データに関する画像間の時間間隔は様々であってもよいし、一定であってもよい。ただし、学習データの入力データである相関データの時系列データに関して画像間の時間間隔を一定とする場合には、推定部123が学習済モデルに入力する相関データの時系列データに関する画像間の時間間隔も同一の時間間隔とする。 When the time-series data of the correlation map is input to the trained model, the input data of the training data can also be the time-series data of the correlation map. In this case, the time interval between the images related to the time series data may be various or constant. However, if the time interval between the images is constant for the time-series data of the correlation data that is the input data of the training data, the time between the images related to the time-series data of the correlation data that the estimation unit 123 inputs to the trained model. The interval shall be the same time interval.

また、本実施形態の一例では、記憶部126は、ある時点又は初診の際に疾患を推定するための学習済モデルと、時系列データから進行を推定する学習済モデルとを、個別に備えてよい。これにより、ある時点又は初診の際に、データが不足した推定処理を回避し、適切な疾患の推定処理を行うことができる。 Further, in an example of the present embodiment, the storage unit 126 individually provides a trained model for estimating a disease at a certain time point or at the first visit and a trained model for estimating the progression from time series data. good. As a result, it is possible to avoid the estimation process in which data is insufficient at a certain point in time or at the time of the first medical examination, and perform an appropriate disease estimation process.

上記のように、本実施形態に係る制御部102では、医用画像の一例である眼底画像は、被検眼を異なる時間に撮影して得た複数の眼底画像を含む。また、画像処理部122は、複数の眼底画像を画像処理して画像間の相関関係を示す相関マップを生成する。推定部123は、相関マップを用いた学習により得た学習済モデルを用いて、生成した相関マップから推定した眼科疾患に関する推定結果を出力する。本実施形態に係る制御部102は、このような構成により、眼底画像の時系列データを用いて、疾患の進行の有無やその確率を精度よく推定することができる。 As described above, in the control unit 102 according to the present embodiment, the fundus image, which is an example of the medical image, includes a plurality of fundus images obtained by photographing the subject eye at different times. Further, the image processing unit 122 performs image processing on a plurality of fundus images to generate a correlation map showing the correlation between the images. The estimation unit 123 outputs the estimation result regarding the ophthalmic disease estimated from the generated correlation map by using the trained model obtained by the learning using the correlation map. With such a configuration, the control unit 102 according to the present embodiment can accurately estimate the presence or absence of disease progression and its probability by using the time-series data of the fundus image.

なお、相関マップの時系列データを入力データとする場合には、学習済モデルとして、時系列情報を扱うニューラルネットワークである再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)を用いることができる。図8(a)は、機械学習モデルであるRNNの構造を示す。図8(a)に示すRNN82は、ネットワークにループ構造を持ち、時刻tにおいてデータx81を入力し、データh83を出力する。RNN82はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図8(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx81にはN個(Params1〜ParamsN)のデータが含まれる。また、RNN82より出力されるデータh83には入力データに対応するN個(Params1〜ParamsN)のデータが含まれる。 When the time-series data of the correlation map is used as the input data, a recurrent neural network (RNN), which is a neural network that handles the time-series information, can be used as the trained model. FIG. 8A shows the structure of the RNN, which is a machine learning model. The RNN 82 shown in FIG. 8A has a loop structure in the network, inputs data x t 81 at time t, and outputs data h t 83. Since the RNN 82 has a loop function in the network, the current state can be inherited to the next state, so that time-series information can be handled. FIG. 8B shows an example of input / output of the parameter vector at time t. The data x t 81 contains N pieces of data (Params1 to ParamsN). Further, the data h t 83 output from the RNN 82 includes N pieces (Params1 to ParamsN) of data corresponding to the input data.

しかしながら、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができないため、長短期記憶(LSTM:Long Short−Term Memory)が用いられることがある。LSTMは、RNNの一種であり、忘却ゲート、入力ゲート、及び出力ゲートを備えることで長期時間の情報を学習することができる。より長期の情報に基づいた予測を行う場合はLSTMを用いることもできる。ここで、図9(a)にLSTMの構造を示す。LSTM94において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct−1と出力データht−1である。なお、図の小文字(c、h、x)はベクトルを表している。 However, since RNN cannot handle long-term time information during error back propagation, long-short-term memory (LSTM: Long Short-Term Memory) may be used. The LSTM is a kind of RNN, and can learn long-term information by including a forgetting gate, an input gate, and an output gate. LSTMs can also be used for longer-term information-based forecasts. Here, FIG. 9A shows the structure of the LSTM. In LSTM94, the information that the network takes over at the next time t is the internal state ct -1 of the network called the cell and the output data h t-1 . The lowercase letters (c, h, x) in the figure represent vectors.

次に、図9(b)にLSTM94の詳細を示す。図9(b)においては、忘却ゲートネットワークFG、入力ゲートネットワークIG、及び出力ゲートネットワークOGが示され、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。また、図9(b)においては、セル更新候補ネットワークCUが示され、セル更新候補ネットワークCUは活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。 Next, FIG. 9B shows the details of LSTM94. In FIG. 9B, the oblivion gate network FG, the input gate network IG, and the output gate network OG are shown, each of which is a sigmoid layer. Therefore, a vector in which each element has a value of 0 to 1 is output. The oblivion gate network FG determines how much past information is retained, and the input gate network IG determines which value to update. Further, in FIG. 9B, the cell update candidate network CU is shown, and the cell update candidate network CU is the activation function tanh layer. This creates a vector of new candidate values to be added to the cell. The output gate network OG selects the element of the cell candidate and selects how much information is to be transmitted at the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。 Since the above-mentioned LSTM model is a basic model, it is not limited to the network shown here. You may change the coupling between the networks. QRNN (Quasi Recurrent Neural Network) may be used instead of LSTM. Further, the machine learning model is not limited to the neural network, and boosting, a support vector machine, or the like may be used.

[第3実施形態の変形例]
なお、本実施形態では、相関マップを生成するために用いる画像を断層画像とした。しかしながら、相関マップを生成するために用いる画像はこれに限られず、眼底写真や前眼部写真、解析マップ、SLO画像、En−Face画像、OCTA画像等であってもよい。
[Modified example of the third embodiment]
In this embodiment, the image used to generate the correlation map is a tomographic image. However, the image used to generate the correlation map is not limited to this, and may be a fundus photograph, an anterior eye portion photograph, an analysis map, an SLO image, an En-Face image, an OCTA image, or the like.

また、画像処理部122は、過去に撮影された複数の断層画像それぞれから対称性マップを生成し、最も古い時間の対称性マップの輝度値に対して他の対称性マップの輝度値との比を各XY位置で算出し、当該比を画素値とした相関マップを生成してもよい。また、同様の処理により、画像処理部122は、相関マップの時系列データ(複数の相関マップ)を生成することもできる。なお、対称性マップの生成方法は第1実施形態で述べた方法を用いてよい。また、対称性マップを生成する際に用いる画像は断層画像に限られず、厚みマップや血管密度マップ等の解析マップ、眼底写真、前眼部写真、SLO画像、En−Face画像、OCTA画像等であってもよい。 Further, the image processing unit 122 generates a symmetry map from each of the plurality of tomographic images taken in the past, and the ratio of the brightness value of the symmetry map of the oldest time to the brightness value of the other symmetry map. May be calculated at each XY position, and a correlation map may be generated using the ratio as a pixel value. Further, by the same processing, the image processing unit 122 can also generate time-series data (a plurality of correlation maps) of the correlation map. As the method for generating the symmetry map, the method described in the first embodiment may be used. The images used to generate the symmetry map are not limited to tomographic images, but are analysis maps such as thickness maps and blood vessel density maps, fundus photographs, anterior segment photographs, SLO images, En-Face images, OCTA images, and the like. There may be.

なお、比を算出する際の対象は最も古い時間に撮影された画像から得られる対称性マップに限らず、別の時間に撮影された画像から得られる対称性マップや、健常時の画像から得られる対称性マップであってもよい。相関マップの画素値は、比に代えて異なる時間の対称性マップの輝度値の差を用いてもよい。また、画素値の算出方法に、輝度値の対数変換処理などを含めてもよい。 The target for calculating the ratio is not limited to the symmetry map obtained from the image taken at the oldest time, but also the symmetry map obtained from the image taken at another time and the normal image. It may be a symmetry map to be obtained. As the pixel value of the correlation map, the difference in the luminance value of the symmetry map at different times may be used instead of the ratio. Further, the pixel value calculation method may include a logarithmic transformation process of the luminance value.

このように、本実施形態の他の例では、画像処理部122は、複数の眼底画像を画像処理して得た複数の時間の対称性マップ間の相関関係を示す相関マップを生成する。推定部123は、相関マップや相関マップの時系列データから眼科疾患の進行を推定した推定結果を出力する。推定部123は、このように生成された相関マップを用いて推定処理を行うことでも、第3実施形態と同様に疾患の進行の有無やその確率を推定した推定結果を出力することができる。なお、この場合に推定部123が用いる学習済モデルの入力データとしては、対称性マップを用いて生成された相関マップを用いることができる。また、この場合の学習済モデルは、単一時間の対称性マップから眼科疾患を推定するための学習済モデルと、対称性マップの時系列データから生成された相関マップに基づいて眼科疾患の進行を推定するための学習済モデルとを含んでもよい。 As described above, in another example of the present embodiment, the image processing unit 122 generates a correlation map showing the correlation between a plurality of time symmetry maps obtained by image processing a plurality of fundus images. The estimation unit 123 outputs an estimation result of estimating the progression of an ophthalmic disease from a correlation map or time-series data of the correlation map. The estimation unit 123 can also output an estimation result for estimating the presence or absence of disease progression and its probability, as in the third embodiment, by performing the estimation process using the correlation map generated in this way. In this case, as the input data of the trained model used by the estimation unit 123, a correlation map generated by using the symmetry map can be used. In addition, the trained model in this case is a trained model for estimating eye disease from a single-time symmetry map, and the progression of eye disease based on a correlation map generated from time-series data of the symmetry map. May include a trained model for estimating.

また、本実施形態の別の例では、推定部123は、第1の解析マップ又は第1の対称性マップの少なくとも一方と、第2の解析マップ又は第2の対称性マップの少なくとも一方とから、学習済モデルを用いて各時間における緑内障の推定処理を行ってもよい。なお、当該推定処理は、第1実施形態で述べた推定処理と同様の処理でよい。この場合、推定部123は、これらの学習済モデルで注目された領域を示す注意マップを取得することができる。推定部123は、第1の解析マップ又は第1の対称性マップについての推定処理により第1の注意マップを取得し、第2の解析マップ又は第2の対称性マップについての推定処理により第2の注意マップを取得する。このような場合には、画像処理部122は、注意マップの各XY位置で、第2の注意マップの輝度値に対する第1の注意マップの輝度値の比を算出し、算出した比を画素値とすることで相関マップを生成することができる。 Further, in another example of the present embodiment, the estimation unit 123 is derived from at least one of the first analysis map or the first symmetry map and at least one of the second analysis map or the second symmetry map. , The trained model may be used to estimate glaucoma at each time. The estimation process may be the same as the estimation process described in the first embodiment. In this case, the estimation unit 123 can acquire an attention map showing the region of interest in these trained models. The estimation unit 123 acquires the first attention map by the estimation process for the first analysis map or the first symmetry map, and the second analysis map or the second symmetry map is estimated by the second analysis map or the second symmetry map. Get the attention map of. In such a case, the image processing unit 122 calculates the ratio of the luminance value of the first attention map to the luminance value of the second attention map at each XY position of the attention map, and the calculated ratio is the pixel value. By doing so, a correlation map can be generated.

また、画像処理部122は、過去に撮影された断層画像を用いて生成された複数の解析マップ又は対称性マップのそれぞれから注意マップを生成し、最も古い時間の注意マップの輝度値に対して他の注意マップの輝度値との比を各XY位置で算出し、当該比を画素値とした複数の相関マップを生成してもよい。これにより、画像処理部122は、相関マップの時系列データを生成することができる。 Further, the image processing unit 122 generates a caution map from each of a plurality of analysis maps or symmetry maps generated using the tomographic images taken in the past, and with respect to the brightness value of the caution map at the oldest time. A ratio to the brightness value of another caution map may be calculated at each XY position, and a plurality of correlation maps may be generated using the ratio as a pixel value. As a result, the image processing unit 122 can generate time-series data of the correlation map.

なお、比を算出する際の対象は最も古い時間に撮影された画像から得られる注意マップに限らず、別の時間に撮影された画像から得られる注意マップや、健常時の画像から得られる注意マップであってもよい。相関マップの画素値は、比に代えて異なる時間の対称性マップの輝度値の差を用いてもよい。また、画素値の算出方法に、輝度値の対数変換処理などを含めてもよい。さらに、画像処理部122は、注意マップそのものの時系列データを推定部123へ出力してもよい。 The target for calculating the ratio is not limited to the caution map obtained from the image taken at the oldest time, but also the caution map obtained from the image taken at another time and the caution obtained from the normal image. It may be a map. As the pixel value of the correlation map, the difference in the luminance value of the symmetry map at different times may be used instead of the ratio. Further, the pixel value calculation method may include a logarithmic transformation process of the luminance value. Further, the image processing unit 122 may output the time series data of the attention map itself to the estimation unit 123.

推定部123は、このように生成された注意マップ又は相関マップを用いて推定処理を行うことでも、第3実施形態と同様に疾患の進行の有無やその確率を推定した推定結果を出力することができる。なお、この場合に推定部123が疾患の進行の有無やその確率の推定処理に用いる学習済モデルの入力データとしては、注意マップ又は注意マップを用いて生成された相関マップを用いることができる。 The estimation unit 123 also outputs an estimation result that estimates the presence or absence of disease progression and its probability, as in the third embodiment, even by performing estimation processing using the attention map or correlation map generated in this way. Can be done. In this case, as the input data of the trained model used by the estimation unit 123 for the estimation process of the presence / absence of disease progression and its probability, a caution map or a correlation map generated by using the caution map can be used.

以上のように、上述の第1乃至第3実施形態によれば、被検眼の対称性を示す対称性マップや、異なる時間に撮影された画像間の相関を示す相関マップを用いて被検眼の疾患に関する推定を行うことができる。これにより、例えば、緑内障のように対称性や相関関係等の特徴に所見が現れるような疾患の推定精度を向上させることができる。 As described above, according to the first to third embodiments described above, the symmetry map showing the symmetry of the eye to be inspected and the correlation map showing the correlation between the images taken at different times are used to show the eye to be inspected. Can make estimates about the disease. This makes it possible to improve the estimation accuracy of diseases such as glaucoma in which findings appear in features such as symmetry and correlation.

[変形例1]
本発明に係る変形例1では、画像処理部122が、撮影装置101で取得された、参照光と眼からの戻り光による干渉信号を画像処理に用いることができる。断層画像は一般的に干渉信号をフーリエ変換して得られるが、画像処理部122は、フーリエ変換前の干渉信号を画像処理に用いてもよい。画像処理部122は、取得部121が取得したフーリエ変換前の干渉信号に対して、異常部分(異なる周波数の信号やスパイクノイズなど)を除去する処理を行ってもよい。異常部分を除去したのちにフーリエ変換して、断層画像を生成し、上記と同様の処理を行うことができる。
[Modification 1]
In the first modification according to the present invention, the image processing unit 122 can use the interference signal due to the reference light and the return light from the eye acquired by the photographing apparatus 101 for the image processing. The tomographic image is generally obtained by Fourier transforming the interference signal, but the image processing unit 122 may use the interference signal before the Fourier transform for image processing. The image processing unit 122 may perform processing for removing an abnormal portion (signal of a different frequency, spike noise, etc.) from the interference signal before the Fourier transform acquired by the acquisition unit 121. After removing the abnormal part, Fourier transform can be performed to generate a tomographic image, and the same processing as described above can be performed.

また、画像処理部122は、フーリエ変換前の干渉信号を推定部123へ出力してもよい。この場合、推定部123は、干渉信号を学習データとした学習により得た学習済モデルを用いて、画像処理部122から出力された干渉信号から被検眼の疾患に関する情報を推定した推定結果を出力することができる。 Further, the image processing unit 122 may output the interference signal before the Fourier transform to the estimation unit 123. In this case, the estimation unit 123 outputs an estimation result in which information on the disease of the eye to be inspected is estimated from the interference signal output from the image processing unit 122 by using the learned model obtained by learning using the interference signal as learning data. can do.

[変形例2]
本発明に係る変形例2では、画像処理部122は、3次元の断層画像からある方向で生成された図10(a)に示すような断層画像データ1001から、対象となる層の厚みをプロットした図10(b)に示すようなプロファイル1002を生成することができる。また、各厚みを、評価し易い相対値に置き換えてもよい。画像処理部122は、このプロファイル1002を、推定部123へ出力してもよい。この場合、推定部123は、このようなプロファイルを学習データとした学習により得た学習済モデルを用いて、画像処理部122によって生成されたプロファイル1002から被検眼の疾患に関する推定結果を出力することができる。
[Modification 2]
In the second modification of the present invention, the image processing unit 122 plots the thickness of the target layer from the tomographic image data 1001 as shown in FIG. 10A generated in a certain direction from the three-dimensional tomographic image. The profile 1002 as shown in FIG. 10 (b) can be generated. Further, each thickness may be replaced with a relative value that is easy to evaluate. The image processing unit 122 may output this profile 1002 to the estimation unit 123. In this case, the estimation unit 123 outputs the estimation result regarding the disease of the eye to be inspected from the profile 1002 generated by the image processing unit 122 by using the trained model obtained by learning using such a profile as training data. Can be done.

また、画像処理部122は、プロファイルの形式ではなく、各位置での厚みの値をベクトルに配置した特徴ベクトルを推定部123へ出力してもよい。この場合、推定部123が、特徴ベクトルを学習データとした学習により得た学習済モデルを用いて、画像処理部122が生成した特徴ベクトルから被検眼の疾患に関する情報を推定した推定結果を出力してもよい。 Further, the image processing unit 122 may output to the estimation unit 123 a feature vector in which the thickness values at each position are arranged in a vector instead of the profile format. In this case, the estimation unit 123 outputs an estimation result in which information on the disease of the eye to be inspected is estimated from the feature vector generated by the image processing unit 122 using the trained model obtained by learning using the feature vector as training data. You may.

[変形例3]
本発明に係る変形例3では、画像処理部122は、取得した眼底写真などから一部の特徴部の形状を抽出して輪郭などをプロットした特徴マップを生成することができる。特徴部の例は、視神経乳頭陥凹、視神経乳頭、RNFL(網膜神経線維束)などとすることができる。なお、特徴部の形状の抽出方法としては、公知のセグメンテーション処理を用いてよい。また、当該セグメンテーション処理は、被検眼の構造等に基づくルールベースの処理であってもよいし、U−net型の学習済モデルや領域検出用の学習済モデルを用いて行われてよい。
[Modification 3]
In the modification 3 according to the present invention, the image processing unit 122 can generate a feature map in which the shape of a part of the feature section is extracted from the acquired fundus photograph or the like and the contour or the like is plotted. Examples of features can be optic disc depressions, optic discs, RNFLs (retinal nerve fiber bundles) and the like. As a method for extracting the shape of the feature portion, a known segmentation process may be used. Further, the segmentation process may be a rule-based process based on the structure of the eye to be inspected or the like, or may be performed by using a U-net type trained model or a trained model for region detection.

画像処理部122は、生成した特徴マップを推定部123へ出力してもよい。この場合、推定部123は、特徴マップを学習データとした学習により得た学習済モデルを用いて、画像処理部122により生成された特徴マップから被検体の疾患に関する情報を推定した推定結果を出力することができる。このような処理により、緑内障など、視神経乳頭陥凹やRNFLの形状に所見が現れる症状を、より高精度に推定できることが期待できる。 The image processing unit 122 may output the generated feature map to the estimation unit 123. In this case, the estimation unit 123 outputs an estimation result in which information on the disease of the subject is estimated from the feature map generated by the image processing unit 122 using the trained model obtained by learning using the feature map as training data. can do. By such treatment, it can be expected that symptoms such as glaucoma in which optic disc depression and findings appear in the shape of RNFL can be estimated with higher accuracy.

[変形例4]
本発明に係る変形例4では、画像処理部122は、撮影装置101で得られた2次元の断層画像を推定部123へ出力することができる。推定部123は、2次元の断層画像を学習データとした学習により得た機械学習モデルを用いて、画像処理部122から出力された断層画像から被検体の疾患に関する情報を推定した推定結果を出力することができる。この場合には、加齢黄斑変性や緑内障といった、断層画像に所見が現れる症状を高精度に推定できることが期待できる。
[Modification 4]
In the modification 4 according to the present invention, the image processing unit 122 can output the two-dimensional tomographic image obtained by the photographing apparatus 101 to the estimation unit 123. The estimation unit 123 outputs an estimation result in which information on the disease of the subject is estimated from the tomographic image output from the image processing unit 122 by using a machine learning model obtained by learning using a two-dimensional tomographic image as learning data. can do. In this case, it can be expected that symptoms such as age-related macular degeneration and glaucoma in which findings appear on tomographic images can be estimated with high accuracy.

なお、画像処理部122は、取得した各スキャン位置の断層画像から3次元の断層画像(3次元ボリュームデータ)を生成して、推定部123へ出力してもよい。推定部123は、3次元のボリュームデータを学習データとした学習により得た機械学習モデルを用いて、画像処理部122によって生成された3次元のボリュームデータから被検体の疾患に関する情報を推定した推定結果を出力することができる。この場合には、緑内障など3次元的な構造に所見が現れる症状を高精度に推定できることが期待できる。 The image processing unit 122 may generate a three-dimensional tomographic image (three-dimensional volume data) from the acquired tomographic image of each scan position and output it to the estimation unit 123. The estimation unit 123 estimates information about the disease of the subject from the three-dimensional volume data generated by the image processing unit 122 by using a machine learning model obtained by learning using the three-dimensional volume data as learning data. The result can be output. In this case, it can be expected that symptoms such as glaucoma in which findings appear in a three-dimensional structure can be estimated with high accuracy.

[変形例5]
本発明に係る変形例5では、画像処理部122が、第1実施形態と同様に対称性マップを生成するとともに、上述した、層厚に関するプロファイル、特徴ベクトル、特徴マップ、及び3次元ボリュームデータの少なくともいずれかを生成する。推定部123は、対称性マップに加えて、上述したいずれかのデータや断層画像を学習データとした学習により得た学習済モデルを用いて、対称性マップ及びこれらのデータから被検体の疾患に関する情報を推定した推定結果を出力することができる。この場合には、入力データとして用いるデータの種類に応じて、変形例2乃至4で述べた各種効果を奏することができる。なお、この場合、学習データの入力データとして対称性マップ及び上述したデータを用いればよく、出力データは第1実施形態等で述べた学習データの出力データと同様のものを用いてよい。
[Modification 5]
In the modified example 5 according to the present invention, the image processing unit 122 generates a symmetry map as in the first embodiment, and at the same time, the profile, feature vector, feature map, and three-dimensional volume data related to the layer thickness described above are described. Generate at least one. In addition to the symmetry map, the estimation unit 123 uses the symmetry map and a trained model obtained by learning using any of the above-mentioned data or tomographic images as training data to relate to the disease of the subject from the symmetry map and these data. It is possible to output the estimation result of estimating the information. In this case, various effects described in Modifications 2 to 4 can be obtained depending on the type of data used as input data. In this case, the symmetry map and the above-mentioned data may be used as the input data of the learning data, and the output data may be the same as the output data of the learning data described in the first embodiment or the like.

また、推定部123は、対称性マップや上述した各種データに加えて、視野計による計測結果を用いて推定処理を行ってもよい。この場合、学習済モデルの学習データとしては、入力データに対称性マップや上述した各種データに加えて、視野計による計測結果を含めればよい。この場合には、視野計による計測結果に含まれる特徴を推定処理に用いることができ、被検眼の疾患に関する推定精度をより向上させることができると期待できる。 Further, the estimation unit 123 may perform estimation processing using the measurement results of the perimeter in addition to the symmetry map and the various data described above. In this case, as the training data of the trained model, the measurement result by the perimeter may be included in the input data in addition to the symmetry map and the various data described above. In this case, it can be expected that the features included in the measurement result by the perimeter can be used for the estimation process, and the estimation accuracy regarding the disease of the eye to be inspected can be further improved.

なお、制御部102は、第2実施形態や第3実施形態でもこれらと同様の処理により、被検眼の疾患に関する推定結果を出力することができる。 In addition, the control unit 102 can output the estimation result regarding the disease of the eye to be inspected by the same processing in the second embodiment and the third embodiment.

また、第1実施形態乃至第3実施形態では、推定部123は、対称性マップ又は相関マップから被検体の疾患に関する推定処理を行った。これに対して、推定部123は、視野計の計測結果から被検体の疾患に関する推定処理を行ってもよい。この場合、学習済モデルの学習データは、入力データとして視野計による計測結果を用いてよい。出力データに関しては、第1実施形態等で述べたものと同様のものでよい。また、推定部123は、視野計の計測結果に加えて、2次元の断層画像、3次元の断層画像、解析マップ、眼底写真、前眼部写真、SLO画像、En−Face画像、OCTA画像等の、医用画像の一例である眼底画像の少なくとも1つを用いて被検眼の疾患に関する推定処理を行ってもよい。また、推定部123は、視野計の計測結果に加えて、隅角情報、層厚に関するプロファイル、特徴ベクトル、特徴マップのうちの少なくとも1つを用いて被検体の疾患に関する推定処理を行ってもよい。この場合、学習済モデルの学習データは、推定部123が推定処理に用いるデータと同種のデータを入力データとすればよい。このような処理では、視野計の計測結果に基づいて、高精度に疾患を推定することができる。 Further, in the first to third embodiments, the estimation unit 123 performs estimation processing regarding the disease of the subject from the symmetry map or the correlation map. On the other hand, the estimation unit 123 may perform estimation processing regarding the disease of the subject from the measurement result of the perimeter. In this case, as the training data of the trained model, the measurement result by the perimeter may be used as the input data. The output data may be the same as that described in the first embodiment or the like. In addition to the measurement results of the perimeter, the estimation unit 123 includes a two-dimensional tomographic image, a three-dimensional tomographic image, an analysis map, a fundus photograph, an anterior segment photograph, an SLO image, an En-Face image, an OCTA image, and the like. At least one of the fundus images, which is an example of the medical image, may be used for estimation processing related to the disease of the eye to be examined. Further, the estimation unit 123 may perform estimation processing on the disease of the subject using at least one of the angle information, the profile related to the layer thickness, the feature vector, and the feature map in addition to the measurement result of the perimeter. good. In this case, the training data of the trained model may be input data of the same type as the data used by the estimation unit 123 for the estimation process. In such a process, the disease can be estimated with high accuracy based on the measurement result of the perimeter.

[変形例6]
被検体の疾患に関する推定処理に用いる学習済モデル(推定用の学習済モデル)を被検者毎に調整(チューニング)する学習を行い、その被検者専用の学習済モデルを生成してもよい。例えば、被検者の過去の検査において取得された断層画像を用いて、被検体の疾患を推定するための汎用的な学習済モデルの転移学習を行い、その被検者専用の学習済モデルを生成することができる。被検者専用の学習済モデルを被検者のIDと紐付けて記憶部126やサーバ等の外部装置に記憶させておくことで、制御部102は、被検者の現在の検査を行う際に、被検者のIDに基づいて被検者専用の学習済モデルを特定し、利用することができる。被検者専用の学習済モデルを用いることで、被検者毎の疾患に関する推定精度を向上させることができる。
[Modification 6]
Learning may be performed to adjust (tune) the learned model (learned model for estimation) used for the estimation process regarding the disease of the subject for each subject, and the trained model dedicated to the subject may be generated. .. For example, using the tomographic images acquired in the past examination of the subject, transfer learning of a general-purpose trained model for estimating the disease of the subject is performed, and the trained model dedicated to the subject is obtained. Can be generated. By associating the trained model dedicated to the subject with the ID of the subject and storing it in an external device such as a storage unit 126 or a server, the control unit 102 performs the current inspection of the subject. In addition, a trained model dedicated to the subject can be specified and used based on the ID of the subject. By using a trained model dedicated to the subject, it is possible to improve the estimation accuracy of the disease for each subject.

[変形例7]
なお、制御部102は、撮影により取得した画像等を用いて様々な画像処理を行ってよい。例えば、制御部102は、撮影により取得した画像について、高画質化用の学習済モデル(高画質化モデル)を用いて画質を改善した高画質画像を生成してもよい。ここで、画質の改善とは、ノイズの低減や、撮影対象を観察しやすい色や階調への変換、解像度や空間分解能の向上、及び解像度の低下を抑えた画像サイズの拡大等を含む。
[Modification 7]
The control unit 102 may perform various image processing using an image or the like acquired by shooting. For example, the control unit 102 may generate a high-quality image with improved image quality by using a trained model for high image quality (high image quality model) for the image acquired by shooting. Here, the improvement of image quality includes reduction of noise, conversion to colors and gradations that make it easy to observe the object to be photographed, improvement of resolution and spatial resolution, and enlargement of image size while suppressing deterioration of resolution.

高画質化用の機械学習モデルとしては、例えばCNN等を用いることができる。また、高画質化モデルの学習データとしては、前眼画像やSLO画像等の各種画像を入力データとし、入力された画像に対応する、例えば高画質化処理を施した高画質な画像を出力データとする。ここで、高画質化処理とは、空間的に同じ位置を複数回撮影した画像について位置合わせを行い、それら位置合わせ済みの画像を加算平均処理することが挙げられる。なお、高画質化処理は加算平均処理に限られず、例えば、平滑化フィルタを用いた処理や最大事後確率推定処理(MAP推定処理)、階調変換処理等であってもよい。また、高画質化処理された画像としては、例えば、ノイズ除去とエッジ強調などのフィルタ処理を行った画像でもよいし、低輝度な画像から高輝度な画像とするようなコントラストが調整された画像を用いてもよい。さらに、高画質化モデルに係る学習データの出力データは、高画質な画像であればよいため、入力データである断層画像を撮影した際のOCT装置よりも高性能なOCT装置を用いて撮影された画像や、高負荷な設定により撮影された画像であってもよい。 As a machine learning model for improving image quality, for example, CNN or the like can be used. Further, as the training data of the high image quality model, various images such as an anterior eye image and an SLO image are used as input data, and high quality images corresponding to the input images, for example, which have undergone high image quality processing, are output data. And. Here, the high image quality processing includes alignment of images taken at the same spatial position a plurality of times, and addition and averaging of the aligned images. The high image quality processing is not limited to the addition averaging processing, and may be, for example, a processing using a smoothing filter, a maximum a posteriori estimation processing (MAP estimation processing), a gradation conversion processing, or the like. The high-quality image may be, for example, an image that has undergone filter processing such as noise removal and edge enhancement, or an image whose contrast has been adjusted so as to change from a low-luminance image to a high-brightness image. May be used. Further, since the output data of the training data related to the high image quality model may be a high quality image, the image is taken using an OCT device having higher performance than the OCT device when the tomographic image which is the input data is taken. It may be an image taken or an image taken with a high load setting.

ただし、適切に高画質化処理が行われていない画像を学習データの出力データとして用いて機械学習を行うと、当該学習データを用いて学習した学習済モデルを用いて得た画像も適切に高画質化処理が行われていない画像となってしまう可能性がある。そのため、そのような画像を含むペアを教師データから取り除くことで、学習済モデルを用いて適切でない画像が生成される可能性を低減させることができる。 However, if machine learning is performed using an image that has not been properly image-enhanced as output data of training data, the image obtained by using the trained model trained using the training data is also appropriately high. There is a possibility that the image will not be image-enhanced. Therefore, by removing the pair containing such an image from the teacher data, it is possible to reduce the possibility that an inappropriate image is generated by using the trained model.

制御部102は、このような高画質化モデルを用いて高画質化処理を行うことで、精度良く高画質化された画像をより高速に取得することができる。 The control unit 102 can acquire an image with high image quality with high accuracy at a higher speed by performing high image quality processing using such a high image quality model.

なお、高画質化モデルは、入力データである各種画像の種類毎に用意されてもよい。例えば、前眼画像用の高画質化モデルや、SLO画像用の高画質化モデル、断層画像用の高画質化モデル、OCTA正面画像用の高画質化モデル等が用意されてよい。また、OCTA正面画像やEn−Face画像については、画像を生成するための深度範囲毎に高画質化モデルが用意されてもよい。例えば、表層用の高画質化モデルや深層用の高画質化モデル等が用意されてよい。さらに、高画質化モデルは、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)毎の画像について学習を行ったものでもよいし、撮影部位に関わらず学習を行ったものであってもよい。 The high image quality model may be prepared for each type of various images as input data. For example, a high image quality model for an anterior eye image, a high image quality model for an SLO image, a high image quality model for a tomographic image, a high image quality model for an OCTA front image, and the like may be prepared. Further, for the OCTA front image and the En-Face image, a high image quality model may be prepared for each depth range for generating an image. For example, a high image quality model for the surface layer, a high image quality model for the deep layer, and the like may be prepared. Further, the high image quality model may be one in which learning is performed on an image for each imaging site (for example, the center of the macula and the center of the optic nerve head), or may be one in which learning is performed regardless of the imaging site. ..

このとき、例えば、眼底OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、眼底OCTA正面画像を高画質化し、さらに、前眼OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、前眼OCTA正面画像を高画質化してもよい。また、高画質化モデルは、撮影部位を関わらず学習を行ったものであってもよい。ここで、例えば、眼底OCTA正面画像及び前眼OCTA正面画像は、撮影対象である血管の分布の様子が互いに比較的類似していることがある。このように、撮影対象の様子が互いに比較的類似しているような複数の種類の医用画像では、互いの特徴量が比較的類似していることがある。そこで、例えば、眼底OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、眼底OCTA正面画像を高画質化するだけでなく、前眼OCTA正面画像も高画質化可能に構成されてもよい。また、例えば、前眼OCTA正面画像を学習データとして学習して得た高画質化モデルを用いて、前眼OCTA正面画像を高画質化するだけでなく、眼底OCTA正面画像も高画質化可能に構成されてもよい。すなわち、眼底OCTA正面画像と前眼OCTA正面画像との少なくとも一つの種類の正面画像を学習データとして学習して得た高画質化モデルを用いて、眼底OCTA正面画像と前眼OCTA正面画像との少なくとも一つの種類の正面画像を高画質化可能に構成されてもよい。 At this time, for example, using a high image quality model obtained by learning the fundus OCTA front image as training data, the fundus OCTA front image is improved in image quality, and further, the anterior eye OCTA front image is learned as training data. The high image quality model may be used to improve the image quality of the frontal image of the front eye OCTA. Further, the high image quality model may be one that has been learned regardless of the imaging region. Here, for example, the fundus OCTA frontal image and the anterior eye OCTA frontal image may have relatively similar distributions of blood vessels to be imaged. As described above, in a plurality of types of medical images in which the appearances of the objects to be imaged are relatively similar to each other, the feature quantities may be relatively similar to each other. Therefore, for example, by using a high image quality model obtained by learning the fundus OCTA front image as learning data, it is possible not only to improve the image quality of the fundus OCTA front image but also to improve the image quality of the anterior eye OCTA front image. May be done. Further, for example, by using a high image quality model obtained by learning the anterior eye OCTA front image as learning data, not only the anterior eye OCTA front image can be improved, but also the fundus OCTA front image can be improved. It may be configured. That is, using a high-quality model obtained by learning at least one type of frontal image of the fundus OCTA frontal image and the anterior eye OCTA frontal image as training data, the fundus OCTA frontal image and the anterior eye OCTA frontal image are At least one type of front image may be configured to have high image quality.

ここで、眼底撮影可能なOCT装置において、前眼も撮影可能である場合を考える。このとき、OCTAのEn−Face画像には、例えば、眼底撮影モードにおいては眼底OCTA正面画像が適用され、また、前眼部撮影モードにおいては前眼OCTA正面画像が適用されてもよい。このとき、高画質化ボタンが押下されると、例えば、眼底撮影モードにおいては、OCTAのEn−Face画像の表示領域において、低画質の眼底OCTA正面画像と高画質の眼底OCTA正面画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。また、高画質化ボタンが押下されると、例えば、前眼部撮影モードにおいては、OCTAのEn−Face画像の表示領域において、低画質の前眼OCTA正面画像と高画質の前眼OCTA正面画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。 Here, consider a case where the anterior eye can also be photographed in the OCT device capable of photographing the fundus. At this time, for example, the fundus OCTA frontal image may be applied to the OCTA En-Face image in the fundus photography mode, and the anterior eye OCTA frontal image may be applied in the anterior ocular segment imaging mode. At this time, when the high image quality button is pressed, for example, in the fundus photography mode, in the display area of the En-Face image of OCTA, among the low image quality fundus OCTA front image and the high image quality fundus OCTA front image. One display may be configured to change to the other display. When the high image quality button is pressed, for example, in the anterior segment imaging mode, a low-quality front eye OCTA front image and a high-quality front eye OCTA front image are displayed in the OCTA En-Face image display area. The display of one of the above may be changed to the display of the other.

なお、眼底撮影可能なOCT装置において、前眼も撮影可能とする場合に、前眼アダプタが装着可能に構成されてもよい。また、前眼アダプタを用いずに、OCT装置の光学系が被検眼の眼軸長程度の距離、移動可能に構成されてもよい。このとき、OCT装置のフォーカス位置が前眼に結像する程度、正視側に大きく変更可能に構成されてもよい。 In the OCT device capable of photographing the fundus, the anterior eye adapter may be configured to be attachable when the anterior eye can also be imaged. Further, the optical system of the OCT device may be configured to be movable at a distance of about the axial length of the eye to be inspected without using the anterior eye adapter. At this time, the focus position of the OCT device may be configured to be largely changeable on the emmetropic side to the extent that an image is formed on the front eye.

また、断層画像には、例えば、眼底撮影モードにおいては眼底OCT断層画像が適用され、また、前眼部撮影モードにおいては前眼OCT断層画像が適用されてもよい。また、上述した眼底OCTA正面画像及び前眼OCTA正面画像の高画質化処理は、例えば、眼底OCT断層画像及び前眼OCT断層画像の高画質化処理として適用することも可能である。このとき、高画質化ボタンが押下されると、例えば、眼底撮影モードにおいては、断層画像の表示領域において、低画質の眼底OCT断層画像と高画質の眼底OCT断層画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。また、高画質化ボタンが押下されると、例えば、前眼部撮影モードにおいては、断層画像の表示領域において、低画質の前眼OCT断層画像と高画質の前眼OCT断層画像とのうち一方の表示が他方の表示に変更されるように構成されてもよい。 Further, for example, a fundus OCT tomographic image may be applied to the tomographic image in the fundus imaging mode, and an anterior ocular OCT tomographic image may be applied in the anterior segment imaging mode. Further, the above-mentioned high image quality processing of the fundus OCTA frontal image and the anterior ocular OCTA frontal image can be applied as, for example, high image quality processing of the fundus OCT tomographic image and the anterior ocular OCT tomographic image. At this time, when the high image quality button is pressed, for example, in the fundus photography mode, one of the low image quality fundus OCT tomographic image and the high image quality fundus OCT tomographic image is displayed in the tomographic image display area. It may be configured to change to the other display. When the high image quality button is pressed, for example, in the anterior segment imaging mode, one of a low-quality anterior OCT tomographic image and a high-quality anterior OCT tomographic image is displayed in the tomographic image display area. The display of is changed to the other display.

また、断層画像には、例えば、眼底撮影モードにおいては眼底OCTA断層画像が適用され、また、前眼部撮影モードにおいては前眼OCTA断層画像が適用されてもよい。また、上述した眼底OCTA正面画像及び前眼OCTA正面画像の高画質化処理は、例えば、眼底OCTA断層画像及び前眼OCTA断層画像の高画質化処理として適用することも可能である。このとき、例えば、眼底撮影モードにおいては、断層画像の表示領域において、眼底OCTA断層画像における血管領域(例えば、閾値以上のモーションコントラストデータ)を示す情報が、対応する位置の眼底OCT断層画像に重畳して表示されるように構成されてもよい。また、例えば、前眼部撮影モードにおいては、断層画像の表示領域において、前眼OCTA断層画像における血管領域を示す情報が、対応する位置の前眼OCT断層画像に重畳して表示されてもよい。 Further, for example, the fundus OCTA tomographic image may be applied to the tomographic image in the fundus photography mode, and the anterior eye OCTA tomographic image may be applied to the tomographic image in the anterior ocular segment imaging mode. Further, the above-mentioned high image quality processing of the fundus OCTA front image and the anterior ocular OCTA front image can be applied as, for example, high image quality processing of the fundus OCTA tomographic image and the anterior ocular OCTA tomographic image. At this time, for example, in the fundus photography mode, in the tomographic image display area, the information indicating the blood vessel region (for example, motion contrast data above the threshold value) in the fundus OCTA tomographic image is superimposed on the fundus OCT tomographic image at the corresponding position. It may be configured to be displayed. Further, for example, in the anterior segment imaging mode, information indicating a vascular region in the anterior ocular OCTA tomographic image may be superimposed and displayed on the anterior ocular OCT tomographic image at a corresponding position in the tomographic image display region. ..

このように、例えば、複数の種類の医用画像の特徴量(撮影対象の様子)が互いに比較的類似していると考えられるような場合には、複数の種類の医用画像の少なくとも一つの種類の医用画像を学習データとして学習して得た高画質化モデルを用いて、複数の種類の医用画像の少なくとも一つの種類の医用画像を高画質化可能に構成されてもよい。これにより、例えば、共通の学習済モデル(共通の高画質化モデル)を用いて、複数の種類の医用画像の高画質化を実行可能に構成することができる。 In this way, for example, when it is considered that the feature quantities (the appearance of the imaged object) of a plurality of types of medical images are relatively similar to each other, at least one type of the plurality of types of medical images may be used. Using a high image quality model obtained by learning a medical image as training data, at least one type of medical image of a plurality of types of medical images may be configured to have high image quality. Thereby, for example, a common trained model (common high image quality improvement model) can be used to enable execution of high image quality improvement of a plurality of types of medical images.

なお、眼底撮影モードの表示画面と前眼部撮影モードの表示画面とは、同じ表示レイアウトであってもよいし、それぞれの撮影モードに対応する表示レイアウトであってもよい。眼底撮影モードと前眼部撮影モードとで、撮影条件や解析条件等の種々の条件が同じであってもよいし、異なっていてもよい。 The display screen of the fundus photography mode and the display screen of the anterior eye part photography mode may have the same display layout or may have a display layout corresponding to each photography mode. Various conditions such as imaging conditions and analysis conditions may be the same or different between the fundus imaging mode and the anterior segment imaging mode.

ここで、高画質化処理の対象画像は、例えば、(複数の深度範囲に対応する)複数のOCTA正面画像(OCTAのEn−Face画像、モーションコントラストのEn−Face画像)であってもよい。また、高画質化処理の対象画像は、例えば、1つの深度範囲に対応する1つのOCTA正面画像であってもよい。また、高画質化処理の対象画像は、OCTA正面画像の代わりに、例えば、輝度の正面画像(輝度のEn−Face画像)、あるいはBスキャン画像であるOCT断層画像やモーションコントラストデータの断層画像(OCTA断層画像)であってもよい。また、高画質化処理の対象画像は、OCTA正面画像だけでなく、例えば、輝度の正面画像及びBスキャン画像であるOCT断層画像やモーションコントラストデータの断層画像(OCTA断層画像)等の種々の医用画像であってもよい。すなわち、高画質化処理の対象画像は、例えば、表示部103の表示画面上に表示されている種々の医用画像の少なくとも1つであればよい。このとき、例えば、画像の種類毎に画像の特徴量が異なる場合があるため、高画質化処理の対象画像の各種類に対応する高画質化用の学習済モデルが用いられてもよい。例えば、検者からの指示に応じて高画質化ボタンが押下されると、OCTA正面画像に対応する高画質化用の学習済モデルを用いてOCTA正面画像を高画質化処理するだけでなく、OCT断層画像に対応する高画質化用の学習済モデルを用いてOCT断層画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、OCTA正面画像に対応する高画質化用の学習済モデルを用いて生成された高画質なOCTA正面画像の表示に変更されるだけでなく、OCT断層画像に対応する高画質化用の学習済モデルを用いて生成された高画質なOCT断層画像の表示に変更されるように構成されてもよい。このとき、OCT断層画像の位置を示すラインがOCTA正面画像に重畳表示されるように構成されてもよい。また、上記ラインは、検者からの指示に応じてOCTA正面画像上で移動可能に構成されてもよい。また、高画質化ボタンの表示がアクティブ状態である場合には、上記ラインが移動された後に、現在のラインの位置に対応するOCT断層画像を高画質化処理して得た高画質なOCT断層画像の表示に変更されるように構成されてもよい。また、高画質化処理の対象画像毎に高画質化ボタンが表示されることで、画像毎に独立して高画質化処理可能に構成されてもよい。 Here, the target image for high image quality processing may be, for example, a plurality of OCTA front images (OCTA En-Face images, motion contrast En-Face images) (corresponding to a plurality of depth ranges). Further, the target image for high image quality processing may be, for example, one OCTA front image corresponding to one depth range. Further, the target image of the high image quality processing is, for example, a front image of luminance (En-Face image of luminance), an OCT tomographic image which is a B scan image, or a tomographic image of motion contrast data (instead of the front image of OCTA). OCTA tomographic image) may be used. Further, the target image of the high image quality processing is not only the OCTA front image, but also various medical applications such as the front image of brightness, the OCT tomographic image which is a B scan image, and the tomographic image of motion contrast data (OCTA torpedo image). It may be an image. That is, the target image for the high image quality processing may be, for example, at least one of various medical images displayed on the display screen of the display unit 103. At this time, for example, since the feature amount of the image may be different for each type of image, a trained model for high image quality corresponding to each type of the target image for high image quality processing may be used. For example, when the high image quality button is pressed in response to an instruction from the examiner, the OCTA front image is not only processed for high image quality by using the trained model for high image quality corresponding to the OCTA front image. The OCT tomographic image may also be configured to be processed for high image quality by using a trained model for high image quality corresponding to the OCT tomographic image. Further, for example, when the high image quality button is pressed in response to an instruction from the examiner, the high image quality OCTA front image generated by using the trained model for high image quality corresponding to the OCTA front image is displayed. It may be configured to be changed to display a high-quality OCT tomographic image generated by using a trained model for high image quality corresponding to the OCT tomographic image. At this time, the line indicating the position of the OCT tomographic image may be configured to be superimposed and displayed on the OCTA front image. Further, the line may be configured to be movable on the OCTA front image according to an instruction from the examiner. Further, when the display of the high image quality button is in the active state, after the above line is moved, the high image quality OCT tomographic image obtained by performing high image quality processing on the OCT tomographic image corresponding to the position of the current line is performed. It may be configured to be modified to display an image. Further, by displaying the high image quality button for each target image of the high image quality processing, the high image quality processing may be independently enabled for each image.

また、OCTA断層画像における血管領域(例えば、閾値以上のモーションコントラストデータ)を示す情報が、対応する位置のBスキャン画像であるOCT断層画像に重畳して表示されてもよい。このとき、例えば、OCT断層画像が高画質化されると、対応する位置のOCTA断層画像が高画質化されてもよい。そして、高画質化して得たOCTA断層画像における血管領域を示す情報が、高画質化して得たOCT断層画像に重畳して表示されてもよい。なお、血管領域を示す情報は、色等の識別可能な情報であれば何でもよい。また、血管領域を示す情報の重畳表示と非表示とが検者からの指示に応じて変更可能に構成されてもよい。また、OCT断層画像の位置を示すラインがOCTA正面画像上で移動されると、ラインの位置に応じてOCT断層画像の表示が更新されてもよい。このとき、対応する位置のOCTA断層画像も更新されるため、OCTA断層画像から得られる血管領域を示す情報の重畳表示が更新されてもよい。これにより、例えば、任意の位置において、血管領域と注目領域との位置関係を容易に確認しながら、血管領域の3次元の分布や状態を効果的に確認することができる。また、OCTA断層画像の高画質化は、高画質化用の学習済モデルを用いる代わりに、対応する位置で取得した複数のOCTA断層画像の加算平均処理等による高画質化処理であってもよい。また、OCT断層画像は、OCTボリュームデータにおける任意の位置の断面として再構成された疑似OCT断層画像であってもよい。また、OCTA断層画像は、OCTAボリュームデータにおける任意の位置の断面として再構成された疑似OCTA断層画像であってもよい。なお、任意の位置は、少なくとも1つの任意の位置であればよく、また、検者からの指示に応じて変更可能に構成されてもよい。このとき、複数の位置に対応する複数の疑似断層画像が再構成されるように構成されてもよい。 Further, the information indicating the blood vessel region (for example, motion contrast data equal to or higher than the threshold value) in the OCTA tomographic image may be superimposed and displayed on the OCT tomographic image which is the B scan image at the corresponding position. At this time, for example, when the image quality of the OCTA tomographic image is improved, the image quality of the OCTA tomographic image at the corresponding position may be improved. Then, the information indicating the blood vessel region in the OCTA tomographic image obtained by improving the image quality may be superimposed and displayed on the OCTA tomographic image obtained by improving the image quality. The information indicating the blood vessel region may be any information as long as it is identifiable information such as color. Further, the superimposed display and non-display of the information indicating the blood vessel region may be configured to be changeable according to an instruction from the examiner. Further, when the line indicating the position of the OCT tomographic image is moved on the OCTA front image, the display of the OCT tomographic image may be updated according to the position of the line. At this time, since the OCTA tomographic image at the corresponding position is also updated, the superimposed display of the information indicating the blood vessel region obtained from the OCTA tomographic image may be updated. Thereby, for example, the three-dimensional distribution and state of the blood vessel region can be effectively confirmed while easily confirming the positional relationship between the blood vessel region and the region of interest at an arbitrary position. Further, the image quality of the OCTA tomographic image may be improved by an addition averaging process or the like of a plurality of OCTA tomographic images acquired at the corresponding positions instead of using the trained model for the image quality improvement. .. Further, the OCT tomographic image may be a pseudo OCT tomographic image reconstructed as a cross section at an arbitrary position in the OCT volume data. Further, the OCTA tomographic image may be a pseudo OCTA tomographic image reconstructed as a cross section at an arbitrary position in the OCTA volume data. It should be noted that the arbitrary position may be at least one arbitrary position, and may be configured to be changeable according to an instruction from the examiner. At this time, a plurality of pseudo tomographic images corresponding to a plurality of positions may be configured to be reconstructed.

なお、表示される断層画像(例えば、OCT断層画像あるいはOCTA断層画像)は、1つだけ表示されてもよいし、複数表示されてもよい。複数の断層画像が表示される場合には、それぞれ異なる副走査方向の位置で取得された断層画像が表示されてもよいし、例えばクロススキャン等により得られた複数の断層画像を高画質化して表示する場合には、異なる走査方向の画像がそれぞれ表示されてもよい。また、例えばラジアルスキャン等により得られた複数の断層画像を高画質化して表示する場合には、一部選択された複数の断層画像(例えば基準ラインに対して互いに対称な位置の2つの断層画像)がそれぞれ表示されてもよい。さらに、経過観察用の表示画面(フォローアップ用の表示画面)に複数の断層画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚み等)の表示が行われてもよい。このとき、表示される複数の断層画像は、被検眼の所定部位の異なる日時に得た複数の断層画像であってもよいし、同一検査日の異なる時間に得た複数の断層画像であってもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいて断層画像に高画質化処理を実行してもよい。 Only one tomographic image (for example, OCT tomographic image or OCTA tomographic image) may be displayed, or a plurality of tomographic images may be displayed. When a plurality of tomographic images are displayed, the tomographic images acquired at positions in different sub-scanning directions may be displayed, or the plurality of tomographic images obtained by, for example, cross-scanning may be displayed in high quality. When displaying, images in different scanning directions may be displayed respectively. Further, when displaying a plurality of tomographic images obtained by, for example, a radial scan with high image quality, a plurality of partially selected tomographic images (for example, two tomographic images at positions symmetrical with respect to a reference line) are displayed. ) May be displayed respectively. Furthermore, a plurality of tomographic images are displayed on the follow-up display screen (follow-up display screen), and instructions for improving the image quality and analysis results (for example, the thickness of a specific layer, etc.) are displayed by the same method as the above method. ) May be displayed. At this time, the plurality of tomographic images displayed may be a plurality of tomographic images obtained at different dates and times at a predetermined site of the eye to be inspected, or a plurality of tomographic images obtained at different times on the same inspection day. May be good. Further, the tomographic image may be subjected to high image quality processing based on the information stored in the database by the same method as the above method.

同様に、SLO画像を高画質化して表示する場合には、例えば、同一の表示画面に表示されるSLO画像を高画質化して表示してもよい。さらに、輝度の正面画像を高画質化して表示する場合には、例えば、同一の表示画面に表示される輝度の正面画像を高画質化して表示してよい。さらに、経過観察用の表示画面に複数のSLO画像や輝度の正面画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚み等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいてSLO画像や輝度の正面画像に高画質化処理を実行してもよい。なお、断層画像、SLO画像、及び輝度の正面画像の表示は例示であり、これらの画像は所望の構成に応じて任意の態様で表示されてよい。また、OCTA正面画像、断層画像、SLO画像、及び輝度の正面画像の少なくとも2つ以上が、一度の指示で高画質化され表示されてもよい。 Similarly, when displaying an SLO image with high image quality, for example, the SLO image displayed on the same display screen may be displayed with high image quality. Further, when the front image of the brightness is displayed with high image quality, for example, the front image of the brightness displayed on the same display screen may be displayed with high image quality. Further, a plurality of SLO images and frontal images of luminance are displayed on the display screen for follow-up observation, and instructions for improving the image quality and analysis results (for example, the thickness of a specific layer) are displayed by the same method as the above method. May be done. Further, the high image quality processing may be executed on the SLO image or the front image of the brightness based on the information stored in the database by the same method as the above method. The display of the tomographic image, the SLO image, and the frontal image of the luminance is an example, and these images may be displayed in any manner depending on the desired configuration. Further, at least two or more of the OCTA front image, the tomographic image, the SLO image, and the brightness front image may be displayed with high image quality by one instruction.

このような構成により、高画質化処理して得た高画質画像を表示制御部125が表示部103に表示させることができる。なお、高画質画像の表示、解析結果の表示、表示される正面画像の深度範囲等に関する複数の条件のうち少なくとも1つの条件が選択されている場合には、表示画面が遷移されても、選択された条件が維持されるように構成されてもよい。なお、各種高画質画像や上記ライン、血管領域を示す情報等の表示の制御は、表示制御部125によって行われてよい。 With such a configuration, the display control unit 125 can display the high-quality image obtained by the high-quality processing on the display unit 103. If at least one of a plurality of conditions relating to the display of a high-quality image, the display of the analysis result, the depth range of the displayed front image, etc. is selected, the selection is made even if the display screen is changed. It may be configured to maintain the specified conditions. The display control unit 125 may control the display of various high-quality images, the above lines, information indicating the blood vessel region, and the like.

また、高画質化モデルは、表示制御部125によって表示部103に表示されるプレビュー画面において、ライブ動画像のすくなくとも1つのフレーム毎に用いられてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。例えば、アライメント処理に用いる前眼画像について、前眼画像用の高画質化モデルを用いて高画質化された画像を用いてもよい。同様に各種画像における所定領域の検出処理について用いられる各種画像について、それぞれの画像用の高画質化モデルを用いて高画質化された画像を用いてもよい。 Further, the high image quality model may be used for at least one frame of the live moving image in the preview screen displayed on the display unit 103 by the display control unit 125. At this time, when a plurality of live moving images of different parts or different types are displayed on the preview screen, the trained model corresponding to each live moving image may be used. For example, as for the anterior eye image used for the alignment process, an image having a high image quality using a high image quality model for the anterior eye image may be used. Similarly, for various images used for the detection process of a predetermined region in various images, an image whose image quality has been improved by using a high image quality model for each image may be used.

このとき、例えば、検者からの指示に応じて高画質化ボタンが押下された場合には、異なる種類の複数のライブ動画像(例えば、前眼画像、SLO画像、断層画像)の表示を(同時に)、それぞれ高画質化処理されることにより得た高画質動画像の表示に変更されるように構成されてもよい。このとき、高画質動画像の表示は、各フレームを高画質化処理して得た高画質画像の連続表示であってもよい。また、例えば、画像の種類毎に画像の特徴量が異なる場合があるため、高画質化処理の対象画像の各種類に対応する高画質化用の学習済モデルが用いられてもよい。例えば、検者からの指示に応じて高画質化ボタンが押下されると、前眼画像に対応する高画質化モデルを用いて前眼画像を高画質化処理するだけでなく、SLO画像に対応する高画質化モデルを用いてSLO画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、前眼画像に対応する高画質化モデルを用いて生成された高画質な前眼画像の表示に変更されるだけでなく、SLO画像に対応する高画質化モデルを用いて生成された高画質なSLO画像の表示に変更されるように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、SLO画像に対応する高画質化モデルを用いてSLO画像を高画質化処理するだけでなく、断層画像に対応する高画質化モデルを用いて断層画像も高画質化処理するように構成されてもよい。また、例えば、検者からの指示に応じて高画質化ボタンが押下されると、SLO画像に対応する高画質化モデルを用いて生成された高画質なSLO画像の表示に変更されるだけでなく、断層画像に対応する高画質化モデルを用いて生成された高画質な断層画像の表示に変更されるように構成されてもよい。このとき、断層画像の位置を示すラインがSLO画像に重畳表示されるように構成されてもよい。また、上記ラインは、検者からの指示に応じてSLO画像上で移動可能に構成されてもよい。また、高画質化ボタンの表示がアクティブ状態である場合には、上記ラインが移動された後に、現在のラインの位置に対応する断層画像を高画質化処理して得た高画質な断層画像の表示に変更されるように構成されてもよい。また、高画質化処理の対象画像毎に高画質化ボタンが表示されることで、画像毎に独立して高画質化処理可能に構成されてもよい。 At this time, for example, when the high image quality button is pressed in response to an instruction from the examiner, a plurality of different types of live moving images (for example, anterior eye image, SLO image, tomographic image) are displayed (for example). At the same time), it may be configured to be changed to display a high-quality moving image obtained by performing high-quality processing. At this time, the display of the high-quality moving image may be a continuous display of the high-quality image obtained by performing high-quality processing on each frame. Further, for example, since the feature amount of the image may be different for each type of image, a trained model for high image quality corresponding to each type of the target image for high image quality processing may be used. For example, when the high image quality button is pressed in response to an instruction from the examiner, not only the high image quality processing of the anterior eye image is performed using the high image quality model corresponding to the anterior eye image, but also the SLO image is supported. The SLO image may also be configured to perform high image quality processing using the high image quality improvement model. Further, for example, when the high image quality button is pressed in response to an instruction from the examiner, the display is changed to the high image quality front eye image generated by using the high image quality model corresponding to the front eye image. Not only that, it may be configured to be changed to display a high-quality SLO image generated by using a high-quality model corresponding to the SLO image. Further, for example, when the high image quality button is pressed in response to an instruction from the examiner, not only the high image quality processing of the SLO image is performed using the high image quality model corresponding to the SLO image, but also the tomographic image is supported. The tomographic image may also be configured to be processed for high image quality by using the high image quality model. Further, for example, when the high image quality button is pressed in response to an instruction from the examiner, the display is simply changed to the high image quality SLO image generated by using the high image quality model corresponding to the SLO image. Instead, it may be configured to be modified to display a high quality tomographic image generated using a high image quality model corresponding to the tomographic image. At this time, the line indicating the position of the tomographic image may be configured to be superimposed and displayed on the SLO image. Further, the line may be configured to be movable on the SLO image according to an instruction from the examiner. Further, when the display of the high image quality button is in the active state, after the above line is moved, the tomographic image corresponding to the position of the current line is processed to have high image quality to obtain a high image quality tomographic image. It may be configured to change to display. Further, by displaying the high image quality button for each target image of the high image quality processing, the high image quality processing may be independently enabled for each image.

これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、プレビュー画面を確認しながら操作者がアライメント位置を修正する場合に、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。また、制御部102は、撮影開始に関する指示に応じて、撮影の途中あるいは撮影の最後に、セグメンテーション処理等により得たアーチファクト領域等の部分領域が再度撮影(リスキャン)されるように、上述した走査手段を駆動制御してもよい。なお、被検眼の動き等の状態によっては、1回のリスキャンでは上手く撮影できない場合があるため、所定の回数のリスキャンが繰り返されるように駆動制御されてもよい。このとき、所定の回数のリスキャンの途中でも、操作者からの指示に応じて(例えば、撮影キャンセルボタンの押下後に)リスキャンが終了されるように構成されてもよい。このとき、操作者からの指示に応じてリスキャンが終了されるまでの撮影データが保存されるように構成されてもよい。なお、例えば、撮影キャンセルボタンの押下後に確認ダイアログが表示され、撮影データの保存か、撮影データの破棄かを、操作者からの指示に応じて選択可能に構成されてもよい。また、例えば、撮影キャンセルボタンの押下後には、(現在のリスキャンは完了するまで実行されるが)次のリスキャンは実行されずに、確認ダイアログにおける操作者からの指示(入力)があるまで待機するように構成されてもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を自動的に行うように構成されてもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を検者からの指示に応じて実行可能な状態に変更(実行禁止状態を解除)するように構成されてもよい。 As a result, for example, even if it is a live moving image, the processing time can be shortened, so that the examiner can obtain highly accurate information before the start of shooting. Therefore, for example, when the operator corrects the alignment position while checking the preview screen, it is possible to reduce the failure of re-shooting and the like, so that the accuracy and efficiency of the diagnosis can be improved. Further, the control unit 102 scans the above-mentioned scan so that the partial region such as the artifact region obtained by the segmentation process or the like is photographed (rescanned) again during or at the end of the imaging in response to the instruction regarding the start of imaging. The means may be driven and controlled. Depending on the movement of the eye to be inspected, it may not be possible to take a good picture by one rescan. Therefore, the drive may be controlled so that the rescan is repeated a predetermined number of times. At this time, even during a predetermined number of rescans, the rescan may be terminated in response to an instruction from the operator (for example, after the shooting cancel button is pressed). At this time, it may be configured to save the shooting data until the rescan is completed according to the instruction from the operator. For example, a confirmation dialog may be displayed after the shooting cancel button is pressed, and the shooting data may be saved or the shooting data may be discarded according to an instruction from the operator. Also, for example, after pressing the shooting cancel button, the next rescan is not executed (although the current rescan is executed until it is completed), and it waits until there is an instruction (input) from the operator in the confirmation dialog. It may be configured as follows. Further, for example, when the information indicating the certainty of the object recognition result regarding the region of interest (for example, the numerical value indicating the ratio) exceeds the threshold value, each adjustment, shooting start, etc. may be automatically performed. good. Further, for example, when the information indicating the certainty of the object recognition result regarding the region of interest (for example, the numerical value indicating the ratio) exceeds the threshold value, each adjustment, the start of imaging, etc. can be executed according to the instruction from the examiner. It may be configured to change to a new state (release the execution prohibited state).

ここで、オートアライメント中では、被検眼Eの網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン画像)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。なお、高画質化ボタンは、高画質化処理の実行を指定するためのボタンである。もちろん、高画質化ボタンは、高画質画像の表示を指示するためのボタンであってもよい。 Here, during auto-alignment, it is possible that the imaged object such as the retina of the eye E to be inspected has not yet been successfully imaged. Therefore, since there is a large difference between the medical image input to the trained model and the medical image used as the training data, there is a possibility that a high-quality image cannot be obtained with high accuracy. Therefore, when the evaluation value such as the image quality evaluation of the tomographic image (B scan image) exceeds the threshold value, the display of the high-quality moving image (continuous display of high-quality frames) may be automatically started. Further, when the evaluation value such as the image quality evaluation of the tomographic image exceeds the threshold value, the image quality improvement button may be configured to be changed to a state (active state) that can be specified by the examiner. The high image quality button is a button for designating the execution of the high image quality processing. Of course, the high image quality button may be a button for instructing the display of a high image quality image.

また、スキャンパターン等が異なる撮影モード毎に異なる高画質化モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化モデルが用いられてもよい。 Further, a different high image quality model may be prepared for each shooting mode having a different scan pattern or the like, and a trained model for high image quality corresponding to the selected shooting mode may be selected. Further, one high image quality model obtained by learning learning data including various medical images obtained in different imaging modes may be used.

ここで、眼科装置、例えばOCT装置では、撮影モード毎に測定に用いる光束のスキャンパターンや撮影部位が異なる。そのため、断層画像を入力データとする学習済モデルに関しては、撮影モード毎に学習済モデルを用意し、操作者の指示に応じて選択された撮影モードに対応する学習済モデルが選択されるように構成してもよい。この場合、撮影モードとしては、例えば、網膜撮影モード、前眼部撮影モード、硝子体撮影モード、黄斑部撮影モード、及び視神経乳頭部撮影モード、OCTA撮影モード等が含まれてよい。また、スキャンパターンとしては、3Dスキャン、ラジアルスキャン、クロススキャン、サークルスキャン、ラスタスキャン、及びリサージュスキャン(リサージュ曲線に沿った走査)等が含まれてよい。なお、OCTA撮影モードでは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように、駆動制御部124が上述した走査手段を制御する。OCTA撮影モードでも、スキャンパターンとして、例えばラスタスキャンや、ラジアルスキャン、クロススキャン、サークルスキャン、リサージュスキャン等を設定することができる。また、断層画像を入力データとする学習済モデルに関しては、異なる方向の断面に応じた断層画像を学習データに用いて学習を行うことができる。例えば、xz方向の断面の断層画像やyz方向の断面の断層画像等を学習データに用いて学習を行ってよい。 Here, in an ophthalmic apparatus, for example, an OCT apparatus, the scan pattern of the luminous flux used for the measurement and the imaging portion differ depending on the imaging mode. Therefore, for the trained model that uses the tomographic image as input data, a trained model is prepared for each shooting mode, and the trained model corresponding to the shooting mode selected according to the instruction of the operator is selected. It may be configured. In this case, the imaging mode may include, for example, a retinal imaging mode, an anterior ocular segment imaging mode, a vitreous imaging mode, a macula imaging mode, an optic disc imaging mode, an OCTA imaging mode, and the like. Further, the scan pattern may include 3D scan, radial scan, cross scan, circle scan, raster scan, Lissajous scan (scan along the Lissajous curve) and the like. In the OCTA photographing mode, the drive control unit 124 controls the scanning means described above so that the measurement light is scanned a plurality of times in the same region (same position) of the eye to be inspected. Even in the OCTA shooting mode, for example, raster scan, radial scan, cross scan, circle scan, Lissajous scan and the like can be set as the scan pattern. Further, with respect to the trained model using the tomographic image as input data, it is possible to perform training by using the tomographic image corresponding to the cross section in different directions as the training data. For example, learning may be performed using a tomographic image of a cross section in the xz direction, a tomographic image of a cross section in the yz direction, or the like as training data.

なお、高画質化モデルによる高画質化処理の実行(又は高画質化処理して得た高画質画像の表示)の要否の判断は、表示画面に設けられる高画質化ボタンについて、操作者の指示に応じて行われてもよいし、予め記憶部126に記憶されている設定に応じて行われてもよい。なお、学習済モデル(高画質化モデル)を用いた高画質化処理である旨を高画質化ボタンのアクティブ状態等で表示してもよいし、その旨をメッセージとして表示画面に表示させてもよい。また、高画質化処理の実行は、眼科装置の前回の起動時における実行状態を維持してもよいし、被検者毎に前回の検査時の実行状態を維持してもよい。 It should be noted that the operator determines whether or not it is necessary to execute the high image quality processing by the high image quality model (or to display the high image quality image obtained by the high image quality processing) with respect to the high image quality button provided on the display screen. It may be performed according to the instruction, or may be performed according to the setting stored in the storage unit 126 in advance. It should be noted that the fact that the high image quality processing using the trained model (high image quality improvement model) may be displayed in the active state of the high image quality improvement button, or that fact may be displayed on the display screen as a message. good. Further, the execution of the high image quality processing may maintain the execution state at the time of the previous examination of the ophthalmic apparatus, or may maintain the execution state at the time of the previous examination for each subject.

また、高画質化モデル等の種々の学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部126に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部126に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン画像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化エンジンにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成されてもよい。 Further, the moving image to which various trained models such as a high image quality improvement model can be applied is not limited to the live moving image, and may be, for example, a moving image stored (stored) in the storage unit 126. At this time, for example, the moving image obtained by aligning each frame of the tomographic moving image of the fundus stored (stored) in the storage unit 126 may be displayed on the display screen. For example, when it is desired to preferably observe the vitreous body, first, a reference frame based on a condition such as the presence of the vitreous body on the frame as much as possible may be selected. At this time, each frame is a tomographic image (B scan image) in the XZ direction. Then, a moving image in which another frame is aligned in the XZ direction with respect to the selected reference frame may be displayed on the display screen. At this time, for example, a high-quality image (high-quality frame) sequentially generated by the high-quality engine may be continuously displayed for each at least one frame of the moving image.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されても良いし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン画像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層画像(Bスキャン画像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 As the above-mentioned alignment method between frames, the same method may be applied to the alignment method in the X direction and the alignment method in the Z direction (depth direction), and all different methods may be applied. May be applied. Further, the alignment in the same direction may be performed a plurality of times by different methods, and for example, a precise alignment may be performed after performing a rough alignment. Further, as a method of alignment, for example, a plurality of alignments obtained by segmenting a tomographic image (coarse in the Z direction) using a retinal layer boundary obtained by performing segmentation processing of a tomographic image (B scan image) are performed. Alignment using the correlation information (similarity) between the region and the reference image (precise in the X and Z directions), and the one-dimensional projection image generated for each tomographic image (B scan image) was used (in the X direction). ) Alignment, alignment (in the X direction) using a two-dimensional front image, and the like. Further, it may be configured so that the alignment is roughly performed in pixel units and then the precise alignment is performed in sub-pixel units.

また、高画質化モデルは、検者からの指示に応じて設定(変更)された割合の値を学習データとする追加学習により更新されてもよい。例えば、入力画像が比較的暗いときに、高画質画像に対する入力画像の割合を検者が高く設定する傾向にあれば、学習済モデルはそのような傾向となるように追加学習することになる。これにより、例えば、検者の好みに合った合成の割合を得ることができる学習済モデルとしてカスタマイズすることができる。このとき、設定(変更)された割合の値を追加学習の学習データとして用いるか否かを、検者からの指示に応じて決定するためのボタンが表示画面に表示されていてもよい。また、学習済モデルを用いて決定された割合をデフォルトの値とし、その後、検者からの指示に応じて割合の値をデフォルトの値から変更可能となるように構成されてもよい。また、高画質化モデルは、高画質化モデルを用いて生成された少なくとも1つの高画質画像を含む学習データを追加学習して得た学習済モデルであってもよい。このとき、高画質画像を追加学習用の学習データとして用いるか否かを、検者からの指示により選択可能に構成されてもよい。 Further, the high image quality model may be updated by additional learning using the value of the ratio set (changed) according to the instruction from the examiner as the learning data. For example, if the examiner tends to set a high ratio of the input image to the high-quality image when the input image is relatively dark, the trained model will be additionally trained so as to have such a tendency. This allows, for example, to be customized as a trained model that can obtain a percentage of synthesis that suits the taste of the examiner. At this time, a button for deciding whether or not to use the set (changed) ratio value as the learning data for additional learning according to the instruction from the examiner may be displayed on the display screen. Further, the ratio determined by using the trained model may be set as the default value, and then the ratio value may be changed from the default value according to the instruction from the examiner. Further, the high image quality model may be a trained model obtained by additional learning of learning data including at least one high image quality image generated by using the high image quality model. At this time, whether or not to use the high-quality image as learning data for additional learning may be configured to be selectable according to an instruction from the examiner.

[変形例8]
また、制御部102は、撮影により取得した画像について、画像セグメンテーション用の学習済モデルを用いてラベル画像を生成し、画像セグメンテーション処理を行ってもよい。ここでラベル画像とは、当該断層画像について画素毎に領域のラベルが付されたラベル画像をいう。具体的には、取得された画像に描出されている領域群のうち、任意の領域を特定可能な画素値(以下、ラベル値)群によって分けている画像のことである。ここで、特定される任意の領域には関心領域や関心体積(VOI:Volume Of Interest)等が含まれる。
[Modification 8]
Further, the control unit 102 may generate a label image of the image acquired by shooting using a trained model for image segmentation, and perform image segmentation processing. Here, the label image means a label image in which a region is labeled for each pixel of the tomographic image. Specifically, it is an image in which any area is divided by a group of identifiable pixel values (hereinafter, label value) among the area groups drawn in the acquired image. Here, the specified arbitrary region includes a region of interest, a volume of interest (VOI: Volume Of Interest), and the like.

画像から任意のラベル値を持つ画素の座標群を特定すると、画像中において対応する網膜層等の領域を描出している画素の座標群を特定できる。具体的には、例えば、網膜を構成する神経節細胞層を示すラベル値が1である場合、画像の画素群のうち画素値が1である座標群を特定し、画像から該座標群に対応する画素群を抽出する。これにより、当該画像における神経節細胞層の領域を特定できる。 By specifying the coordinate group of the pixel having an arbitrary label value from the image, the coordinate group of the pixel that depicts the corresponding region such as the retinal layer in the image can be specified. Specifically, for example, when the label value indicating the ganglion cell layer constituting the retina is 1, the coordinate group having the pixel value of 1 among the pixel groups of the image is specified, and the coordinate group corresponds to the coordinate group from the image. Extract the pixel group to be used. This makes it possible to identify the region of the ganglion cell layer in the image.

なお、画像セグメンテーション処理には、ラベル画像に対する縮小又は拡大処理を実施する処理が含まれてもよい。このとき、ラベル画像の縮小又は拡大に用いる画像補完処理手法は、未定義のラベル値や対応する座標に存在しないはずのラベル値を誤って生成しないような、最近傍法等を使うものとする。 The image segmentation process may include a process of reducing or enlarging the label image. At this time, the image complement processing method used for reducing or enlarging the label image shall use the nearest neighbor method or the like so as not to erroneously generate an undefined label value or a label value that should not exist at the corresponding coordinates. ..

画像セグメンテーション処理とは、画像に描出された臓器や病変といった、ROI(Region Of Interest)やVOIと呼ばれる領域を、画像診断や画像解析に利用するために特定する処理のことである。例えば、画像セグメンテーション処理によれば、後眼部を撮影対象としたOCTの撮影によって取得された画像から、網膜を構成する層群の領域群を特定することができる。なお、画像に特定すべき領域が描出されていなければ特定される領域の数は0である。また、画像に特定すべき複数の領域群が描出されていれば、特定される領域の数は複数であってもよいし、又は、該領域群を含むように囲む領域1つであってもよい。 The image segmentation process is a process for specifying a region called ROI (Region Of Interest) or VOI, such as an organ or a lesion depicted in an image, for use in image diagnosis or image analysis. For example, according to the image segmentation process, it is possible to identify a region group of a group of layers constituting the retina from an image acquired by OCT imaging with the back eye portion as an imaging target. If the area to be specified is not drawn in the image, the number of specified areas is 0. Further, as long as a plurality of region groups to be specified are depicted in the image, the number of the specified regions may be a plurality, or even one region surrounding the region group so as to include the region group. good.

特定された領域群は、その他の処理において利用可能な情報として出力される。具体的には、例えば、特定された領域群のそれぞれを構成する画素群の座標群を数値データ群として出力することができる。また、例えば、特定された領域群のそれぞれを含む矩形領域や楕円領域、長方体領域、楕円体領域等を示す座標群を数値データ群として出力することもできる。さらに、例えば、特定された領域群の境界にあたる直線や曲線、平面、又は曲面等を示す座標群を数値データ群として出力することもできる。また、例えば、特定された領域群を示すラベル画像を出力することもできる。 The specified area group is output as information that can be used in other processing. Specifically, for example, the coordinate group of the pixel group constituting each of the specified area groups can be output as a numerical data group. Further, for example, a coordinate group indicating a rectangular area, an ellipsoidal area, a rectangular parallelepiped area, an ellipsoidal area, etc. including each of the specified area groups can be output as a numerical data group. Further, for example, a coordinate group indicating a straight line, a curve, a plane, a curved surface, or the like corresponding to the boundary of the specified region group can be output as a numerical data group. Further, for example, a label image showing the specified region group can be output.

ここで、画像セグメンテーション用の機械学習モデルとしては、例えば、畳み込みニューラルネットワーク(CNN)を用いることができる。ここで、図11を参照して、本変形例に係る機械学習モデルを、CNNで構成する例について説明する。図11は、画像セグメンテーション用の学習済モデルの構成1100の一例を示している。当該学習済モデルの例では、例えば、断層画像Im1110が入力されると、特定された領域群を示すラベル画像Im1120を出力することができる。 Here, as a machine learning model for image segmentation, for example, a convolutional neural network (CNN) can be used. Here, with reference to FIG. 11, an example in which the machine learning model according to this modification is configured by CNN will be described. FIG. 11 shows an example of configuration 1100 of a trained model for image segmentation. In the example of the trained model, for example, when the tomographic image Im1110 is input, the label image Im1120 indicating the specified region group can be output.

図11に示す機械学習モデルは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該機械学習モデルの構成1100に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。 The machine learning model shown in FIG. 11 is composed of a plurality of layers responsible for processing and outputting an input value group. The types of layers included in the configuration 1100 of the machine learning model include a convolution layer, a Downsampling layer, an Upsampling layer, and a Merger layer.

畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。 The convolution layer is a layer that performs convolution processing on the input value group according to parameters such as the kernel size of the set filter, the number of filters, the stride value, and the dilation value. The number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image.

ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。 The downsampling layer is a layer that performs processing to reduce the number of output value groups to be smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, as such a process, for example, there is a Max Polling process.

アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。 The upsampling layer is a layer that performs processing to increase the number of output value groups to be larger than the number of input value groups by duplicating the input value group or adding interpolated values from the input value group. Specifically, as such a process, for example, there is a linear interpolation process.

合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The composite layer is a layer in which a value group such as an output value group of a certain layer or a pixel value group constituting an image is input from a plurality of sources, and the processing is performed by concatenating or adding them.

なお、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。 It should be noted that if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendency trained from the teacher data can be reproduced in the output data may differ. That is, in many cases, the appropriate parameters differ depending on the embodiment, and therefore, the values can be changed to preferable values as needed.

また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、より精度の高いアライメント位置の情報を出力したり、処理時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。 In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics include, for example, more accurate alignment position information output, shorter processing time, shorter training time for machine learning models, and the like.

なお、本変形例で用いるCNNの構成1100は、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルである。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 The CNN configuration 1100 used in this modification has a function of an encoder composed of a plurality of layers including a plurality of downsampling layers and a function of a decoder composed of a plurality of layers including a plurality of upsampling layers. It is a net type machine learning model. In the U-net type machine learning model, the position information (spatial information) obscured in a plurality of layers configured as an encoder is transferred to the same-dimensional layer (layers corresponding to each other) in a plurality of layers configured as a decoder. ) (For example, using a skip connection).

図示しないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。CNNのこれらのステップを通して、撮影画像の特徴を抽出することができる。 Although not shown, as an example of changing the configuration of the CNN, for example, a batch normalization layer or an activation layer using a normalized linear function (Rectifier Liner Unit) may be incorporated after the convolution layer. good. Through these steps of CNN, the features of the captured image can be extracted.

なお、本変形例に係る機械学習モデルとしては、例えば、図11で示したようなCNN(U−net型の機械学習モデル)、CNNとLSTMを組み合わせたモデル、FCN(Fully Convolutional Network)、又はSegNet等を用いることができる。また、所望の構成に応じて、物体認識を行う機械学習モデル等を用いることもできる。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルを用いることもできる。領域単位で物体認識を行う機械学習モデルとしては、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 As the machine learning model according to this modification, for example, CNN (U-net type machine learning model) as shown in FIG. 11, a model combining CNN and LSTM, FCN (Full Convolutional Network), or SegNet and the like can be used. Further, a machine learning model or the like that performs object recognition can also be used according to a desired configuration. As a machine learning model for performing object recognition, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Furthermore, a machine learning model that recognizes an object in units of regions can also be used. As a machine learning model that recognizes an object in a region unit, YOLO (You Only Look None) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used.

また、画像セグメンテーション用の機械学習モデルの学習データは、OCTにより取得された断層画像を入力データとし、当該断層画像について画素毎に領域のラベルが付されたラベル画像を出力データとする。ラベル画像としては、例えば、内境界膜(ILM)、神経線維層(NFL)、神経節細胞層(GCL)、視細胞内節外節接合部(ISOS)、網膜色素上皮層(RPE)、ブルッフ膜(BM)、及び脈絡膜等のラベルが付されたラベル画像を用いることができる。なお、その他の領域として、例えば、硝子体、強膜、外網状層(OPL)、外顆粒層(ONL)、内網状層(IPL)、内顆粒層(INL)、角膜、前房、虹彩、及び水晶体等のラベルが付された画像を用いてもよい。 Further, as the training data of the machine learning model for image segmentation, the tomographic image acquired by OCT is used as input data, and the label image in which the area is labeled for each pixel of the tomographic image is used as output data. Label images include, for example, internal limiting membrane (ILM), nerve fiber layer (NFL), ganglion cell layer (GCL), photoreceptor inner segment outer segment junction (ISOS), retinal pigment epithelial layer (RPE), Bruch. Labeled images with labels such as membrane (BM) and choroid can be used. Other regions include, for example, the vitreous body, sclera, outer plexiform layer (OPL), outer nuclear layer (ONL), inner plexiform layer (IPL), inner nuclear layer (INL), corneal membrane, anterior chamber, iris, and the like. And an image with a label such as a crystalline lens may be used.

また、画像セグメンテーション用の機械学習モデルの入力データは断層画像に限られない。前眼画像やSLO画像、OCTA画像等であってもよい。この場合、学習データは、各種画像を入力データとし、各種画像の画素毎に領域名等がラベル付けされたラベル画像を出力データとすることができる。例えば、学習データの入力データがSLO画像である場合には、出力データは、視神経乳頭の周辺部、Disc、及びCup等のラベルが付された画像であってよい。 Further, the input data of the machine learning model for image segmentation is not limited to the tomographic image. It may be an anterior eye image, an SLO image, an OCTA image, or the like. In this case, the training data can be input data of various images and output data of a label image in which a region name or the like is labeled for each pixel of the various images. For example, when the input data of the training data is an SLO image, the output data may be an image labeled with a peripheral portion of the optic disc, Disc, Cup, or the like.

なお、出力データとして用いられるラベル画像は、医師等により断層画像において各領域にラベルが付された画像であってもよいし、ルールベースの領域検出処理により各領域にラベルが付された画像であってもよい。ただし、適切にラベル付けが行われていないラベル画像を学習データの出力データとして用いて機械学習を行うと、当該学習データを用いて学習した学習済モデルを用いて得た画像も適切にラベル付けが行われていないラベル画像となってしまう可能性がある。そのため、そのようなラベル画像を含むペアを学習データから取り除くことで、学習済モデルを用いて適切でないラベル画像が生成される可能性を低減させることができる。ここで、ルールベースの領域検出処理とは、例えば網膜の形状の規則性等の既知の規則性を利用した検出処理をいう。 The label image used as the output data may be an image in which each region is labeled in the tomographic image by a doctor or the like, or an image in which each region is labeled by the rule-based region detection process. There may be. However, if machine learning is performed using a label image that is not properly labeled as the output data of the training data, the image obtained by using the trained model trained using the training data is also properly labeled. There is a possibility that the label image will not be used. Therefore, by removing the pair containing such a label image from the training data, it is possible to reduce the possibility that an inappropriate label image is generated by using the trained model. Here, the rule-based region detection process refers to a detection process that utilizes a known regularity such as the regularity of the shape of the retina.

制御部102は、このような画像セグメンテーション用の学習済モデルを用いて、画像セグメンテーション処理を行うことで、各種画像について特定の領域を高速に精度良く検出することが期待できる。なお、画像セグメンテーション用の学習済モデルも、入力データである各種画像の種類毎に用意されてもよい。また、OCTA正面画像やEn−Face画像については、画像を生成するための深度範囲毎に学習済モデルが用意されてもよい。さらに、画像セグメンテーション用の学習済モデルも、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)毎の画像について学習を行ったものでもよいし、撮影部位を関わらず学習を行ったものであってもよい。 By performing image segmentation processing using such a trained model for image segmentation, the control unit 102 can be expected to detect a specific region of various images at high speed and with high accuracy. A trained model for image segmentation may also be prepared for each type of various images as input data. Further, for the OCTA front image and the En-Face image, a trained model may be prepared for each depth range for generating an image. Further, the trained model for image segmentation may also be one in which learning is performed on an image for each imaging site (for example, the center of the macula and the center of the optic nerve head), or the learning is performed regardless of the imaging site. You may.

また、画像セグメンテーション用の学習済モデルについては、操作者の指示に応じて手動で修正されたデータを学習データとして追加学習が行われてもよい。また、追加学習の要否の判断やサーバにデータを送信するか否かの判断も同様の方法で行われてよい。これらの場合にも、各処理の精度を向上させたり、検者の好みの傾向に応じた処理を行えたりすることが期待できる。 Further, for the trained model for image segmentation, additional learning may be performed using the data manually modified according to the instruction of the operator as training data. Further, the determination of the necessity of additional learning and the determination of whether or not to transmit the data to the server may be performed by the same method. In these cases as well, it can be expected that the accuracy of each process can be improved and the process can be performed according to the tendency of the examiner's preference.

さらに、制御部102は、学習済モデルを用いて、被検眼Eの部分領域(例えば、注目部位、アーチファクト領域、異常部位等)を検出する場合には、検出した部分領域毎に所定の画像処理を施すこともできる。例として、硝子体領域、網膜領域、及び脈絡膜領域のうちの少なくとも2つの部分領域を検出する場合について述べる。この場合には、検出された少なくとも2つの部分領域に対してコントラスト調整等の画像処理を施す際に、それぞれ異なる画像処理のパラメータを用いることで、各領域に適した調整を行うことができる。各領域に適した調整が行われた画像を表示することで、操作者は部分領域毎の疾病等をより適切に診断することができる。なお、検出された部分領域毎に異なる画像処理のパラメータを用いる構成については、学習済モデルを用いずに被検眼Eの部分領域を検出して求めた被検眼Eの部分領域について同様に適用されてもよい。 Further, when the control unit 102 detects a partial region of the eye E to be inspected (for example, a region of interest, an artifact region, an abnormal region, etc.) using the trained model, the control unit 102 performs predetermined image processing for each detected partial region. Can also be applied. As an example, the case of detecting at least two partial regions of the vitreous region, the retinal region, and the choroid region will be described. In this case, when performing image processing such as contrast adjustment on at least two detected partial regions, adjustments suitable for each region can be performed by using different image processing parameters. By displaying the image adjusted suitable for each area, the operator can more appropriately diagnose the disease or the like in each partial area. The configuration using different image processing parameters for each detected partial region is similarly applied to the partial region of the eye E to be inspected obtained by detecting the partial region of the eye E to be inspected without using the trained model. You may.

[変形例9]
上述した様々な実施形態及び変形例における表示制御部125は、断層画像撮影後に表示画面のレポート画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、毛細血管領域、動脈領域、静脈領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。ここで、注目部位は、例えば、Haller層における血管(脈絡膜領域の一部の深度範囲における血管の一例)の眼外への流出口である渦静脈等であってもよい。このとき、注目部位に関するパラメータは、例えば、渦静脈の個数(例えば、領域毎の個数)や、視神経乳頭部から各渦静脈までの距離、視神経乳頭を中心とする各渦静脈の位置する角度等であってもよい。これにより、例えば、Pachychoroid(肥厚した脈絡膜)に関する種々の疾患(例えば、脈絡膜新生血管症)等を精度よく診断することが可能となる。また、例えば、各種のアーチファクトの低減処理が適用された医用画像を解析することで、上述した種々の解析結果を精度の良い解析結果として表示させることができる。なお、アーチファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーチファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーチファクト等であってもよい。また、アーチファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、表示制御部125は、上述したような様々なアーチファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示部103に表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、及びシュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。また、標準データベースを用いて得た標準値や標準範囲と、解析結果とを比較して得た比較結果が表示されてもよい。
[Modification 9]
The display control unit 125 in the various embodiments and modifications described above may display analysis results such as a layer thickness of a desired layer and various blood vessel densities on a report screen of a display screen after taking a tomographic image. In addition, the optic disc, macular region, vascular region, capillary region, arterial region, venous region, nerve fiber bundle, vitreous region, macula region, choroid region, scleral region, lamina cribrosa region, retinal layer boundary, retina. Parameter values (distribution) for the site of interest including at least one of the layer boundary edge, photoreceptor, blood cells, blood vessel wall, blood vessel inner wall boundary, blood vessel lateral border, ganglion cell, corneal region, macula region, Schlemm's canal, etc. May be displayed as the analysis result. Here, the site of interest may be, for example, a vortex vein or the like, which is an outlet of a blood vessel in the Haller layer (an example of a blood vessel in a depth range of a part of the choroidal region) to the outside of the eye. At this time, the parameters related to the site of interest include, for example, the number of vortex veins (for example, the number for each region), the distance from the optic disc to each vortex vein, the angle at which each vortex vein centered on the optic nerve head is located, and the like. May be. This makes it possible to accurately diagnose, for example, various diseases related to Pachychoroid (thickened choroid) (for example, choroidal neovascularization). Further, for example, by analyzing a medical image to which various artifact reduction processes are applied, the above-mentioned various analysis results can be displayed as accurate analysis results. The artifact is, for example, a false image region generated by light absorption by a blood vessel region or the like, a projection artifact, a band-shaped artifact in a front image generated in the main scanning direction of the measured light depending on the state of the eye to be inspected (movement, blinking, etc.), or the like. There may be. Further, the artifact may be, for example, any image loss region that randomly occurs at each shooting on the medical image of the predetermined portion of the subject. Further, the display control unit 125 may display the value (distribution) of the parameter relating to the region including at least one of various artifacts (photo-loss regions) as described above on the display unit 103 as an analysis result. Further, the value (distribution) of the parameter relating to the region including at least one such as drusen, new blood vessel, vitiligo (hard vitiligo), and abnormal site such as pseudo-drusen may be displayed as an analysis result. Further, the comparison result obtained by comparing the standard value or standard range obtained by using the standard database with the analysis result may be displayed.

また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。 Further, the analysis result may be displayed in an analysis map, a sector showing statistical values corresponding to each divided area, or the like. The analysis result may be generated by using a trained model (analysis result generation engine, trained model for analysis result generation) obtained by learning the analysis result of the medical image as training data. .. At this time, the trained model is trained using training data including a medical image and an analysis result of the medical image, and training data including a medical image and an analysis result of a medical image of a type different from the medical image. It may be obtained by.

また、画像解析を行うための学習データは、画像セグメンテーション処理用の学習済モデルを用いて生成されたラベル画像と、当該ラベル画像を用いた医用画像の解析結果とを含んだものでもよい。この場合、制御部102は、例えば、解析結果生成用の学習済モデルを用いて、画像セグメンテーション処理の結果から、断層画像の解析結果を生成する、解析結果生成部の一例として機能することができる。さらに、学習済モデルは、後述のEn−Face画像及びモーションコントラスト正面画像(OCTAのEn−Face画像)のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。 Further, the training data for performing image analysis may include a label image generated by using the trained model for image segmentation processing and an analysis result of a medical image using the label image. In this case, the control unit 102 can function as an example of an analysis result generation unit that generates an analysis result of a tomographic image from the result of image segmentation processing by using, for example, a trained model for generating an analysis result. .. Further, the trained model is a training data including input data including a set of a plurality of medical images of different types of predetermined parts, such as an En-Face image and a motion contrast front image (OCTA En-Face image) described later. It may be obtained by learning using.

また、高画質化モデルを用いて生成された高画質画像を用いて得た解析結果が表示されるように構成されてもよい。この場合、学習データに含まれる入力データとしては、高画質化用の学習済モデルを用いて生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。なお、学習データは、学習済モデルを用いて高画質化された画像について、手動又は自動で少なくとも一部に修正が施された画像であってもよい。 Further, the analysis result obtained by using the high-quality image generated by using the high-quality model may be displayed. In this case, the input data included in the training data may be a high-quality image generated by using a trained model for high image quality, or may be a set of a low-quality image and a high-quality image. May be good. The training data may be an image in which at least a part of an image whose image quality has been improved by using the trained model has been manually or automatically modified.

また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータであってもよい。なお、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果が表示されるように構成されてもよい。 Further, the training data includes, for example, at least the analysis value (for example, average value, median value, etc.) obtained by analyzing the analysis area, the table including the analysis value, the analysis map, the position of the analysis area such as the sector in the image, and the like. The information including one may be the data labeled (annotated) with the input data as the correct answer data (for supervised learning). It should be noted that the analysis result obtained by using the trained model for generating the analysis result may be displayed according to the instruction from the operator.

また、上述した実施形態及び変形例における推定部123は、例えば、上述したような各種のアーチファクトの低減処理が適用された画像を推定処理に用いることで、精度の良い推定結果を出力することができる。また、表示制御部125は、推定結果を、特定された異常部位等の位置を画像上に表示させてもよいし、異常部位の状態等を文字等によって表示させてもよい。さらに、表示制御部125は、疾患についての推定結果とは別に、異常部位等の分類結果(例えば、カーティン分類)を診断結果として表示させてもよい。また、分類結果としては、例えば、異常部位毎の確からしさを示す情報(例えば、割合を示す数値)が表示されてもよい。また、医師が診断を確定させる上で必要な情報が診断結果として表示されてもよい。上記必要な情報としては、例えば、追加撮影等のアドバイスが考えられる。例えば、OCTA画像における血管領域に異常部位が検出された場合には、OCTAよりも詳細に血管を観察可能な造影剤を用いた蛍光撮影を追加で行う旨が表示されてもよい。また、診断結果は、被検者の今後の診療方針等に関する情報であってもよい。また、診断結果は、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、及び診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報であってもよい。このとき、例えば、検者からの指示に応じて入力された診断名等の診断結果よりも確からしい診断結果を医用支援情報として表示させてもよい。また、複数の種類の医用画像が用いられた場合には、例えば、診断結果の根拠となり得る種類の医用画像が識別可能に表示されてもよい。また、診断結果の根拠としては、学習済モデルが抽出した特徴量を可視化したマップ(注意マップ、活性化マップ)で、例えば、特徴量をカラーで示したカラーマップ(ヒートマップ)であってもよい。このとき、例えば、入力データとした医用画像にヒートマップを重畳表示させてもよい。なお、ヒートマップは、例えば、予測(推定)されるクラスの出力値への寄与が大きい領域(勾配が大きい領域)を可視化する手法であるGrad−CAM(Gradient−weighted Class Activation Mapping)やGuided Grad−CAM等を用いて得ることができる。 Further, the estimation unit 123 in the above-described embodiment and modification can output an accurate estimation result by using, for example, an image to which various artifact reduction processes as described above are applied for the estimation process. can. Further, the display control unit 125 may display the estimation result on the image at the position of the specified abnormal portion or the like, or may display the state of the abnormal portion or the like by characters or the like. Further, the display control unit 125 may display a classification result (for example, Cartin classification) of an abnormal site or the like as a diagnosis result separately from the estimation result for the disease. Further, as the classification result, for example, information indicating the certainty of each abnormal part (for example, a numerical value indicating a ratio) may be displayed. In addition, information necessary for the doctor to confirm the diagnosis may be displayed as a diagnosis result. As the necessary information, for example, advice such as additional shooting can be considered. For example, when an abnormal site is detected in the blood vessel region in the OCTA image, it may be displayed that fluorescence imaging using a contrast medium capable of observing the blood vessel in more detail than OCTA is performed. In addition, the diagnosis result may be information on the future medical treatment policy of the subject. In addition, the diagnosis result is, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, the findings (interpretation findings, etc.), and the basis of the diagnosis name (affirmation). Medical support information, etc.) and grounds for denying the diagnosis name (negative medical support information, etc.) may be included in the information. At this time, for example, a diagnosis result that is more probable than the diagnosis result such as a diagnosis name input in response to an instruction from the examiner may be displayed as medical support information. Further, when a plurality of types of medical images are used, for example, the types of medical images that can be the basis of the diagnosis result may be displayed in an identifiable manner. The basis of the diagnosis result is a map (attention map, activation map) that visualizes the features extracted by the trained model, for example, a color map (heat map) that shows the features in color. good. At this time, for example, the heat map may be superimposed and displayed on the medical image used as the input data. The heat map is, for example, a method for visualizing a region (a region having a large gradient) that contributes greatly to the output value of the predicted (estimated) class, such as Grad-CAM (Gradient-weighted Class Activity Mapping) or Guided Grade. -Can be obtained using CAM or the like.

なお、診断結果は、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。 The diagnosis result may be generated by using a trained model (diagnosis result generation engine, trained model for generation of diagnosis result) obtained by learning the diagnosis result of the medical image as training data. .. Further, the trained model is based on training using training data including a medical image and a diagnosis result of the medical image, and training data including a medical image and a diagnosis result of a medical image of a type different from the medical image. It may be obtained.

また、学習データは、画像セグメンテーション処理用の学習済モデルを用いて生成されたラベル画像と、当該ラベル画像を用いた医用画像の診断結果とを含んだものでもよい。この場合、制御部102は、例えば、診断結果生成用の学習済モデルを用いて、画像セグメンテーション処理の結果から、断層画像の診断結果を生成する、診断結果生成部の一例として機能することができる。 Further, the training data may include a label image generated by using the trained model for image segmentation processing and a diagnostic result of a medical image using the label image. In this case, the control unit 102 can function as an example of a diagnosis result generation unit that generates a diagnosis result of a tomographic image from the result of image segmentation processing by using, for example, a trained model for generating a diagnosis result. ..

さらに、高画質化用の学習済モデルを用いて生成された高画質画像を用いて得た診断結果が表示されるように構成されてもよい。この場合、学習データに含まれる入力データとしては、高画質化用の学習済モデルを用いて生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。なお、学習データは、学習済モデルを用いて高画質化された画像について、手動又は自動で少なくとも一部に修正が施された画像であってもよい。 Further, it may be configured to display the diagnostic result obtained by using the high-quality image generated by using the trained model for high image quality. In this case, the input data included in the training data may be a high-quality image generated by using a trained model for high image quality, or may be a set of a low-quality image and a high-quality image. May be good. The training data may be an image in which at least a part of an image whose image quality has been improved by using the trained model has been manually or automatically modified.

また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付け(アノテーション)したデータを用いてもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルを用いて得た診断結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, the findings (interpretation findings, etc.), and the basis of the diagnosis name (affirmation). Information including at least one such as (general medical support information, etc.) and grounds for denying the diagnosis name (negative medical support information), etc. are labeled (annotated) as correct answer data (for supervised learning). Data may be used. In addition, in response to an instruction from the examiner, the diagnosis result obtained by using the trained model for generating the diagnosis result may be displayed.

なお、入力データとして用いる情報毎又は情報の種類毎に学習済モデルを用意し、学習済モデルを用いて、診断結果を取得してもよい。この場合、各学習済モデルから出力された情報に統計的な処理を行い、最終的な診断結果を決定してもよい。例えば、各学習済モデルから出力された情報の割合を各種類の情報毎に加算し、他の情報よりも割合の合計が高い情報を最終的な診断結果として決定してもよい。なお、統計的な処理は合計の算出に限られず、平均値や中央値の算出等であってもよい。また、例えば、各学習済モデルから出力された情報のうち、他の情報よりも割合の高い情報(最も割合の高い情報)を用いて診断結果を決定してもよい。同様に、各学習済モデルから出力された情報のうち、閾値以上である割合の情報を用いて診断結果を決定してもよい。 A trained model may be prepared for each information used as input data or for each type of information, and the diagnosis result may be acquired using the trained model. In this case, the information output from each trained model may be statistically processed to determine the final diagnostic result. For example, the ratio of the information output from each trained model may be added for each type of information, and the information having a higher total ratio than the other information may be determined as the final diagnosis result. Note that the statistical processing is not limited to the calculation of the total, and may be the calculation of the average value or the median value. Further, for example, among the information output from each trained model, the information having a higher ratio than the other information (the information having the highest ratio) may be used to determine the diagnosis result. Similarly, the diagnosis result may be determined using the information of the ratio of the information output from each trained model that is equal to or higher than the threshold value.

また、操作者の指示(選択)に応じて、決定された診断結果の良否の判定(承認)が可能に構成されてもよい。また、操作者の指示(選択)に応じて、各学習済モデルから出力された情報から診断結果を決定してもよい。このとき、例えば、表示制御部125が、各学習済モデルから出力された情報及びその割合を並べて表示部103に表示させてもよい。そして、操作者が、例えば、他の情報よりも割合の高い情報を選択することにより、選択された情報を診断結果として決定するように構成されてもよい。さらに、各学習済モデルから出力された情報から、機械学習モデルを用いて、診断結果を決定してもよい。この場合には、機械学習アルゴリズムとして、診断結果生成に用いられた機械学習アルゴリズムとは異なる種類の機械学習アルゴリズムであってもよく、例えば、ニューラルネットワーク、サポートベクターマシン、アダブースト、ベイジアンネットワーク、又はランダムフォレスト等を用いてよい。 Further, it may be configured so that the quality of the determined diagnosis result can be determined (approved) according to the instruction (selection) of the operator. Further, the diagnosis result may be determined from the information output from each trained model according to the instruction (selection) of the operator. At this time, for example, the display control unit 125 may display the information output from each trained model and the ratio thereof side by side on the display unit 103. Then, the operator may be configured to determine the selected information as a diagnosis result, for example, by selecting information having a higher ratio than other information. Further, the diagnosis result may be determined by using the machine learning model from the information output from each trained model. In this case, the machine learning algorithm may be a different type of machine learning algorithm from the machine learning algorithm used to generate the diagnostic result, for example, a neural network, a support vector machine, an adaboost, a Bayesian network, or a random. A forest or the like may be used.

なお、上述した種々の学習済モデルの学習は、教師あり学習(ラベル付きの学習データで学習)だけでなく、半教師あり学習であってもよい。半教師あり学習は、例えば、複数の識別器(分類器)がそれぞれ教師あり学習を行った後、ラベルのない学習データを識別(分類)し、識別結果(分類結果)の信頼度に応じて(例えば、確からしさが閾値以上の識別結果を)自動的にラベル付け(アノテーション)し、ラベル付けされた学習データで学習を行う手法である。半教師あり学習は、例えば、共訓練(Co−Training、あるいはMultiview)であってもよい。このとき、診断結果生成用の学習済モデルは、例えば、正常な被検体の医用画像を識別する第1の識別器と、特定の病変を含む医用画像を識別する第2の識別器とを用いて半教師あり学習(例えば、共訓練)して得た学習済モデルであってもよい。なお、診断目的に限らず、例えば撮影支援等を目的としてもよい。この場合、第2の識別器は、例えば、注目部位やアーチファクト領域等の部分領域を含む医用画像を識別するものであってもよい。 The learning of the various trained models described above may be not only supervised learning (learning with labeled learning data) but also semi-supervised learning. In semi-supervised learning, for example, after multiple classifiers (classifiers) perform supervised learning, unlabeled learning data is identified (classified), and the reliability of the identification result (classification result) is determined. It is a method of automatically labeling (annotating) (for example, an identification result whose certainty is equal to or higher than the threshold value) and learning with the labeled learning data. Semi-supervised learning may be, for example, co-training (or Multiview). At this time, the trained model for generating the diagnosis result uses, for example, a first discriminator that identifies a medical image of a normal subject and a second discriminator that identifies a medical image containing a specific lesion. It may be a trained model obtained by semi-supervised learning (for example, co-training). It should be noted that the purpose is not limited to diagnostic purposes, but may be, for example, photography support or the like. In this case, the second classifier may, for example, identify a medical image including a partial region such as a region of interest or an artifact region.

また、上述した様々な実施形態及び変形例に係る表示制御部125は、表示画面のレポート画面において、上述したような注目部位、アーチファクト領域、及び異常部位等の部分領域の物体認識結果(物体検出結果)やセグメンテーション結果を表示させてもよい。このとき、例えば、画像上の物体の周辺に矩形の枠等を重畳して表示させてもよい。また、例えば、画像における物体上に色等を重畳して表示させてもよい。なお、物体認識結果やセグメンテーション結果は、物体認識やセグメンテーションを示す情報を正解データとして医用画像にラベル付け(アノテーション)した学習データを学習して得た学習済モデル(物体認識エンジン、物体認識用の学習済モデル、セグメンテーションエンジン、セグメンテーション用の学習済モデル)を用いて生成されたものであってもよい。なお、上述した解析結果生成や診断結果生成は、上述した物体認識結果やセグメンテーション結果を利用することで得られたものであってもよい。例えば、物体認識やセグメンテーションの処理により得た注目部位に対して解析結果生成や診断結果生成の処理を行ってもよい。 Further, the display control unit 125 according to the various embodiments and modifications described above has an object recognition result (object detection) of a partial region such as a region of interest, an artifact region, and an abnormal region as described above on the report screen of the display screen. The result) and the segmentation result may be displayed. At this time, for example, a rectangular frame or the like may be superimposed and displayed around the object on the image. Further, for example, colors and the like may be superimposed and displayed on an object in an image. The object recognition result and segmentation result are trained models (object recognition engine, for object recognition) obtained by learning learning data that labels (annotifies) medical images with information indicating object recognition and segmentation as correct answer data. It may be generated using a trained model, a segmentation engine, a trained model for segmentation). The above-mentioned analysis result generation and diagnosis result generation may be obtained by using the above-mentioned object recognition result and segmentation result. For example, analysis result generation or diagnosis result generation processing may be performed on a region of interest obtained by object recognition or segmentation processing.

また、異常部位を検出する場合には、制御部102は、敵対的生成ネットワーク(GAN:Generative Adversarial Netwoks)や変分オートエンコーダー(VAE:Variational Auto−Encoder)を用いてもよい。例えば、医用画像の生成を学習して得た生成器と、生成器が生成した新たな医用画像と本物の医用画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。 Further, when detecting an abnormal portion, the control unit 102 may use a hostile generation network (GAN: Generative Adversarial Networks) or a variational auto-encoder (VAE: Variational Auto-Encoder). For example, a DCGAN (Deep Convolutional GAN) consisting of a generator obtained by learning the generation of a medical image and a classifier obtained by learning the discrimination between a new medical image generated by the generator and a real medical image. Can be used as a machine learning model.

DCGANを用いる場合には、例えば、識別器が入力された医用画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな医用画像を生成する。その後、入力された医用画像と生成された新たな医用画像との差分を異常部位として抽出(検出)することができる。また、VAEを用いる場合には、例えば、入力された医用画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな医用画像を生成する。その後、入力された医用画像と生成された新たな医用画像像との差分を異常部位として抽出することができる。 When DCGAN is used, for example, the classifier encodes the input medical image into a latent variable, and the generator generates a new medical image based on the latent variable. After that, the difference between the input medical image and the generated new medical image can be extracted (detected) as an abnormal part. When VAE is used, for example, the input medical image is encoded by an encoder to be a latent variable, and the latent variable is decoded by a decoder to generate a new medical image. After that, the difference between the input medical image and the generated new medical image can be extracted as an abnormal part.

さらに、制御部102は、畳み込みオートエンコーダー(CAE:Convolutional Auto−Encoder)を用いて、異常部位を検出してもよい。CAEを用いる場合には、学習時に入力データ及び出力データとして同じ医用画像を学習させる。これにより、推定時に異常部位がある医用画像をCAEに入力すると、学習の傾向に従って異常部位がない医用画像が出力される。その後、CAEに入力された医用画像とCAEから出力された医用画像の差分を異常部位として抽出することができる。 Further, the control unit 102 may detect an abnormal portion by using a convolutional autoencoder (CAE). When CAE is used, the same medical image is learned as input data and output data at the time of learning. As a result, when a medical image having an abnormal part is input to CAE at the time of estimation, a medical image having no abnormal part is output according to a learning tendency. After that, the difference between the medical image input to the CAE and the medical image output from the CAE can be extracted as an abnormal portion.

これらの場合、制御部102は、敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又はオートエンコーダーに入力された医用画像との差に関する情報を異常部位に関する情報として生成することができる。これにより、制御部102は、高速に精度よく異常部位を検出することが期待できる。例えば、異常部位の検出精度の向上のために異常部位を含む医用画像を学習データとして数多く集めることが難しい場合であっても、比較的に数多く集め易い正常な被検体の医用画像を学習データとして用いることができる。このため、例えば、異常部位を精度よく検出するための学習を効率的に行うことができる。ここで、オートエンコーダーには、VAEやCAE等が含まれる。また、敵対的生成ネットワークの生成部の少なくとも一部がVAEで構成されてもよい。これにより、例えば、同じようなデータを生成してしまう現象を低減しつつ、比較的鮮明な画像を生成することができる。例えば、制御部102は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された医用画像との差に関する情報を、異常部位に関する情報として生成することができる。また、例えば、表示制御部125は、種々の医用画像から敵対的生成ネットワーク又はオートエンコーダーを用いて得た医用画像と、該敵対的生成ネットワーク又は該オートエンコーダーに入力された医用画像との差に関する情報を、異常部位に関する情報として表示部103に表示させることができる。 In these cases, the control unit 102 uses information on the difference between the medical image obtained by using the hostile generation network or the autoencoder and the medical image input to the hostile generation network or the autoencoder as information on the abnormal portion. Can be generated. As a result, the control unit 102 can be expected to detect the abnormal portion at high speed and with high accuracy. For example, even if it is difficult to collect many medical images including abnormal parts as learning data in order to improve the detection accuracy of abnormal parts, a relatively large number of normal medical images of subjects that are easy to collect are used as learning data. Can be used. Therefore, for example, learning for accurately detecting an abnormal portion can be performed efficiently. Here, the autoencoder includes VAE, CAE, and the like. Further, at least a part of the generation part of the hostile generation network may be composed of VAE. As a result, for example, it is possible to generate a relatively clear image while reducing the phenomenon of generating similar data. For example, the control unit 102 provides information on the difference between a medical image obtained from various medical images using a hostile generation network or an autoencoder and a medical image input to the hostile generation network or the autoencoder. It can be generated as information about the abnormal part. Further, for example, the display control unit 125 relates to a difference between a medical image obtained from various medical images using a hostile generation network or an auto encoder and a medical image input to the hostile generation network or the auto encoder. The information can be displayed on the display unit 103 as information on the abnormal portion.

また、特に診断結果生成用の学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとする入力データ等も考えられる。また、異なる種類の複数の医療画像は、異なるモダリティ、異なる光学系、又は異なる原理等により取得されたものであれば何でもよい。 Further, in particular, the trained model for generating the diagnosis result may be a trained model obtained by learning from the training data including the input data including a set of a plurality of medical images of different types of the predetermined part of the subject. good. At this time, as the input data included in the training data, for example, input data in which a motion contrast front image and a luminance front image (or a luminance tomographic image) of the fundus are set can be considered. Further, as the input data included in the training data, for example, input data in which a tomographic image (B scan image) of the fundus and a color fundus image (or a fluorescent fundus image) are set can be considered. Further, the plurality of medical images of different types may be anything as long as they are acquired by different modality, different optical systems, different principles, or the like.

また、特に診断結果生成用の学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の黄斑の三次元OCT画像(三次元断層画像)と眼底の視神経乳頭のサークルスキャン(又はラスタスキャン)断層画像とをセットとする入力データ等も考えられる。 Further, the trained model for generating the diagnosis result may be a trained model obtained by learning from the training data including the input data including a plurality of medical images of different parts of the subject. At this time, as the input data included in the training data, for example, input data in which a tomographic image of the fundus (B scan image) and a tomographic image of the anterior segment of the eye (B scan image) are considered as a set can be considered. Further, as the input data included in the training data, for example, input data in which a three-dimensional OCT image (three-dimensional tomographic image) of the macula of the fundus and a circle scan (or raster scan) tomographic image of the optic nerve head of the fundus are set as a set, etc. Is also possible.

なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。このとき、パノラマ画像のような広画角画像を学習データとして用いることにより、狭画角画像よりも情報量が多い等の理由から画像の特徴量を精度良く取得できる可能性があるため、処理の結果を向上することができる。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。 The input data included in the learning data may be different parts of the subject and a plurality of different types of medical images. At this time, the input data included in the training data may be, for example, input data in which a tomographic image of the anterior segment of the eye and a color fundus image are set. Further, the trained model described above may be a trained model obtained by learning from training data including input data including a set of a plurality of medical images having different shooting angles of view of a predetermined portion of the subject. Further, the input data included in the learning data may be a combination of a plurality of medical images obtained by time-dividing a predetermined portion into a plurality of regions, such as a panoramic image. At this time, by using a wide angle of view image such as a panoramic image as training data, there is a possibility that the feature amount of the image can be accurately acquired because the amount of information is larger than that of the narrow angle of view image. The result of can be improved. Further, the input data included in the learning data may be input data in which a plurality of medical images of different dates and times of a predetermined part of the subject are set.

また、上述した推定結果と解析結果と診断結果と物体認識結果とセグメンテーション結果とのうち少なくとも1つの結果が表示される表示画面は、レポート画面に限らない。このような表示画面は、例えば、撮影確認画面、経過観察用の表示画面、及び撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されてもよい。例えば、上述した学習済モデルを用いて得た上記少なくとも1つの結果を撮影確認画面に表示させることにより、操作者は、撮影直後であっても精度の良い結果を確認することができる。 Further, the display screen on which at least one of the above-mentioned estimation result, analysis result, diagnosis result, object recognition result, and segmentation result is displayed is not limited to the report screen. Such a display screen is, for example, at least one display screen such as a shooting confirmation screen, a display screen for follow-up observation, and a preview screen for various adjustments before shooting (a display screen on which various live moving images are displayed). It may be displayed in. For example, by displaying at least one result obtained by using the above-mentioned trained model on the shooting confirmation screen, the operator can confirm the accurate result even immediately after shooting.

また、例えば、特定の物体が認識されると、認識された物体を囲う枠がライブ動画像に重畳表示させるように構成されてもよい。このとき、物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、例えば、物体を囲う枠の色が変更される等のように強調表示されてもよい。これにより、検者は、物体をライブ動画上で容易に識別することができる。 Further, for example, when a specific object is recognized, a frame surrounding the recognized object may be configured to be superimposed and displayed on the live moving image. At this time, if the information indicating the certainty of the object recognition result (for example, a numerical value indicating the ratio) exceeds the threshold value, the color of the frame surrounding the object may be highlighted, for example. good. This allows the examiner to easily identify the object on the live video.

なお、上述した様々な学習済モデルの学習に用いられる正解データの生成には、ラベル付け(アノテーション)等の正解データを生成するための正解データ生成用の学習済モデルが用いられてもよい。このとき、正解データ生成用の学習済モデルは、検者がラベル付け(アノテーション)して得た正解データを(順次)追加学習することにより得られたものであってもよい。すなわち、正解データ生成用の学習済モデルは、ラベル付け前のデータを入力データとし、ラベル付け後のデータを出力データとする学習データを追加学習することにより得られたものであってもよい。また、動画像等のような連続する複数フレームにおいて、前後のフレームの物体認識やセグメンテーション等の結果を考慮して、結果の精度が低いと判定されたフレームの結果を修正するように構成されてもよい。このとき、検者からの指示に応じて、修正後の結果を正解データとして追加学習するように構成されてもよい。また、例えば、結果の精度が低い医用画像については、検者が該医用画像上に、学習済モデルが抽出した特徴量を可視化したマップ(注意マップ、活性化マップ)の一例である、特徴量をカラーで示したカラーマップ(ヒートマップ)を確認しながらラベル付け(アノテーション)した画像を入力データとして追加学習するように構成されてもよい。例えば、学習済モデルにおける結果を出力する直前等のレイヤー上のヒートマップにおいて、注目すべき箇所が検者の意図と異なる場合には、検者が注目すべきと考える箇所にラベル付け(アノテーション)した医用画像を追加学習してもよい。これにより、例えば、学習済モデルは、医用画像上の部分領域であって、学習済モデルの出力結果に対して比較的影響が大きな部分領域の特徴量を、他の領域よりも優先して(重みを付けて)追加学習することができる。 In addition, in the generation of the correct answer data used for learning the various trained models described above, the trained model for generating the correct answer data for generating the correct answer data such as labeling (annotation) may be used. At this time, the trained model for generating correct answer data may be obtained by (sequentially) additional learning of the correct answer data obtained by labeling (annotation) by the examiner. That is, the trained model for generating correct answer data may be obtained by additional training of training data in which the data before labeling is used as input data and the data after labeling is used as output data. Further, in a plurality of continuous frames such as a moving image, the result of the frame judged to have low accuracy is corrected in consideration of the results of object recognition and segmentation of the preceding and following frames. May be good. At this time, according to the instruction from the examiner, the corrected result may be additionally learned as correct answer data. Further, for example, for a medical image with low accuracy of the result, the feature amount is an example of a map (attention map, activation map) in which the examiner visualizes the feature amount extracted by the trained model on the medical image. It may be configured to additionally learn an image labeled (annotated) as input data while checking a color map (heat map) showing the above in color. For example, in a heat map on a layer just before outputting the result in the trained model, if the part to be noted is different from the intention of the examiner, the part to be noted by the examiner is labeled (annotation). You may additionally learn the medical image. Thereby, for example, the trained model is a partial region on the medical image, and the feature amount of the partial region having a relatively large influence on the output result of the trained model is prioritized over the other regions ( Additional learning can be done (with weighting).

ここで、上述した様々な学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワークを用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダー(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。また、学習には、各ユニット(各ニューロン、あるいは各ノード)をランダムに不活性化する手法(ドロップアウト)が用いられてもよい。また、学習には、多階層のニューラルネットワークの各層に伝わったデータを、活性化関数(例えばReLu関数)が適用される前に、正規化する手法(バッチ正規化)が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。また、学習データとは、入力データ及び出力データ(正解データ)のペアで構成される。ここで、学習データを教師データという場合もあるし、あるいは、正解データを教師データという場合もある。 Here, the various trained models described above can be obtained by machine learning using the training data. Machine learning includes, for example, deep learning consisting of a multi-layered neural network. Further, for example, a convolutional neural network can be used for at least a part of the multi-layered neural network. Further, a technique related to an autoencoder (self-encoder) may be used for at least a part of a multi-layered neural network. Further, a technique related to backpropagation (error backpropagation method) may be used for learning. Further, for learning, a method (dropout) in which each unit (each neuron or each node) is randomly inactivated may be used. Further, for learning, a method (batch normalization) may be used in which the data transmitted to each layer of the multi-layer neural network is normalized before the activation function (for example, the ReLu function) is applied. However, the machine learning is not limited to deep learning, and any learning using a model capable of extracting (expressing) the features of learning data such as images by learning may be used. Here, the machine learning model refers to a learning model based on a machine learning algorithm such as deep learning. The trained model is a model in which a machine learning model by an arbitrary machine learning algorithm is trained (learned) in advance using appropriate learning data. However, the trained model does not require further learning, and additional learning can be performed. The learning data is composed of a pair of input data and output data (correct answer data). Here, the learning data may be referred to as teacher data, or the correct answer data may be referred to as teacher data.

なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本変形例では、学習部(不図示)の一例である制御部102による処理には、CPUに加えてGPUを用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行う。なお、学習部の処理は、CPU又はGPUのみにより演算が行われてもよい。また、上述した様々な学習済モデルを用いた処理を実行する処理部(推定部)も、学習部と同様にGPUを用いてもよい。また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 The GPU can perform efficient calculations by processing more data in parallel. Therefore, when learning is performed a plurality of times using a learning model such as deep learning, it is effective to perform processing on the GPU. Therefore, in this modification, the GPU is used in addition to the CPU for the processing by the control unit 102, which is an example of the learning unit (not shown). Specifically, when a learning program including a learning model is executed, learning is performed by the CPU and the GPU collaborating to perform calculations. In addition, the processing of the learning unit may be performed only by the CPU or the GPU. Further, the processing unit (estimation unit) that executes the processing using the various trained models described above may also use the GPU in the same manner as the learning unit. Further, the learning unit may include an error detection unit and an update unit (not shown). The error detection unit obtains an error between the output data output from the output layer of the neural network and the correct answer data according to the input data input to the input layer. The error detection unit may use the loss function to calculate the error between the output data from the neural network and the correct answer data. Further, the update unit updates the coupling weighting coefficient between the nodes of the neural network based on the error obtained by the error detection unit so that the error becomes small. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error back propagation method is a method of adjusting the coupling weighting coefficient and the like between the nodes of each neural network so that the above error becomes small.

また、上述した物体認識や、セグメンテーション、高画質化等に用いられる機械学習モデルとしては、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU−net型の機械学習モデルが適用可能である。U−net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 Further, as the machine learning model used for the above-mentioned object recognition, segmentation, high image quality, etc., the function of the encoder consisting of a plurality of layers including a plurality of downsampling layers and a plurality of layers including a plurality of upsampling layers A U-net type machine learning model having a decoder function consisting of is applicable. In the U-net type machine learning model, the position information (spatial information) obscured in a plurality of layers configured as an encoder is transferred to the same-dimensional layer (layers corresponding to each other) in a plurality of layers configured as a decoder. ) (For example, using a skip connection).

また、上述した物体認識や、セグメンテーション、高画質化等に用いられる機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。 Further, as the machine learning model used for the above-mentioned object recognition, segmentation, high image quality, etc., for example, FCN (Full Convolutional Network), SegNet, or the like can be used. Further, a machine learning model that recognizes an object in a region unit according to a desired configuration may be used. As a machine learning model for performing object recognition, for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used. Further, as a machine learning model for recognizing an object in a region unit, YOLO (You Only Look None) or SSD (Single Shot Detector or Single Shot MultiBox Detector) can also be used.

また、機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン、あるいは各ノード)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。 Further, the machine learning model may be, for example, a capsule network (Capsule Network; CapsNet). Here, in a general neural network, each unit (each neuron or each node) is configured to output a scalar value, for example, a spatial positional relationship (relative position) between features in an image. It is configured to reduce spatial information about. Thereby, for example, learning can be performed so as to reduce the influence of local distortion, translation, and the like of the image. On the other hand, in the capsule network, each unit (each capsule) is configured to output spatial information as a vector, so that, for example, spatial information is retained. This makes it possible to perform learning in which, for example, the spatial positional relationship between features in an image is taken into consideration.

[変形例10]
上述した様々な実施形態及び変形例におけるプレビュー画面において、ライブ動画像の少なくとも1つのフレーム毎に上述した種々の学習済モデルが用いられるように構成されてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。
[Modification 10]
In the preview screens in the various embodiments and modifications described above, the various trained models described above may be configured to be used for at least one frame of the live moving image. At this time, when a plurality of live moving images of different parts or different types are displayed on the preview screen, the trained model corresponding to each live moving image may be used. As a result, for example, even if it is a live moving image, the processing time can be shortened, so that the examiner can obtain highly accurate information before the start of shooting. Therefore, for example, it is possible to reduce the failure of re-imaging, and thus it is possible to improve the accuracy and efficiency of diagnosis.

なお、複数のライブ動画像は、例えば、XYZ方向のアライメントのための前眼部の動画像、及び眼底観察光学系のフォーカス調整やOCTフォーカス調整のための眼底の正面動画像であってよい。また、複数のライブ動画像は、例えば、OCTのコヒーレンスゲート調整(測定光路長と参照光路長との光路長差の調整)のための眼底の断層動画像等であってもよい。このようなプレビュー画像が表示される場合、上述した物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された領域が所定の条件を満たすように、上述した各種調整が行われるように制御部102を構成してもよい。例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層等に関する値(例えば、コントラスト値あるいは強度値)が閾値を超える(あるいはピーク値になる)ように、OCTフォーカス調整等の各種調整が行われるように構成されてもよい。また、例えば、物体認識用の学習済モデルやセグメンテーション用の学習済モデルを用いて検出された硝子体領域やRPE等の所定の網膜層が深さ方向における所定の位置になるように、OCTのコヒーレンスゲート調整が行われるように構成されてもよい。 The plurality of live moving images may be, for example, a moving image of the anterior eye portion for alignment in the XYZ direction, and a frontal moving image of the fundus for focusing adjustment or OCT focus adjustment of the fundus observation optical system. Further, the plurality of live moving images may be, for example, a tomographic moving image of the fundus for coherence gate adjustment of OCT (adjustment of the optical path length difference between the measured optical path length and the reference optical path length). When such a preview image is displayed, the above-mentioned various adjustments are performed so that the region detected by using the above-mentioned trained model for object recognition and the above-mentioned trained model for segmentation satisfies a predetermined condition. The control unit 102 may be configured as described above. For example, a value (for example, a contrast value or an intensity value) related to a predetermined retinal layer such as a vitreous region or an RPE detected by using a trained model for object recognition or a trained model for segmentation exceeds a threshold value (for example, a contrast value or an intensity value). Alternatively, it may be configured to perform various adjustments such as OCT focus adjustment so as to reach a peak value). Further, for example, the OCT so that a predetermined retinal layer such as a vitreous region or RPE detected by using a trained model for object recognition or a trained model for segmentation is at a predetermined position in the depth direction. Coherence gate adjustments may be configured to be made.

これらの場合には、制御部102は、学習済モデルを用いて、動画像について高画質化処理を行って、高画質な動画像を生成することができる。また、駆動制御部124は、高画質な動画像が表示された状態で、セグメンテーション処理等により得た注目部位等の部分領域が表示領域における所定の位置になるように、参照ミラー等の撮影範囲を変更するための光学部材を駆動制御することができる。このような場合には、駆動制御部124は、精度の高い情報に基づいて、所望される領域が表示領域の所定の位置になるように自動的にアライメント処理を行うことができる。なお、撮影範囲を変更する光学部材としては、例えばコヒーレンスゲート位置を調整する光学部材であってよく、具体的には参照光を反射する参照ミラーであってよい。また、コヒーレンスゲート位置は、測定光路長及び参照光路長の光路長差を変更する光学部材によって調整されることができ、当該光学部材は、例えば、不図示の測定光の光路長を変更するためのミラー等であってもよい。なお、撮影範囲を変更する光学部材は、例えばステージ部(不図示)であってもよい。また、駆動制御部124、撮影開始に関する指示に応じて、撮影の途中あるいは撮影の最後に、セグメンテーション処理等により得たアーチファクト領域等の部分領域が再度撮影(リスキャン)されるように、走査手段を駆動制御してもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各種調整や撮影開始等を自動的に行うように構成されてもよい。また、例えば、注目部位に関する物体認識結果の確からしさを示す情報(例えば、割合を示す数値)が閾値を超えた場合には、各調整や撮影開始等を検者からの指示に応じて実行可能な状態に変更(実行禁止状態を解除)するように構成されてもよい。 In these cases, the control unit 102 can generate a high-quality moving image by performing high-quality processing on the moving image using the trained model. Further, the drive control unit 124 has a shooting range of a reference mirror or the like so that a partial area such as a region of interest obtained by segmentation processing or the like is at a predetermined position in the display area while a high-quality moving image is displayed. It is possible to drive and control the optical member for changing the. In such a case, the drive control unit 124 can automatically perform the alignment process so that the desired area becomes a predetermined position in the display area based on the highly accurate information. The optical member that changes the photographing range may be, for example, an optical member that adjusts the coherence gate position, and specifically, a reference mirror that reflects reference light. Further, the coherence gate position can be adjusted by an optical member that changes the optical path length difference between the measured optical path length and the reference optical path length, and the optical member changes, for example, the optical path length of the measurement light (not shown). It may be a mirror or the like. The optical member for changing the photographing range may be, for example, a stage portion (not shown). Further, in response to the instruction regarding the start of shooting by the drive control unit 124, the scanning means is provided so that the partial region such as the artifact region obtained by the segmentation process or the like is photographed (rescanned) again during or at the end of the imaging. Drive control may be used. Further, for example, when the information indicating the certainty of the object recognition result regarding the region of interest (for example, the numerical value indicating the ratio) exceeds the threshold value, various adjustments, shooting start, etc. may be automatically performed. good. Further, for example, when the information indicating the certainty of the object recognition result regarding the region of interest (for example, the numerical value indicating the ratio) exceeds the threshold value, each adjustment, the start of imaging, etc. can be executed according to the instruction from the examiner. It may be configured to change to a new state (release the execution prohibited state).

また、上述した種々の学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部126に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部126に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化用の学習済モデルにより順次生成された高画質画像(高画質フレーム)を連続表示させるように構成してもよい。 Further, the moving image to which the various trained models described above can be applied is not limited to the live moving image, and may be, for example, a moving image stored (stored) in the storage unit 126. At this time, for example, the moving image obtained by aligning each frame of the tomographic moving image of the fundus stored (stored) in the storage unit 126 may be displayed on the display screen. For example, when it is desired to preferably observe the vitreous body, first, a reference frame based on a condition such as the presence of the vitreous body on the frame as much as possible may be selected. At this time, each frame is a tomographic image (B scan image) in the XZ direction. Then, a moving image in which another frame is aligned in the XZ direction with respect to the selected reference frame may be displayed on the display screen. At this time, for example, a high-quality image (high-quality frame) sequentially generated by the trained model for high image quality may be continuously displayed for each at least one frame of the moving image.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されてもよいし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせ、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせ、断層画像(Bスキャン像)毎に生成した1次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 As the above-mentioned alignment method between frames, the same method may be applied to the alignment method in the X direction and the alignment method in the Z direction (depth direction), or all different methods may be applied. May be applied. Further, the alignment in the same direction may be performed a plurality of times by different methods, and for example, a precise alignment may be performed after performing a rough alignment. Further, as a method of alignment, for example, a plurality of alignments obtained by segmenting a tomographic image (coarse in the Z direction) using a retinal layer boundary obtained by performing segmentation processing of a tomographic image (B scan image) are performed. Alignment using the correlation information (similarity) between the region and the reference image (precise in the X and Z directions), and the one-dimensional projection image generated for each tomographic image (B scan image) was used (in the X direction). ) Alignment, alignment (in the X direction) using a two-dimensional front image, and the like. Further, it may be configured so that the alignment is roughly performed in pixel units and then the precise alignment is performed in sub-pixel units.

ここで、各種の調整中では、被検眼の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。 Here, during various adjustments, it is possible that the imaged object such as the retina of the eye to be inspected has not yet been successfully imaged. Therefore, since there is a large difference between the medical image input to the trained model and the medical image used as the training data, there is a possibility that a high-quality image cannot be obtained with high accuracy. Therefore, when the evaluation value such as the image quality evaluation of the tomographic image (B scan) exceeds the threshold value, the display of the high-quality moving image (continuous display of high-quality frames) may be automatically started. Further, when the evaluation value such as the image quality evaluation of the tomographic image (B scan) exceeds the threshold value, the image quality enhancement button may be configured to be changed to a state (active state) that can be specified by the examiner.

また、例えば、スキャンパターン等が異なる撮影モード毎に異なる高画質化用の学習済モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化用の学習済モデルが用いられてもよい。 Further, for example, a trained model for high image quality is prepared for each shooting mode having a different scan pattern, and the trained model for high image quality corresponding to the selected shooting mode is selected. May be done. Further, one trained model for high image quality obtained by learning training data including various medical images obtained in different imaging modes may be used.

[変形例11]
上述した実施形態及び変形例においては、各種学習済モデルが追加学習の実行中である場合、追加学習の実行中の学習済モデル自体を用いて出力(推論・予測)することが難しい可能性がある。このため、追加学習の実行中の学習済モデルに対する学習データ以外の医用画像の入力を禁止するように構成されることがよい。また、追加学習の実行前の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意してもよい。このとき、追加学習の実行中には、予備の学習済モデルに対する学習データ以外の医用画像の入力が実行可能なように構成されることがよい。そして、追加学習が完了した後に、追加学習の実行後の学習済モデルを評価し、問題がなければ、予備の学習済モデルから追加学習の実行後の学習済モデルに置き換えればよい。また、問題があれば、予備の学習済モデルが用いられるようにしてもよい。
[Modification 11]
In the above-described embodiment and modification, when various trained models are executing additional learning, it may be difficult to output (infer / predict) using the trained model itself during additional learning. be. Therefore, it may be configured to prohibit the input of medical images other than the training data to the trained model during the execution of additional learning. Further, another trained model that is the same as the trained model before the execution of the additional learning may be prepared as another preliminary trained model. At this time, during the execution of the additional learning, it may be configured so that the input of the medical image other than the training data to the preliminary trained model can be executed. Then, after the additional learning is completed, the trained model after the additional learning is executed may be evaluated, and if there is no problem, the preliminary trained model may be replaced with the trained model after the additional learning is executed. Also, if there is a problem, a preliminary trained model may be used.

なお、追加学習の実行後の学習済モデルの評価としては、例えば、高画質化用の学習済モデルで得た高画質画像を他の種類の画像と分類するための分類用の学習済モデルが用いられてもよい。分類用の学習済モデルは、例えば、高画質化用の学習済モデルで得た高画質画像と低画質画像とを含む複数の画像を入力データとし、これらの画像の種類がラベル付け(アノテーション)されたデータを正解データとして含む学習データを学習して得た学習済モデルであってもよい。このとき、推定時(予測時)の入力データの画像の種類が、学習時の正解データに含まれる画像の種類毎の確からしさを示す情報(例えば、割合を示す数値)と合わせて表示されてもよい。なお、分類用の学習済モデルの入力データとしては、上記の画像以外にも、複数の低画質画像の重ね合わせ処理(例えば、位置合わせして得た複数の低画質画像の平均化処理)等によって、高コントラスト化やノイズ低減等が行われたような高画質な画像が含まれてもよい。また、追加学習の実行後の学習済モデルの評価としては、例えば、追加学習の実行後の学習済モデルと追加学習の実行前の学習済モデル(予備の学習済モデル)とをそれぞれ用いて同一の画像から得た複数の高画質画像を比較、あるいは該複数の高画質画像の解析結果を比較してもよい。このとき、例えば、該複数の高画質画像の比較結果(追加学習による変化の一例)、あるいは該複数の高画質画像の解析結果の比較結果(追加学習による変化の一例)が所定の範囲であるか否かを判定し、判定結果が表示されてもよい。 As an evaluation of the trained model after the execution of additional learning, for example, a trained model for classification for classifying a high-quality image obtained by the trained model for high image quality from another type of image is used. It may be used. The trained model for classification uses, for example, a plurality of images including a high-quality image and a low-quality image obtained by the trained model for high image quality as input data, and the types of these images are labeled (annotation). It may be a trained model obtained by training training data including the obtained data as correct answer data. At this time, the image type of the input data at the time of estimation (prediction) is displayed together with the information indicating the certainty of each type of image included in the correct answer data at the time of learning (for example, a numerical value indicating a ratio). May be good. In addition to the above images, the input data of the trained model for classification includes overlay processing of a plurality of low-quality images (for example, averaging processing of a plurality of low-quality images obtained by alignment) and the like. May include high-quality images such as those with high contrast and noise reduction. Further, as the evaluation of the trained model after the execution of the additional learning, for example, the trained model after the execution of the additional learning and the trained model before the execution of the additional learning (preliminary trained model) are used and the same. A plurality of high-quality images obtained from the above images may be compared, or the analysis results of the plurality of high-quality images may be compared. At this time, for example, the comparison result of the plurality of high-quality images (an example of change due to additional learning) or the comparison result of the analysis result of the plurality of high-quality images (an example of change due to additional learning) is within a predetermined range. It may be determined whether or not, and the determination result may be displayed.

また、撮影部位毎に学習して得た学習済モデルを選択的に利用できるようにしてもよい。具体的には、第1の撮影部位(例えば、前眼部、後眼部等)を含む学習データを用いて得た第1の学習済モデルと、第1の撮影部位とは異なる第2の撮影部位を含む学習データを用いて得た第2の学習済モデルと、を含む複数の学習済モデルを用意することができる。そして、制御部102は、これら複数の学習済モデルのいずれかを選択する選択手段を有してもよい。このとき、制御部102は、選択された学習済モデルに対して追加学習を実行する制御手段を有してもよい。制御手段は、検者からの指示に応じて、選択された学習済モデルに対応する撮影部位と該撮影部位の撮影画像とがペアとなるデータを検索し、検索して得たデータを学習データとする学習を、選択された学習済モデルに対して追加学習として実行することができる。なお、選択された学習済モデルに対応する撮影部位は、データのヘッダの情報から取得したり、検者により手動入力されたりしたものであってよい。また、データの検索は、例えば、病院や研究所等の外部施設のサーバ等からネットワークを介して行われてよい。これにより、学習済モデルに対応する撮影部位の撮影画像を用いて、撮影部位毎に効率的に追加学習することができる。 In addition, the trained model obtained by learning for each imaging site may be selectively used. Specifically, the first trained model obtained by using the learning data including the first imaged portion (for example, the anterior eye portion, the posterior eye portion, etc.) and the second imaged portion different from the first imaging region. It is possible to prepare a second trained model obtained by using the training data including the imaged portion, and a plurality of trained models including the trained model. Then, the control unit 102 may have a selection means for selecting one of the plurality of trained models. At this time, the control unit 102 may have a control means for executing additional learning on the selected trained model. The control means searches for data in which the captured part corresponding to the selected trained model and the captured image of the captured portion are paired in response to an instruction from the examiner, and the data obtained by the search is learned data. Can be executed as additional training for the selected trained model. The imaged portion corresponding to the selected trained model may be acquired from the information in the header of the data or manually input by the examiner. Further, the data can be searched for, for example, from a server of an external facility such as a hospital or a research institute via a network. As a result, additional learning can be efficiently performed for each imaged part by using the photographed image of the imaged part corresponding to the trained model.

なお、選択手段及び制御手段は、制御部102のCPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、選択手段及び制御手段は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 The selection means and the control means may be composed of a software module executed by a processor such as a CPU or an MPU of the control unit 102. Further, the selection means and the control means may be configured by a circuit that performs a specific function such as an ASIC, an independent device, or the like.

また、追加学習用の学習データを、病院や研究所等の外部施設のサーバ等からネットワークを介して取得する際には、改ざんや、追加学習時のシステムトラブル等による信頼性低下を低減することが有用である。そこで、デジタル署名やハッシュ化による一致性の確認を行うことで、追加学習用の学習データの正当性を検出してもよい。これにより、追加学習用の学習データを保護することができる。このとき、デジタル署名やハッシュ化による一致性の確認した結果として、追加学習用の学習データの正当性が検出できなかった場合には、その旨の警告を行い、その学習データによる追加学習を行わないものとする。なお、サーバは、その設置場所を問わず、例えば、クラウドサーバ、フォグサーバ、エッジサーバ等のどのような形態でもよい。 In addition, when learning data for additional learning is acquired from a server of an external facility such as a hospital or research institute via a network, it is necessary to reduce reliability deterioration due to falsification or system trouble during additional learning. Is useful. Therefore, the legitimacy of the learning data for additional learning may be detected by confirming the consistency by digital signature or hashing. This makes it possible to protect the learning data for additional learning. At this time, if the validity of the training data for additional learning cannot be detected as a result of confirming the consistency by digital signature or hashing, a warning to that effect is given and additional learning is performed using the training data. Make it not exist. The server may be in any form, for example, a cloud server, a fog server, an edge server, or the like, regardless of its installation location.

また、上述したような一致性の確認によるデータの保護は、追加学習用の学習データに限らず、医用画像を含むデータに適用可能である。また、複数の施設のサーバの間の医用画像を含むデータの取引が分散型のネットワークにより管理されるように画像管理システムが構成されてもよい。また、取引履歴と、前のブロックのハッシュ値とが一緒に記録された複数のブロックを時系列につなぐように画像管理システムが構成されてもよい。なお、一致性の確認等を行うための技術としては、量子ゲート方式等の量子コンピュータを用いても計算が困難な暗号(例えば、格子暗号、量子鍵配送による量子暗号等)が用いられてもよい。ここで、画像管理システムは、撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムであってもよい。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。また、画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。 Further, the data protection by confirming the consistency as described above can be applied not only to the learning data for additional learning but also to the data including the medical image. Further, the image management system may be configured so that the transaction of data including medical images between the servers of a plurality of facilities is managed by a decentralized network. Further, the image management system may be configured to connect a plurality of blocks in which the transaction history and the hash value of the previous block are recorded together in chronological order. As a technique for confirming consistency, even if cryptography that is difficult to calculate even using a quantum computer such as a quantum gate method (for example, lattice cryptography, quantum cryptography by quantum key distribution, etc.) is used. good. Here, the image management system may be a device and a system that receives and stores an image taken by a photographing device or an image processed image. In addition, the image management system may transmit an image in response to a request from the connected device, perform image processing on the saved image, or request another device to perform image processing. can. The image management system can include, for example, an image storage communication system (PACS). In addition, the image management system includes a database that can store various information such as information on the subject and shooting time associated with the received image. In addition, the image management system is connected to a network and can send and receive images, convert images, and send and receive various information associated with saved images in response to requests from other devices. ..

なお、各種学習済モデルについて、追加学習を行う際には、GPUを用いて高速に処理を行うことができる。GPUは、データをより多く並列処理することで効率的な演算を行うことができるため、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合にはGPUで処理を行うことが有効である。なお、追加学習の処理は、GPUとCPU等が協働して行ってもよい。 When additional learning is performed on various trained models, GPU can be used to perform high-speed processing. Since the GPU can perform efficient calculations by processing more data in parallel, it is possible to perform processing on the GPU when learning is performed multiple times using a learning model such as deep learning. It is valid. The GPU, CPU, and the like may cooperate in the additional learning process.

[変形例12]
上述した様々な実施形態及び変形例において、検者からの指示は、手動による指示(例えば、ユーザーインターフェース等を用いた指示)以外にも、音声等による指示であってもよい。このとき、例えば、機械学習により得た音声認識モデル(音声認識エンジン、音声認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力等による指示であってもよい。このとき、例えば、機械学習により得た文字認識モデル(文字認識エンジン、文字認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、検者からの指示は、ジェスチャー等による指示であってもよい。このとき、機械学習により得たジェスチャー認識モデル(ジェスチャー認識エンジン、ジェスチャー認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。
[Modification 12]
In the various embodiments and modifications described above, the instruction from the examiner may be an instruction by voice or the like in addition to the instruction by manual operation (for example, the instruction using the user interface or the like). At this time, for example, a machine learning model including a voice recognition model (speech recognition engine, trained model for voice recognition) obtained by machine learning may be used. Further, the manual instruction may be an instruction by character input or the like using a keyboard, a touch panel, or the like. At this time, for example, a machine learning model including a character recognition model (character recognition engine, trained model for character recognition) obtained by machine learning may be used. Further, the instruction from the examiner may be an instruction by a gesture or the like. At this time, a machine learning model including a gesture recognition model (gesture recognition engine, trained model for gesture recognition) obtained by machine learning may be used.

また、検者からの指示は、表示部103における表示画面上の検者の視線検出結果等であってもよい。視線検出結果は、例えば、表示部103における表示画面の周辺から撮影して得た検者の動画像を用いた瞳孔検出結果であってもよい。このとき、動画像からの瞳孔検出は、上述したような物体認識エンジンを用いてもよい。また、検者からの指示は、脳波、体を流れる微弱な電気信号等による指示であってもよい。 Further, the instruction from the examiner may be the line-of-sight detection result of the examiner on the display screen of the display unit 103. The line-of-sight detection result may be, for example, a pupil detection result using a moving image of the examiner obtained by photographing from the periphery of the display screen on the display unit 103. At this time, the object recognition engine as described above may be used for the pupil detection from the moving image. Further, the instruction from the examiner may be an instruction by an electroencephalogram, a weak electric signal flowing through the body, or the like.

このような場合、例えば、学習データとしては、上述したような種々の学習済モデルの処理による結果の表示の指示を示す文字データ又は音声データ(波形データ)等を入力データとし、種々の学習済モデルの処理による結果等を実際に表示部103に表示させるための実行命令を正解データとする学習データであってもよい。また、学習データとしては、例えば、撮影パラメータの自動設定を行うか否かの実行命令及び当該命令用のボタンをアクティブ状態に変更するための実行命令等を正解データとする学習データであってもよい。なお、学習データとしては、例えば、文字データ又は音声データ等が示す指示内容と実行命令内容とが互いに対応するものであれば何でもよい。また、音響モデルや言語モデル等を用いて、音声データから文字データに変換してもよい。また、複数のマイクで得た波形データを用いて、音声データに重畳しているノイズデータを低減する処理を行ってもよい。また、文字又は音声等による指示と、マウス又はタッチパネル等による指示とを、検者からの指示に応じて選択可能に構成されてもよい。また、文字又は音声等による指示のオン・オフを、検者からの指示に応じて選択可能に構成されてもよい。 In such a case, for example, as the training data, character data or voice data (waveform data) indicating an instruction for displaying the result by processing of various trained models as described above is used as input data, and various trained data have been trained. It may be learning data in which the execution instruction for actually displaying the result or the like obtained by the processing of the model on the display unit 103 is the correct answer data. Further, the learning data may be, for example, learning data in which an execution command for whether or not to automatically set shooting parameters and an execution command for changing the button for the command to the active state are correct data. good. The learning data may be any data as long as the instruction content and the execution command content indicated by the character data, the voice data, or the like correspond to each other. Further, the voice data may be converted into character data by using an acoustic model, a language model, or the like. Further, the waveform data obtained by the plurality of microphones may be used to perform a process of reducing the noise data superimposed on the voice data. Further, the instruction by characters or voice and the instruction by a mouse, a touch panel or the like may be configured to be selectable according to the instruction from the examiner. Further, the on / off of the instruction by characters or voice may be selectably configured according to the instruction from the examiner.

ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも一部には、例えば、RNNを用いることができる。また、LSTMやQRNNを用いてもよい。さらに、機械学習モデルは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。また、検者からの指示が文字又は音声等による入力の場合には、自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。このとき、自然言語処理に関する技術としては、例えば、入力される文章毎に出力されるモデルが適用されてもよい。また、上述した種々の学習済モデルは、検者からの指示に限らず、検者に対する出力に適用されてもよい。また、検者に対して文字又は音声等による出力で応答する対話エンジン(対話モデル、対話用の学習済モデル)が適用されてもよい。 Here, machine learning includes deep learning as described above, and RNN can be used, for example, for at least a part of a multi-layer neural network. Further, LSTM or QRNN may be used. Further, the machine learning model is not limited to the neural network, and boosting, a support vector machine, or the like may be used. Further, when the instruction from the examiner is input by characters, voice, or the like, a technique related to natural language processing (for example, Sequence to Sequence) may be applied. At this time, as a technique related to natural language processing, for example, a model that is output for each input sentence may be applied. Further, the various trained models described above are not limited to the instructions from the examiner, and may be applied to the output to the examiner. Further, a dialogue engine (dialogue model, trained model for dialogue) that responds to the examiner with output by characters, voice, or the like may be applied.

また、自然言語処理に関する技術としては、文書データを教師なし学習により事前学習して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、事前学習して得た学習済モデルをさらに目的に応じて転移学習(あるいはファインチューニング)して得た学習済モデルが用いられてもよい。また、自然言語処理に関する技術としては、例えば、BERT(Bidirectional Encoder Representations from Transformers)が適用されてもよい。また、自然言語処理に関する技術としては、文章内の特定の単語を左右両方の文脈から予測することで、文脈(特徴量)を自ら抽出(表現)可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、入力される時系列データにおける2つのシーケンス(センテンス)の関係性(連続性)を判断可能なモデルが適用されてもよい。また、自然言語処理に関する技術としては、隠れ層にTransformerのEncoderが用いられ、ベクトルのシーケンスが入力、出力されるモデルが適用されてもよい。 Further, as a technique related to natural language processing, a trained model obtained by pre-learning document data by unsupervised learning may be used. Further, as a technique related to natural language processing, a trained model obtained by transfer learning (or fine tuning) of a trained model obtained by pre-learning may be used. Further, as a technique related to natural language processing, for example, BERT (Bidirectional Encoder Representations from Transfermers) may be applied. Further, as a technique related to natural language processing, a model capable of extracting (expressing) a context (feature amount) by itself by predicting a specific word in a sentence from both the left and right contexts may be applied. Further, as a technique related to natural language processing, a model capable of determining the relationship (continuity) between two sequences (sentences) in the input time series data may be applied. Further, as a technique related to natural language processing, a Transformer Encoder is used for the hidden layer, and a model in which a sequence of vectors is input and output may be applied.

ここで、本変形例が適用可能な検者からの指示は、上述した様々な実施形態及び変形例に記載のような種々の画像や解析結果の表示の変更、En−Face画像の生成のための深度範囲の選択、追加学習用の学習データとして用いるか否かの選択、学習済モデルの選択、種々の学習済モデルを用いて得た結果の出力(表示や送信等)や保存等、に関する少なくとも1つの指示であれば何でもよい。また、本変形例が適用可能な検者からの指示は、撮影後の指示だけでなく、撮影前の指示であってもよく、例えば、種々の調整に関する指示、種々の撮影条件の設定に関する指示、撮影開始に関する指示であってもよい。また、本変形例が適用可能な検者からの指示は、表示画面の変更(画面遷移)に関する指示であってもよい。 Here, the instruction from the examiner to which this modification is applicable is for changing the display of various images and analysis results as described in the various embodiments and modifications described above, and for generating an En-Face image. Selection of depth range, selection of whether to use as training data for additional learning, selection of trained model, output (display, transmission, etc.) and storage of results obtained using various trained models, etc. Any instruction may be used as long as it is at least one instruction. Further, the instruction from the examiner to which this modification is applicable may be an instruction before shooting as well as an instruction after shooting, for example, an instruction regarding various adjustments and an instruction regarding setting of various shooting conditions. , It may be an instruction regarding the start of shooting. Further, the instruction from the examiner to which this modification is applicable may be an instruction regarding a change (screen transition) of the display screen.

なお、機械学習モデルとしては、CNN等の画像に関する機械学習モデルとRNN等の時系列データに関する機械学習モデルとを組み合わせた機械学習モデルであってもよい。このような機械学習モデルでは、例えば、画像に関する特徴量と時系列データに関する特徴量との関係性を学習することができる。機械学習モデルの入力層側がCNNで、出力層側がRNNである場合には、例えば、医用画像を入力データとし、該医用画像に関する文章(例えば、病変の有無、病変の種類、次の検査のレコメンド等)を出力データとする学習データを用いて学習が行われてもよい。これにより、例えば、医用画像に関する医療情報が自動的に文章で説明されるため、医療経験が浅い検者であっても、医用画像に関する医療情報を容易に把握することができる。また、機械学習モデルの入力層側がRNNで、出力層側がCNNである場合には、例えば、病変、所見、診断等の医療に関する文章を入力データとし、該医療に関する文章に対応する医用画像を出力データとする学習データを用いて学習が行われてもよい。これにより、例えば、検者が確認したい症例に関係する医用画像を容易に検索することができる。 The machine learning model may be a machine learning model that combines a machine learning model related to images such as CNN and a machine learning model related to time series data such as RNN. In such a machine learning model, for example, it is possible to learn the relationship between the feature amount related to an image and the feature amount related to time series data. When the input layer side of the machine learning model is CNN and the output layer side is RNN, for example, the medical image is used as input data, and the text related to the medical image (for example, the presence or absence of a lesion, the type of lesion, and the recommendation of the next examination). Etc.) may be used as output data for training. As a result, for example, medical information related to medical images is automatically explained in sentences, so that even an examiner with little medical experience can easily grasp medical information related to medical images. When the input layer side of the machine learning model is RNN and the output layer side is CNN, for example, texts related to medical treatment such as lesions, findings, and diagnoses are used as input data, and medical images corresponding to the texts related to the medical treatment are output. Learning may be performed using the training data as data. This makes it possible, for example, to easily search for a medical image related to a case that the examiner wants to confirm.

また、検者からの指示や検者に対する出力には、文字や音声等の文章を任意の言語に機械翻訳する機械翻訳エンジン(機械翻訳モデル、機械翻訳用の学習済モデル)が用いられてもよい。なお、任意の言語は、検者からの指示に応じて選択可能に構成されてもよい。また、任意の言語は、言語の種類を自動認識する学習済モデルを用いることで自動選択可能に構成されてもよい。また、自動選択された言語の種類を検者からの指示に応じて修正可能に構成されてもよい。機械翻訳エンジンには、例えば、上述した自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。例えば、機械翻訳エンジンに入力された文章が機械翻訳された後に、機械翻訳された文章を文字認識エンジン等に入力するように構成されてもよい。また、例えば、上述した種々の学習済モデルから出力された文章を機械翻訳エンジンに入力し、機械翻訳エンジンから出力された文章が出力されるように構成されてもよい。 In addition, even if a machine translation engine (machine translation model, trained model for machine translation) that machine translates sentences such as characters and voices into any language is used for instructions from the examiner and output to the examiner. good. In addition, any language may be configured to be selectable according to an instruction from the examiner. Further, any language may be configured to be automatically selectable by using a trained model that automatically recognizes the type of language. Further, the automatically selected language type may be configured to be modifiable according to an instruction from the examiner. For example, the above-mentioned techniques related to natural language processing (for example, Sequence to Sequence) may be applied to the machine translation engine. For example, after the sentence input to the machine translation engine is machine-translated, the machine-translated sentence may be input to the character recognition engine or the like. Further, for example, the sentences output from the various trained models described above may be input to the machine translation engine, and the sentences output from the machine translation engine may be output.

また、上述した種々の学習済モデルが組み合わせて用いられてもよい。例えば、検者からの指示に対応する文字が文字認識エンジンに入力され、入力された文字から得た音声を他の種類の機械学習エンジン(例えば、機械翻訳エンジン等)に入力されるように構成されてもよい。また、例えば、他の種類の機械学習エンジンから出力された文字が文字認識エンジンに入力され、入力された文字から得た音声が出力されるように構成されてもよい。また、例えば、検者からの指示に対応する音声が音声認識エンジンに入力され、入力された音声から得た文字を他の種類の機械学習エンジン(例えば、機械翻訳エンジン等)に入力されるように構成されてもよい。また、例えば、他の種類の機械学習エンジンから出力された音声が音声認識エンジンに入力され、入力された音声から得た文字が表示部103に表示されるように構成されてもよい。このとき、検者に対する出力として文字による出力か音声による出力かを、検者からの指示に応じて選択可能に構成されてもよい。また、検者からの指示として文字による入力か音声による入力かを、検者からの指示に応じて選択可能に構成されてもよい。また、検者からの指示による選択によって、上述した種々の構成が採用されるようにしてもよい。 Further, the various trained models described above may be used in combination. For example, the character corresponding to the instruction from the examiner is input to the character recognition engine, and the voice obtained from the input character is input to another type of machine learning engine (for example, a machine translation engine). May be done. Further, for example, characters output from other types of machine learning engines may be input to the character recognition engine, and the voice obtained from the input characters may be output. Further, for example, the voice corresponding to the instruction from the examiner is input to the voice recognition engine, and the characters obtained from the input voice are input to another type of machine learning engine (for example, a machine translation engine). It may be configured in. Further, for example, the voice output from another type of machine learning engine may be input to the voice recognition engine, and the characters obtained from the input voice may be displayed on the display unit 103. At this time, it may be configured so that the output to the examiner can be selected from the output by characters and the output by voice according to the instruction from the examiner. Further, it may be configured so that the instruction from the examiner can be selected from the input by characters and the input by voice according to the instruction from the examiner. Further, the various configurations described above may be adopted by selection according to an instruction from the examiner.

[変形例13]
本撮影により取得された画像に関するラベル画像や高画質画像等は、操作者からの指示に応じて記憶部126に保存されてもよい。このとき、例えば、高画質画像を保存するための操作者からの指示の後、ファイル名の登録の際に、推奨のファイル名として、ファイル名のいずれかの箇所(例えば、最初の箇所、又は最後の箇所)に、高画質化用の学習済モデルを用いた処理(高画質化処理)により生成された画像であることを示す情報(例えば、文字)を含むファイル名が、操作者からの指示に応じて編集可能な状態で表示されてもよい。なお、同様に、ラベル画像等についても、学習済モデルを用いた処理により生成された画像である情報を含むファイル名が表示されてもよい。
[Modification 13]
A label image, a high-quality image, or the like related to the image acquired by the main shooting may be stored in the storage unit 126 according to an instruction from the operator. At this time, for example, after an instruction from the operator for saving a high-quality image, when registering the file name, as a recommended file name, any part of the file name (for example, the first part, or In the last part), a file name containing information (for example, characters) indicating that the image is generated by processing using a trained model for high image quality (high image quality processing) is given by the operator. It may be displayed in an editable state according to the instruction. Similarly, for the label image and the like, the file name including the information which is the image generated by the process using the trained model may be displayed.

また、レポート画面等の種々の表示画面において、表示部103に高画質画像を表示させる際に、表示されている画像が高画質化モデルを用いた処理により生成された高画質画像であることを示す表示が、高画質画像とともに表示されてもよい。この場合には、操作者は、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、高画質化モデルを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。また、高画質化モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルを用いた処理により生成された結果であることを示す表示が、その結果とともに表示されてもよい。例えば、画像セグメンテーション処理用の学習済モデルを用いたセグメンテーション結果の解析結果を表示する際にも、画像セグメンテーション用の学習済モデルを用いた結果に基づいた解析結果であることを示す表示が、解析結果とともに表示されてもよい。 Further, when displaying a high-quality image on the display unit 103 on various display screens such as a report screen, the displayed image is a high-quality image generated by processing using a high-quality model. The display shown may be displayed together with a high-quality image. In this case, the operator can easily identify from the display that the displayed high-quality image is not the image itself acquired by shooting, thus reducing erroneous diagnosis and improving diagnostic efficiency. be able to. The display indicating that the image is a high-quality image generated by the process using the high-quality model is any mode as long as the input image and the high-quality image generated by the process can be distinguished. It may be one. Further, it is shown that not only the processing using the high image quality model but also the processing using various trained models as described above is the result generated by the processing using the trained model of that kind. The display may be displayed with the result. For example, when displaying the analysis result of the segmentation result using the trained model for image segmentation processing, the display indicating that the analysis result is based on the result using the trained model for image segmentation is analyzed. It may be displayed with the result.

このとき、レポート画面等の表示画面は、操作者からの指示に応じて、画像データとして記憶部126に保存されてもよい。例えば、高画質画像等と、これらの画像が学習済モデルを用いた処理により生成された画像であることを示す表示とが並んだ1つの画像としてレポート画面が記憶部126に保存されてもよい。 At this time, the display screen such as the report screen may be stored in the storage unit 126 as image data in response to an instruction from the operator. For example, the report screen may be stored in the storage unit 126 as one image in which a high-quality image or the like and a display indicating that these images are images generated by processing using the trained model are arranged side by side. ..

また、高画質化モデルを用いた処理により生成された高画質画像であることを示す表示について、高画質化モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部103に表示されてもよい。当該表示としては、学習データの入力データと正解データの種類の説明や、入力データと正解データに含まれる撮影部位等の正解データに関する任意の表示を含んでよい。なお、例えば画像セグメンテーション処理等上述した種々の学習済モデルを用いた処理についても、その種類の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部103に表示されてもよい。 In addition, regarding the display indicating that the image is a high-quality image generated by processing using the high-quality model, the display unit shows what kind of learning data the high-quality model has learned. It may be displayed in 103. The display may include an explanation of the types of input data and correct answer data of learning data, and an arbitrary display regarding correct answer data such as an imaging site included in the input data and correct answer data. It should be noted that even in the case of processing using the various trained models described above, such as image segmentation processing, the display unit 103 displays a display showing what kind of training data the trained model of that type was trained by. It may be displayed.

また、学習済モデルを用いた処理により生成された画像であることを示す情報(例えば、文字)を、画像等に重畳した状態で表示又は保存されるように構成されてもよい。このとき、画像上に重畳する箇所は、撮影対象となる注目部位等が表示されている領域には重ならない領域(例えば、画像の端)であればどこでもよい。また、重ならない領域を判定し、判定された領域に重畳させてもよい。なお、高画質化モデルを用いた処理だけでなく、例えば画像セグメンテーション処理等の上述した種々の学習済モデルを用いた処理により得た画像についても、同様に処理してよい。 Further, information (for example, characters) indicating that the image is generated by processing using the trained model may be displayed or stored in a state of being superimposed on the image or the like. At this time, the portion superimposed on the image may be any region (for example, the edge of the image) that does not overlap with the region where the region of interest to be photographed is displayed. Further, the non-overlapping areas may be determined and superimposed on the determined areas. It should be noted that not only the processing using the high image quality model but also the image obtained by the processing using the various trained models described above such as the image segmentation processing may be processed in the same manner.

また、レポート画面の初期表示画面として、高画質化処理ボタン等がアクティブ状態(高画質化処理がオン)となるようにデフォルト設定されている場合には、検者からの指示に応じて、高画質画像等を含むレポート画面に対応するレポート画像がサーバに送信されるように構成されてもよい。また、当該ボタンがアクティブ状態となるようにデフォルト設定されている場合には、検査終了時(例えば、検者からの指示に応じて、撮影確認画面やプレビュー画面からレポート画面に変更された場合)に、高画質画像等を含むレポート画面に対応するレポート画像がサーバに(自動的に)送信されるように構成されてもよい。このとき、デフォルト設定における各種設定(例えば、レポート画面の初期表示画面におけるEn−Face画像の生成のための深度範囲、解析マップの重畳の有無、高画質画像か否か、経過観察用の表示画面か否か等の少なくとも1つに関する設定)に基づいて生成されたレポート画像がサーバに送信されるように構成されてもよい。なお、当該ボタンが画像セグメンテーション処理の切り替えを表す場合に関しても、同様に処理されてよい。 In addition, if the initial display screen of the report screen is set by default so that the high image quality processing button or the like is in the active state (high image quality processing is on), it is set to high according to the instruction from the examiner. The report image corresponding to the report screen including the image quality image may be configured to be transmitted to the server. Also, if the button is set to the active state by default, at the end of the inspection (for example, when the shooting confirmation screen or preview screen is changed to the report screen according to the instruction from the inspector). In addition, the report image corresponding to the report screen including the high-quality image may be configured to be (automatically) transmitted to the server. At this time, various settings in the default settings (for example, the depth range for generating the En-Face image on the initial display screen of the report screen, whether or not the analysis map is superimposed, whether or not the image is a high-quality image, and the display screen for follow-up observation. The report image generated based on (settings related to at least one such as whether or not) may be configured to be sent to the server. It should be noted that the same processing may be performed even when the button represents the switching of the image segmentation processing.

[変形例14]
上述した実施形態及び変形例において、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルで得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、所定領域検出結果を示す画像、セグメンテーション結果を示す画像)を、第1の種類とは異なる第2の種類の学習済モデルに入力してもよい。このとき、第2の種類の学習済モデルの処理による結果(例えば、推定結果、解析結果、診断結果、所定領域検出結果、セグメンテーション結果)が生成されるように構成されてもよい。
[Modification 14]
In the above-described embodiments and modifications, among the various trained models described above, images obtained by the first type of trained model (for example, high-quality images, images showing analysis results such as analysis maps, etc.). An image showing a predetermined region detection result, an image showing a segmentation result) may be input to a trained model of a second type different from the first type. At this time, it may be configured to generate the result (for example, estimation result, analysis result, diagnosis result, predetermined area detection result, segmentation result) by the processing of the second kind of trained model.

また、上述したような種々の学習済モデルのうち、第1の種類の学習済モデルの処理による結果(例えば、推定結果、解析結果、診断結果、所定領域検出結果、セグメンテーション結果)を用いて、第1の種類の学習済モデルに入力した画像から、第1の種類とは異なる第2の種類の学習済モデルに入力する画像を生成してもよい。このとき、生成された画像は、第2の種類の学習済モデルを用いて処理する画像として適した画像である可能性が高い。このため、生成された画像を第2の種類の学習済モデルに入力して得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、所定領域検出結果を示す画像、セグメンテーション結果を示す画像)の精度を向上することができる。 Further, among the various trained models as described above, the results obtained by processing the first type of trained model (for example, estimation result, analysis result, diagnosis result, predetermined area detection result, segmentation result) are used. From the image input to the trained model of the first type, an image to be input to the trained model of the second type different from the first type may be generated. At this time, the generated image is likely to be an image suitable as an image to be processed using the second type of trained model. Therefore, an image obtained by inputting the generated image into the second type of trained model (for example, a high-quality image, an image showing an analysis result such as an analysis map, an image showing a predetermined area detection result, and a segmentation result). The accuracy of the image) can be improved.

なお、共通の画像が、第1の種類の学習済モデルと第2の種類の学習済モデルとに入力されることで、これらの学習済モデルを用いた各処理結果の生成(あるいは表示)を実行するように構成されてもよい。このとき、例えば、検者からの指示に応じて、これらの学習済モデルを用いた各処理結果の生成(あるいは表示)を一括して(連動して)実行するように構成されてもよい。また、入力させる画像の種類(例えば、高画質画像、物体認識結果、セグメンテーション結果、類似症例画像)、生成(あるいは表示)させる処理結果の種類(例えば、高画質画像、推定結果、診断結果、解析結果、物体認識結果、セグメンテーション結果、類似症例画像)、入力の種類や出力の種類(例えば、文字、音声、言語)等をそれぞれ検者からの指示に応じて選択可能に構成されてもよい。また、入力の種類は、入力の種類を自動認識する学習済モデルを用いることで自動選択可能に構成されてもよい。また、出力の種類は、入力の種類と対応する(例えば、同じ種類になる)ように自動選択可能に構成されてもよい。また、自動選択された種類を検者からの指示に応じて修正可能に構成されてもよい。このとき、選択された種類に応じて少なくとも1つの学習済モデルが選択されるように構成されてもよい。このとき、複数の学習済モデルが選択された場合には、選択された種類に応じて複数の学習済モデルの組み合わせ方(例えば、データを入力させる順番等)が決定されてもよい。なお、例えば、入力させる画像の種類と、生成(あるいは表示)させる処理結果の種類とが、異なるように選択可能に構成されてもよいし、同じである場合には異なるように選択することを促す情報を検者に対して出力するように構成されてもよい。また、各学習済モデルはどの場所で実行されてもよい。例えば、複数の学習済モデルのうちの一部がクラウドサーバで用いられ、他はフォグサーバやエッジサーバ等の別のサーバで用いられるように構成されてもよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。これらにより、例えば、硝子体、白内障、緑内障、角膜屈折矯正、外眼等の手術や、レーザ光凝固等の治療が、遠隔であってもリアルタイムに支援することができる。このとき、例えば、これらの手術や治療に関する装置により得た種々の医用画像の少なくとも1つを無線により受信したフォグサーバやエッジサーバ等が種々の学習済モデルの少なくとも1つを用いて得た情報を手術や治療に関する装置に無線で送信するように構成されてもよい。また、例えば、手術や治療に関する装置に無線で受信した情報が、上述したような光学系や光学部材の移動量(ベクトル)であってもよく、この場合、手術や治療に関する装置が自動制御されるように構成されてもよい。また、例えば、検者による操作の支援を目的として、検者の許可を伴う自動制御(半自動制御)として構成されてもよい。 By inputting a common image into the first type of trained model and the second type of trained model, the generation (or display) of each processing result using these trained models can be generated. It may be configured to run. At this time, for example, it may be configured to collectively (in conjunction with) generate (or display) each processing result using these trained models in response to an instruction from the examiner. In addition, the type of image to be input (for example, high-quality image, object recognition result, segmentation result, similar case image), and the type of processing result to be generated (or displayed) (for example, high-quality image, estimation result, diagnosis result, analysis). The result, the object recognition result, the segmentation result, the similar case image), the input type and the output type (for example, characters, voice, language) and the like may be configured to be selectable according to the instruction from the examiner. Further, the input type may be configured to be automatically selectable by using a trained model that automatically recognizes the input type. Further, the output type may be configured to be automatically selectable so as to correspond to the input type (for example, to be the same type). Further, the automatically selected type may be configured to be modifiable according to an instruction from the examiner. At this time, at least one trained model may be configured to be selected according to the selected type. At this time, when a plurality of trained models are selected, how to combine the plurality of trained models (for example, the order in which data is input) may be determined according to the selected type. It should be noted that, for example, the type of the image to be input and the type of the processing result to be generated (or displayed) may be configured to be differently selectable, or if they are the same, they may be selected differently. It may be configured to output prompting information to the examiner. Also, each trained model may be executed anywhere. For example, some of the plurality of trained models may be used in a cloud server, and the others may be configured to be used in another server such as a fog server or an edge server. In addition, when the network in the facility, the site including the facility, the area including multiple facilities, etc. is configured to enable wireless communication, for example, it is assigned only to the facility, the site, the area, etc. The reliability of the network may be improved by configuring to use radio waves in a dedicated wavelength band. Further, the network may be configured by wireless communication capable of high speed, large capacity, low delay, and simultaneous connection of a large number of people. With these, for example, surgery such as vitreous body, cataract, glaucoma, corneal refraction correction, external eye, and treatment such as laser photocoagulation can be supported in real time even if it is remote. At this time, for example, information obtained by a fog server, an edge server, or the like that wirelessly receives at least one of various medical images obtained by these devices related to surgery or treatment using at least one of various trained models. May be configured to wirelessly transmit to a device for surgery or treatment. Further, for example, the information wirelessly received by the device related to surgery or treatment may be the amount of movement (vector) of the optical system or optical member as described above. In this case, the device related to surgery or treatment is automatically controlled. It may be configured to be. Further, for example, for the purpose of supporting the operation by the examiner, it may be configured as an automatic control (semi-automatic control) with the permission of the examiner.

また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。また、上述したような種々の学習済モデルの処理による物体認識結果やセグメンテーション結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似症例画像検索を行ってもよい。なお、データベースにおいて保存されている複数の医用画像が、既に機械学習等によって該複数の医用画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、医用画像自体を検索キーとする類似症例画像検索エンジン(類似症例画像検索モデル、類似症例画像検索用の学習済モデル)が用いられてもよい。例えば、制御部102は、(高画質化用の学習済モデルとは異なる)類似症例画像検索用の学習済モデルを用いて、種々の医用画像から該医用画像に関連する類似症例画像の検索を行うことができる。また、例えば、表示制御部125は、種々の医用画像から類似症例画像検索用の学習済モデルを用いて得た類似症例画像を表示部103に表示させることができる。このとき、類似症例画像は、例えば、学習済モデルに入力された医用画像の特徴量と類似する特徴量の画像である。また、類似症例画像は、例えば、学習済モデルに入力された医用画像において異常部位等の部分領域が含まれる場合には、異常部位等の部分領域の特徴量と類似する特徴量の画像である。このため、例えば、類似症例画像を精度よく検索するための学習を効率的に行うことができるだけでなく、医用画像において異常部位が含まれる場合には、検者は異常部位の診断を効率よく行うことができる。また、複数の類似症例画像が検索されてもよく、特徴量が類似する順番が識別可能に複数の類似症例画像が表示されてもよい。また、複数の類似症例画像のうち、検者からの指示に応じて選択された画像と該画像との特徴量とを含む学習データを用いて、類似症例画像検索用の学習済モデルが追加学習されるように構成されてもよい。 Further, a similar case image search using an external database stored in a server or the like may be performed using the analysis result, the diagnosis result, etc. obtained by the processing of the trained model as described above as a search key. Further, a similar case image search using an external database stored in a server or the like may be performed using an object recognition result, a segmentation result, or the like obtained by processing various trained models as described above as a search key. If the plurality of medical images stored in the database are already managed by machine learning or the like with the feature amount of each of the plurality of medical images attached as incidental information, the medical image itself may be used. A similar case image search engine (similar case image search model, trained model for similar case image search) may be used as a search key. For example, the control unit 102 searches various medical images for similar case images related to the medical image by using the trained model for similar case image search (different from the trained model for high image quality). It can be carried out. Further, for example, the display control unit 125 can display a similar case image obtained from various medical images using a learned model for searching for a similar case image on the display unit 103. At this time, the similar case image is, for example, an image having a feature amount similar to the feature amount of the medical image input to the trained model. Further, the similar case image is, for example, an image of a feature amount similar to the feature amount of the partial area such as the abnormal part when the medical image input to the trained model includes a partial area such as an abnormal part. .. Therefore, for example, not only can the learning for accurately searching for similar case images be performed efficiently, but also when the medical image contains an abnormal part, the examiner efficiently diagnoses the abnormal part. be able to. Further, a plurality of similar case images may be searched, and a plurality of similar case images may be displayed so that the order in which the feature amounts are similar can be identified. In addition, a trained model for searching similar case images is additionally learned using learning data including an image selected according to an instruction from the examiner and a feature amount of the image among a plurality of similar case images. It may be configured to be.

また、各種学習済モデルの学習データは、実際の撮影を行う眼科装置自体を用いて得たデータに限られず、所望の構成に応じて、同型の眼科装置を用いて得たデータや、同種の眼科装置を用いて得たデータ等であってもよい。 Further, the training data of various trained models is not limited to the data obtained by using the ophthalmic apparatus itself that actually performs the imaging, and the data obtained by using the same type of ophthalmic apparatus or the same type according to the desired configuration. It may be data obtained by using an ophthalmic apparatus or the like.

なお、上述した実施形態及び変形例に係る各種学習済モデルは制御部102に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、制御部102と接続される別のサーバの装置等に設けられてもよい。この場合には、制御部102は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。 It should be noted that various trained models according to the above-described embodiments and modifications can be provided in the control unit 102. The trained model may be configured by, for example, a CPU, a software module executed by a processor such as an MPU, GPU, FPGA, or the like, or may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, these learned models may be provided in a device of another server connected to the control unit 102 or the like. In this case, the control unit 102 can use the trained model by connecting to a server or the like provided with the trained model via an arbitrary network such as the Internet. Here, the server provided with the trained model may be, for example, a cloud server, a fog server, an edge server, or the like. In addition, when the network in the facility, the site including the facility, the area including multiple facilities, etc. is configured to enable wireless communication, for example, it is assigned only to the facility, the site, the area, etc. The reliability of the network may be improved by configuring to use radio waves in a dedicated wavelength band. Further, the network may be configured by wireless communication capable of high speed, large capacity, low delay, and simultaneous connection of a large number of people.

[変形例15]
上述した様々な実施形態及び変形例による制御部102によって処理される医用画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や、医用画像処理装置又は医用画像処理方法によって作成された画像を含むことができる。
[Modification 15]
The medical image processed by the control unit 102 according to the various embodiments and modifications described above includes an image acquired by using an arbitrary modality (imaging device, imaging method). The medical image to be processed may include a medical image acquired by an arbitrary imaging device or the like, or an image created by a medical image processing device or a medical image processing method.

さらに、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。特に、上述した様々な実施形態及び変形例では、被検眼に係る医用画像を推定処理に用いた。これに関し、上述した様々な実施形態及び変形例に推定処理に用いられる医用画像に関する被検体は、被検眼に限られず、左右方向、上下方向、又は左右上下方向において対称性を有する被検体であればよく、例えば肺等の他の臓器であってもよい。ただし、第3実施形態に関する被形態は、対称性を有する被検体に限られなくてよい。なお、被検体を肺等の臓器とする場合には、撮影装置101は、例えば、内視鏡等の構成を有してよい。 Further, the medical image to be processed is an image of a predetermined part of the subject (subject), and the image of the predetermined part includes at least a part of the predetermined part of the subject. In addition, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a black-and-white image or a color image. Further, the medical image may be an image showing the structure (morphology) of a predetermined part or an image showing the function thereof. The image showing the function includes, for example, an OCTA image, a Doppler OCT image, an fMRI image, and an image showing hemodynamics (blood flow volume, blood flow velocity, etc.) such as an ultrasonic Doppler image. The predetermined site of the subject may be determined according to the subject to be imaged, and the human eye (eye to be examined), brain, lung, intestine, heart, pancreas, kidney, organs such as liver, head, chest, etc. Includes any part such as legs and arms. In particular, in the various embodiments and modifications described above, the medical image relating to the eye to be inspected was used for the estimation process. In this regard, the subject relating to the medical image used for the estimation process in the various embodiments and modifications described above is not limited to the subject to be examined, and may be a subject having symmetry in the left-right direction, the up-down direction, or the left-right up-down direction. It may be other organs such as lungs. However, the embodiment according to the third embodiment is not limited to the subject having symmetry. When the subject is an organ such as a lung, the imaging device 101 may have, for example, an endoscope or the like.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底又は前眼部のSLO画像、蛍光撮影された眼底画像、OCTで取得したデータ(3次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn−Face画像を含む。En−Face画像は、3次元のOCTAデータ(3次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn−Face画像(モーションコントラスト正面画像)であってもよい。また、3次元のOCTデータや3次元のモーションコントラストデータは、3次元の医用画像データの一例である。 Further, the medical image may be a tomographic image of the subject or a frontal image. The frontal image is, for example, an SLO image of the fundus or anterior segment of the eye, a fundus image photographed by fluorescence, and data acquired by OCT (three-dimensional OCT data) in at least a part of the range in the depth direction of the imaged object. Includes En-Face images generated using. The En-Face image is an OCTA En-Face image (motion contrast front image) generated by using at least a part of the data in the depth direction of the shooting target for the three-dimensional OCTA data (three-dimensional motion contrast data). ) May be. Further, three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.

ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn−Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。なお、略同一位置を測定光が複数回走査されるように走査手段を制御する際に、一つの走査(一つのBスキャン)と次の走査(次のBスキャン)との時間間隔(タイムインターバル)が変更(決定)されるように構成されてもよい。これにより、例えば、血管の状態によって血流速度が異なる場合があっても、血管領域を精度よく可視化することができる。このとき、例えば、検者からの指示に応じて、上記時間間隔が変更可能に構成されてもよい。また、例えば、検者からの指示に応じて、予め設定されている複数の時間間隔に対応する複数のモーションコントラスト画像から、いずれかのモーションコントラスト画像が選択可能に構成されてもよい。また、例えば、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータとを対応づけて記憶部126に記憶可能に構成されてもよい。また、例えば、表示制御部125、モーションコントラストデータを取得した際の時間間隔と該モーションコントラストデータに対応するモーションコントラスト画像とを表示部103に表示させてもよい。また、例えば、上記時間間隔が自動的に決定、あるいは上記時間間隔の少なくとも1つの候補が決定されるように構成されてもよい。このとき、例えば、機械学習モデルを用いて、モーションコントラスト画像から、上記時間間隔が決定(出力)されるように構成されてもよい。このような機械学習モデルは、例えば、複数の時間間隔に対応する複数のモーションコントラスト画像を入力データとし、該複数の時間間隔から所望のモーションコントラスト画像を取得した際の時間間隔までの差を正解データとする学習データを学習することにより得ることができる。 Here, the motion contrast data is data showing a change between a plurality of volume data obtained by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data showing changes between a plurality of tomographic images obtained at substantially the same position at different positions. The motion contrast front image is also referred to as an OCTA front image (OCTA En-Face image) relating to OCTA angiography (OCTA) for measuring the movement of blood flow, and the motion contrast data is also referred to as OCTA data. The motion contrast data can be obtained, for example, as a decorrelation value, a variance value, or a maximum value divided by a minimum value (maximum value / minimum value) between two tomographic images or corresponding interference signals. , Can be determined by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to be scanned a plurality of times in the same region (same position) of the eye to be inspected. When controlling the scanning means so that the measurement light is scanned multiple times at substantially the same position, the time interval (time interval) between one scan (one B scan) and the next scan (next B scan). ) May be modified (determined). Thereby, for example, even if the blood flow velocity may differ depending on the state of the blood vessel, the blood vessel region can be visualized with high accuracy. At this time, for example, the time interval may be changed so as to be instructed by the examiner. Further, for example, any motion contrast image may be configured to be selectable from a plurality of motion contrast images corresponding to a plurality of preset time intervals according to an instruction from the examiner. Further, for example, the time interval at which the motion contrast data is acquired may be associated with the motion contrast data so that the motion contrast data can be stored in the storage unit 126. Further, for example, the display control unit 125 may display the time interval when the motion contrast data is acquired and the motion contrast image corresponding to the motion contrast data on the display unit 103. Further, for example, the time interval may be automatically determined, or at least one candidate for the time interval may be determined. At this time, for example, using a machine learning model, the time interval may be determined (output) from the motion contrast image. In such a machine learning model, for example, a plurality of motion contrast images corresponding to a plurality of time intervals are used as input data, and the difference from the plurality of time intervals to the time interval when a desired motion contrast image is acquired is correctly answered. Learning as data It can be obtained by learning the data.

また、En−Face画像は、例えば、2つの層境界の間の範囲のデータをXY方向に投影して生成した正面画像である。このとき、正面画像は、光干渉を用いて得たボリュームデータ(3次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影又は積算して生成される。En−Face画像は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲に対応するデータを2次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを2次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を2次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En−Face画像に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 The En-Face image is, for example, a front image generated by projecting data in the range between two layer boundaries in the XY directions. At this time, the front image is at least a part of the depth range of the volume data (three-dimensional tomographic image) obtained by using optical interference, and is the data corresponding to the depth range determined based on the two reference planes. Is projected or integrated on a two-dimensional plane. The En-Face image is a frontal image generated by projecting the data corresponding to the depth range determined based on the detected retinal layer among the volume data onto a two-dimensional plane. As a method of projecting data corresponding to a depth range determined based on two reference planes onto a two-dimensional plane, for example, a representative value of data within the depth range is set as a pixel value on the two-dimensional plane. Techniques can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within a range in the depth direction of a region surrounded by two reference planes. Further, the depth range related to the En-Face image is, for example, a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries relating to the detected retinal layer. May be good. Further, the depth range related to the En-Face image may be, for example, a range changed (offset) according to the instruction of the operator from the range between the two layer boundaries regarding the detected retinal layer. good.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、上述した様々な実施形態及び変形例に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。なお、上述の各実施形態や変形例に係る構成を、これら撮影装置に適用することができる。この場合、上述の予測すべき被検眼の動きに対応する被検体の動きとしては、例えば、顔や体の動き、心臓の動き(心拍)等であってよい。 The photographing device is a device for photographing an image used for diagnosis. The photographing device detects, for example, a device that obtains an image of a predetermined part by irradiating a predetermined part of the subject with radiation such as light or X-rays, electromagnetic waves, ultrasonic waves, or the like, or radiation emitted from a subject. This includes a device for obtaining an image of a predetermined part. More specifically, the imaging devices according to the various embodiments and modifications described above include at least an X-ray imaging device, a CT device, an MRI device, a PET device, a SPECT device, an SLO device, an OCT device, an OCTA device, and a fundus. Includes cameras, endoscopes, etc. It should be noted that the configuration according to each of the above-described embodiments and modifications can be applied to these imaging devices. In this case, the movement of the subject corresponding to the above-mentioned movement of the eye to be predicted may be, for example, the movement of the face or body, the movement of the heart (heartbeat), or the like.

なお、OCT装置としては、タイムドメインOCT(TD−OCT)装置やフーリエドメインOCT(FD−OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD−OCT)装置や波長掃引型OCT(SS−OCT)装置を含んでよい。また、OCT装置は、ライン光を用いたLine−OCT装置(あるいはSS−Line−OCT装置)を含んでよい。また、OCT装置は、エリア光を用いたFull Field−OCT装置(あるいはSS−Full Field−OCT装置)を含んでよい。また、OCT装置は、Doppler−OCT装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS−SLO)装置や偏光OCT(PS−OCT)装置等を含んでよい。また、SLO装置やOCT装置として、病理顕微鏡SLO装置や病理顕微鏡OCT装置等を含んでよい。また、SLO装置やOCT装置として、ハンドヘルド型のSLO装置やハンドヘルド型のOCT装置等を含んでよい。また、SLO装置やOCT装置として、カテーテルSLO装置やカテーテルOCT装置等を含んでよい。また、SLO装置やOCT装置として、ヘッドマウント型のSLO装置やヘッドマウント型のOCT装置等を含んでよい。また、SLO装置やOCT装置として、双眼鏡型のSLO装置や双眼鏡型のOCT装置等を含んでよい。また、SLO装置やOCT装置は、光学変倍可能な構成によって、撮影画角を変更可能なものであってもよい。また、SLO装置は、RGBの各光源を用いて、1つの受光素子で時分割に受光する構成又は複数の受光素子で同時に受光する構成によって、カラー画像や蛍光画像を取得可能なものであってもよい。 The OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Further, the Fourier domain OCT apparatus may include a spectral domain OCT (SD-OCT) apparatus and a wavelength sweep type OCT (SS-OCT) apparatus. Further, the OCT apparatus may include a Line-OCT apparatus (or SS-Line-OCT apparatus) using line light. Further, the OCT apparatus may include a Full Field-OCT apparatus (or SS-Full Field-OCT apparatus) using area light. Further, the OCT device may include a Doppler-OCT device. Further, the SLO device and the OCT device may include a wave surface compensating SLO (AO-SLO) device using a wave surface compensating optical system, a wave surface compensating OCT (AO-OCT) device, and the like. Further, the SLO device and the OCT device may include a polarized SLO (PS-SLO) device, a polarized OCT (PS-OCT) device, and the like for visualizing information on polarization phase difference and polarization elimination. Further, the SLO apparatus and the OCT apparatus may include a pathological microscope SLO apparatus, a pathological microscope OCT apparatus, and the like. Further, the SLO device and the OCT device may include a handheld type SLO device, a handheld type OCT device, and the like. Further, the SLO device and the OCT device may include a catheter SLO device, a catheter OCT device and the like. Further, the SLO device and the OCT device may include a head-mounted SLO device, a head-mounted OCT device, and the like. Further, the SLO device and the OCT device may include a binocular type SLO device, a binocular type OCT device, and the like. Further, the SLO device and the OCT device may be capable of changing the shooting angle of view by a configuration capable of optical scaling. Further, the SLO device can acquire a color image or a fluorescent image by using each of the RGB light sources and having a configuration in which one light receiving element receives light in a time-division manner or a configuration in which a plurality of light receiving elements simultaneously receive light. May be good.

また、上述の実施形態及び変形例では、制御部102はOCT装置100の一部として構成されているが、制御部102はOCT装置100と別体として構成されてもよい。この場合、制御部102は、OCT装置100の撮影装置101等とインターネット等を介して接続されてもよい。また、OCT装置100の構成は、上記の構成に限られず、OCT装置に含まれる構成の一部を、例えばSLO撮影部等をOCT装置と別体の構成としてもよい。 Further, in the above-described embodiment and modification, the control unit 102 is configured as a part of the OCT device 100, but the control unit 102 may be configured as a separate body from the OCT device 100. In this case, the control unit 102 may be connected to the photographing device 101 or the like of the OCT device 100 via the Internet or the like. Further, the configuration of the OCT apparatus 100 is not limited to the above configuration, and a part of the configuration included in the OCT apparatus may be a configuration in which, for example, an SLO photographing unit or the like is separate from the OCT apparatus.

なお、上述の実施形態3に係る推定処理用の意学習済モデルでは、時系列のデータを用いて学習を行っているため、入力される連続する時系列のデータ値間の傾きを特徴量の一部として抽出し、推定処理に用いているものと考えられる。音声認識用や文字認識用、ジェスチャー認識用等の学習済モデルでも同様に、入力される連続する時系列のデータ値間の傾きを特徴量の一部として抽出し、推定処理に用いているものと考えられる。このような学習済モデルは、具体的な数値の時間的な変化による影響を推定処理に用いることで、精度のよい推定を行うことができると期待される。また、上述の実施形態及び変形例に係る、推定処理用、高画質化用、セグメンテーション処理用、画像解析用、診断結果生成用の学習済モデルでも、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。 In the learned model for estimation processing according to the third embodiment described above, since learning is performed using time-series data, the slope between the input continuous time-series data values is the feature amount. It is considered that it is extracted as a part and used for the estimation process. Similarly, in trained models for voice recognition, character recognition, gesture recognition, etc., the gradient between input continuous time-series data values is extracted as part of the feature quantity and used for estimation processing. it is conceivable that. It is expected that such a trained model can perform accurate estimation by using the influence of a specific numerical value over time in the estimation process. Further, even in the trained models for estimation processing, high image quality, segmentation processing, image analysis, and diagnosis result generation according to the above-described embodiments and modifications, the magnitude and brightness of the tomographic image are different. It can be considered that the order, inclination, position, distribution, continuity, etc. of the dark part are extracted as a part of the feature amount and used for the estimation process.

(その他の実施例)
本発明は、上述の実施形態及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
(Other examples)
The present invention is also a process in which a program that realizes one or more functions of the above-described embodiments and modifications is supplied to a system or device via a network or storage medium, and a computer of the system or device reads and executes the program. It is feasible. A computer may have one or more processors or circuits and may include multiple separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 The processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuit may include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).

以上、実施形態及び変形例を参照して本発明について説明したが、本発明は上記実施形態及び変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。 Although the present invention has been described above with reference to the embodiments and modifications, the present invention is not limited to the above embodiments and modifications. The present invention also includes inventions modified to the extent not contrary to the gist of the present invention, and inventions equivalent to the present invention. In addition, the above-described embodiments and modifications can be appropriately combined as long as they do not contradict the gist of the present invention.

102:制御部(画像処理装置)、122:画像処理部(生成部)、123:推定部(出力部) 102: Control unit (image processing device), 122: Image processing unit (generation unit), 123: Estimating unit (output unit)

Claims (28)

被検体の医用画像を画像処理して被検体の対称性を示す対称性マップを生成する生成部と、
対称性マップを用いた学習により得た学習済モデルを用いて、前記生成した対称性マップから推定した疾患に関する推定結果を出力する出力部と、
を備える、画像処理装置。
A generator that processes the medical image of the subject to generate a symmetry map showing the symmetry of the subject.
Using the trained model obtained by learning using the symmetry map, an output unit that outputs the estimation result regarding the disease estimated from the generated symmetry map, and the output unit.
An image processing device.
前記医用画像は、3次元の断層画像、眼底写真、前眼部写真、SLO画像、OCTA画像、En−Face画像、及び被検体の医用画像を解析して得た情報を示す解析マップの少なくとも1つを含む、請求項1に記載の画像処理装置。 The medical image is at least one of an analysis map showing information obtained by analyzing a three-dimensional tomographic image, a fundus photograph, an anterior segment photograph, an SLO image, an OCTA image, an En-Face image, and a medical image of a subject. The image processing apparatus according to claim 1, comprising one. 前記生成部が生成する対称性マップは、眼底写真、前眼部写真、SLO画像、OCTA画像、En−Face画像、及び被検体の医用画像を解析して得た情報を示す解析マップのいずれかの上下方向及び左右方向の少なくとも一方の対称性を評価した対称性マップである、請求項1又は2に記載の画像処理装置。 The symmetry map generated by the generation unit is any one of a fundus photograph, an anterior segment photograph, an SLO image, an OCTA image, an En-Face image, and an analysis map showing information obtained by analyzing a medical image of a subject. The image processing apparatus according to claim 1 or 2, which is a symmetry map that evaluates the symmetry of at least one of the vertical direction and the horizontal direction. 前記出力部は、前記生成部が生成した対称性マップに加えて、視野計による計測結果、2次元の断層画像、3次元の断層画像、眼底写真、前眼部写真、SLO画像、En−Face画像、OCTA画像、被検体の医用画像を解析して得た情報を示す解析マップ、隅角情報、層厚のプロファイル又は特徴ベクトル、前記医用画像の特徴部を抽出した特徴マップ、及び患者データの少なくとも1つを用いて得た推定結果を出力する、請求項1乃至3のいずれか一項に記載の画像処理装置。 In addition to the symmetry map generated by the generation unit, the output unit is a measurement result by a perimeter, a two-dimensional tomographic image, a three-dimensional tomographic image, a fundus photograph, an anterior segment photograph, an SLO image, and an En-Face. Image, OCTA image, analysis map showing information obtained by analyzing the medical image of the subject, corner angle information, layer thickness profile or feature vector, feature map from which the feature part of the medical image is extracted, and patient data. The image processing apparatus according to any one of claims 1 to 3, which outputs an estimation result obtained by using at least one. 前記解析マップは、被検体の少なくとも一部の厚みを示す厚みマップ及び被検体の少なくとも一部の血管密度を示す血管密度マップの少なくとも一方を含む、請求項2乃至4のいずれか一項に記載の画像処理装置。 The analysis map according to any one of claims 2 to 4, wherein the analysis map includes at least one of a thickness map showing the thickness of at least a part of the subject and a blood vessel density map showing the blood vessel density of at least a part of the subject. Image processing equipment. 前記疾患は、緑内障、糖尿病性網膜症、及び加齢黄斑変性の少なくとも1つを含む、請求項1乃至5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the disease comprises at least one of glaucoma, diabetic retinopathy, and age-related macular degeneration. 前記生成部は、対称性マップを生成する前に前記医用画像の補正処理を行う、請求項1乃至6のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the generation unit performs correction processing of the medical image before generating a symmetry map. 前記補正処理は、平滑化処理、眼軸長に基づいた補正処理、基準となる層に基づいた層厚補正処理、幾何補正処理、エラー補正処理、エッジ強調処理、及びコントラスト調整処理の少なくとも1つを含む、請求項7に記載の画像処理装置。 The correction process is at least one of a smoothing process, a correction process based on the axial length, a layer thickness correction process based on a reference layer, a geometric correction process, an error correction process, an edge enhancement process, and a contrast adjustment process. 7. The image processing apparatus according to claim 7. 前記生成部は、前記医用画像から抽出した領域の画像を用いて対称性マップを生成する、請求項1乃至8のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the generation unit generates a symmetry map using an image of a region extracted from the medical image. 前記学習済モデルは疾患に関する確率を出力し、
前記出力部は、前記学習済モデルが出力した確率に基づいて推定された前記疾患についての推定結果を出力する、請求項9に記載の画像処理装置。
The trained model outputs the probability of the disease and
The image processing apparatus according to claim 9, wherein the output unit outputs an estimation result for the disease estimated based on the probability output by the trained model.
前記生成部は、診断対象とする疾患に応じて、画像処理する画像を選択する、請求項1乃至10のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the generation unit selects an image to be image-processed according to a disease to be diagnosed. 前記出力部は、複数段階の推定結果を出力する、請求項1乃至11のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 11, wherein the output unit outputs estimation results in a plurality of stages. 前記推定結果は、前記疾患の病期に関する推定結果を含む、請求項1乃至12のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 12, wherein the estimation result includes an estimation result regarding the stage of the disease. 前記学習済モデルは、複数の学習済モデルを含み、
前記出力部は、診断対象とする疾患に応じて前記複数の学習済モデルのうちから選択された学習済モデルを用いて推定された推定結果を出力する、請求項1乃至13のいずれか一項に記載の画像処理装置。
The trained model includes a plurality of trained models.
One of claims 1 to 13, wherein the output unit outputs an estimation result estimated using a trained model selected from the plurality of trained models according to the disease to be diagnosed. The image processing apparatus according to.
前記医用画像は、被検体を異なる時間に撮影して得た複数の医用画像を含む、請求項1乃至14のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 14, wherein the medical image includes a plurality of medical images obtained by photographing a subject at different times. 前記生成部は、前記複数の医用画像を画像処理して得た複数の時間の対称性マップ間の相関関係を示す相関マップを生成し、
前記出力部は、前記相関マップから疾患の進行を推定した推定結果を出力する、請求項15に記載の画像処理装置。
The generation unit generates a correlation map showing the correlation between a plurality of time symmetry maps obtained by image processing the plurality of medical images.
The image processing apparatus according to claim 15, wherein the output unit outputs an estimation result of estimating the progression of the disease from the correlation map.
前記生成部は、複数の時間の対称性マップを比較することで、前記相関マップを生成する、請求項16に記載の画像処理装置。 The image processing apparatus according to claim 16, wherein the generation unit generates the correlation map by comparing a plurality of time symmetry maps. 前記出力部は、前記相関マップの時系列データから前記疾患の進行に関する推定を行う、請求項16又は17に記載の画像処理装置。 The image processing apparatus according to claim 16 or 17, wherein the output unit estimates the progression of the disease from the time-series data of the correlation map. 前記学習済モデルは、単一時間の対称性マップから前記疾患を推定するための学習済モデルと、対称性マップの時系列データから生成された相関マップに基づいて前記疾患の進行を推定するための学習済モデルとを含む、請求項16乃至18のいずれか一項に記載の画像処理装置。 The trained model estimates the progression of the disease based on a trained model for estimating the disease from a single-time symmetry map and a correlation map generated from time-series data of the symmetry map. The image processing apparatus according to any one of claims 16 to 18, including the trained model of the above. 前記出力部は、前記学習済モデルが注目した領域をマップ化した注意マップを出力する、請求項1乃至19のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 19, wherein the output unit outputs a caution map in which the area of interest of the trained model is mapped. 被検体の医用画像を取得する取得部と、
視野計による計測結果及び医用画像を用いた学習により得た学習済モデルを用いて、被検体の視野計による計測結果及び前記取得した医用画像から推定した疾患に関する推定結果を出力する出力部と、
を備える、画像処理装置。
The acquisition unit that acquires the medical image of the subject,
An output unit that outputs the measurement result of the subject's perimeter and the estimation result of the disease estimated from the acquired medical image using the learned model obtained by the measurement result by the perimeter and the learning using the medical image.
An image processing device.
被検体の医用画像を解析して得た解析結果であって、互いに関連する位置の解析結果を比較した比較マップを生成する生成部と、
比較マップを用いた学習により得た学習済モデルを用いて、前記生成した比較マップから推定した疾患に関する推定結果を出力する出力部と、
を備える、画像処理装置。
An analysis result obtained by analyzing a medical image of a subject, and a generation unit that generates a comparison map comparing the analysis results of positions related to each other.
Using the trained model obtained by learning using the comparison map, an output unit that outputs the estimation result regarding the disease estimated from the generated comparison map, and the output unit.
An image processing device.
被検体を異なる時間に撮影して得た複数の医用画像を画像処理して画像間の相関関係を示す相関マップを生成する生成部と、
相関マップを用いた学習により得た学習済モデルを用いて、前記生成した相関マップから推定した疾患に関する推定結果を出力する出力部と、
を備える、画像処理装置。
A generator that generates a correlation map showing the correlation between images by image processing a plurality of medical images obtained by photographing a subject at different times.
Using the trained model obtained by learning using the correlation map, an output unit that outputs the estimation result regarding the disease estimated from the generated correlation map, and the output unit.
An image processing device.
被検体の医用画像を画像処理して被検体の対称性を示す対称性マップを生成することと、
対称性マップを用いた学習により得た学習済モデルを用いて、前記生成した対称性マップから推定した疾患に関する推定結果を出力することと、
を含む、画像処理方法。
To generate a symmetry map showing the symmetry of the subject by image processing the medical image of the subject,
Using the trained model obtained by learning using the symmetry map, the estimation result regarding the disease estimated from the generated symmetry map can be output.
Image processing methods, including.
被検体の医用画像を取得することと、
視野計による計測結果及び医用画像を用いた学習により得た学習済モデルを用いて、被検体の視野計による計測結果及び前記取得した医用画像から推定した疾患に関する推定結果を出力することと、
を含む、画像処理方法。
Obtaining a medical image of the subject and
Using the measurement result by the perimeter and the learned model obtained by learning using the medical image, the measurement result by the perimeter of the subject and the estimation result regarding the disease estimated from the acquired medical image can be output.
Image processing methods, including.
被検体の医用画像を解析して得た解析結果であって、互いに関連する位置の解析結果を比較した比較マップを生成することと、
比較マップを用いた学習により得た学習済モデルを用いて、前記生成した比較マップから推定した疾患に関する推定結果を出力することと、
を含む、画像処理方法。
It is an analysis result obtained by analyzing the medical image of the subject, and it is possible to generate a comparison map comparing the analysis results of the positions related to each other.
Using the trained model obtained by learning using the comparison map, the estimation result regarding the disease estimated from the generated comparison map can be output.
Image processing methods, including.
被検体を異なる時間に撮影して得た複数の医用画像を画像処理して画像間の相関関係を示す相関マップを生成することと、
相関マップを用いた学習により得た学習済モデルを用いて、前記生成した相関マップから推定した疾患に関する推定結果を出力することと、
を含む、画像処理方法。
Multiple medical images obtained by photographing a subject at different times are image-processed to generate a correlation map showing the correlation between the images.
Using the trained model obtained by learning using the correlation map, the estimation result regarding the disease estimated from the generated correlation map can be output.
Image processing methods, including.
コンピュータによって実行されると、該コンピュータに請求項24乃至27のいずれか一項に記載の画像処理方法の各工程を実行させるプログラム。 A program that, when executed by a computer, causes the computer to execute each step of the image processing method according to any one of claims 24 to 27.
JP2020089180A 2020-05-21 2020-05-21 Image processing device, image processing method, and program Active JP7413147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020089180A JP7413147B2 (en) 2020-05-21 2020-05-21 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020089180A JP7413147B2 (en) 2020-05-21 2020-05-21 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021184169A true JP2021184169A (en) 2021-12-02
JP7413147B2 JP7413147B2 (en) 2024-01-15

Family

ID=78767402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020089180A Active JP7413147B2 (en) 2020-05-21 2020-05-21 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7413147B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115311504A (en) * 2022-10-10 2022-11-08 之江实验室 Weak supervision positioning method and device based on attention repositioning
JP7347202B2 (en) 2019-02-19 2023-09-20 富士通株式会社 Device and method for training a classification model and classification device using the classification model
WO2023188890A1 (en) * 2022-03-30 2023-10-05 株式会社神戸製鋼所 Abnormality determination method, processing method during abnormality, information processing device, welding system, and program
WO2023210497A1 (en) * 2022-04-26 2023-11-02 ソニーグループ株式会社 Diagnosis support device, diagnosis support method, and program
JP7383245B1 (en) 2022-07-13 2023-11-20 株式会社 Sai Depression risk determination system using fundus images, machine learning model generation device, depression risk determination device, and depression risk determination method
WO2024014461A1 (en) * 2022-07-14 2024-01-18 学校法人東海大学 Glaucoma screening method, ophthalmic device, program, and recording medium
JP7441391B1 (en) 2023-08-21 2024-03-01 株式会社医療情報技術研究所 Electronic medical record system using large-scale language model
WO2024095319A1 (en) * 2022-10-31 2024-05-10 日本電気株式会社 Information processing apparatus, information processing method, and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018094042A (en) * 2016-12-13 2018-06-21 キヤノンマーケティングジャパン株式会社 Medical image diagnosis support device, and control method and program thereof
JP2018121886A (en) * 2017-01-31 2018-08-09 株式会社ニデック Image processing device and image processing program
JP2018175227A (en) * 2017-04-10 2018-11-15 富士フイルム株式会社 Medical image display device, method and program
JP2019118814A (en) * 2017-12-28 2019-07-22 株式会社トプコン Imaging system with machine learning guide
JP2020043927A (en) * 2018-09-14 2020-03-26 富士フイルム株式会社 Medical image processing apparatus, method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110190657A1 (en) 2009-08-10 2011-08-04 Carl Zeiss Meditec, Inc. Glaucoma combinatorial analysis
EP2661734B1 (en) 2011-01-05 2019-06-05 Koninklijke Philips N.V. Automatic quantification of asymmetry
JP5936254B2 (en) 2012-02-29 2016-06-22 国立大学法人京都大学 Fundus observation apparatus and fundus image analysis apparatus
CA2989538A1 (en) 2015-04-20 2016-10-27 Sung Chun Kim Method for analyzing biomolecule by using external biomolecule as standard material, and kit therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018094042A (en) * 2016-12-13 2018-06-21 キヤノンマーケティングジャパン株式会社 Medical image diagnosis support device, and control method and program thereof
JP2018121886A (en) * 2017-01-31 2018-08-09 株式会社ニデック Image processing device and image processing program
JP2018175227A (en) * 2017-04-10 2018-11-15 富士フイルム株式会社 Medical image display device, method and program
JP2019118814A (en) * 2017-12-28 2019-07-22 株式会社トプコン Imaging system with machine learning guide
JP2020043927A (en) * 2018-09-14 2020-03-26 富士フイルム株式会社 Medical image processing apparatus, method and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MIJUNG KIM ET AL.: "Computer-Aided Diagnosis and Localization of Glaucoma Using Deep Learning", [ONLINE], JPN7023001622, 24 January 2019 (2019-01-24), ISSN: 0005047899 *
滝田 清 KIYOSHI TAKITA: "OCT画像から得られる網膜の層情報を用いた緑内障診断補助 Diagnostic Aid of Glaucoma Using Thickness", SSII2012 第18回画像センシングシンポジウム 講演論文集 [CD−ROM] THE 18TH SYMPOSI, JPN6023016798, 18 June 2012 (2012-06-18), JP, ISSN: 0005047898 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7347202B2 (en) 2019-02-19 2023-09-20 富士通株式会社 Device and method for training a classification model and classification device using the classification model
WO2023188890A1 (en) * 2022-03-30 2023-10-05 株式会社神戸製鋼所 Abnormality determination method, processing method during abnormality, information processing device, welding system, and program
WO2023210497A1 (en) * 2022-04-26 2023-11-02 ソニーグループ株式会社 Diagnosis support device, diagnosis support method, and program
JP7383245B1 (en) 2022-07-13 2023-11-20 株式会社 Sai Depression risk determination system using fundus images, machine learning model generation device, depression risk determination device, and depression risk determination method
WO2024014175A1 (en) * 2022-07-13 2024-01-18 株式会社 Sai System for determining depression risk using fundus image, machine learning model generation device, depression risk determination device, and depression risk determination method
WO2024014461A1 (en) * 2022-07-14 2024-01-18 学校法人東海大学 Glaucoma screening method, ophthalmic device, program, and recording medium
CN115311504A (en) * 2022-10-10 2022-11-08 之江实验室 Weak supervision positioning method and device based on attention repositioning
CN115311504B (en) * 2022-10-10 2023-01-31 之江实验室 Weak supervision positioning method and device based on attention relocation
WO2024095319A1 (en) * 2022-10-31 2024-05-10 日本電気株式会社 Information processing apparatus, information processing method, and recording medium
JP7441391B1 (en) 2023-08-21 2024-03-01 株式会社医療情報技術研究所 Electronic medical record system using large-scale language model

Also Published As

Publication number Publication date
JP7413147B2 (en) 2024-01-15

Similar Documents

Publication Publication Date Title
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
WO2021039339A1 (en) Information processing device, information processing method, information processing system, and program
JP7250653B2 (en) Image processing device, image processing method and program
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP7413147B2 (en) Image processing device, image processing method, and program
JP7341874B2 (en) Image processing device, image processing method, and program
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
JP2021039748A (en) Information processor, information processing method, information processing system, and program
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
WO2020183791A1 (en) Image processing device and image processing method
JP7478216B2 (en) Ophthalmic device, method for controlling ophthalmic device, and program
WO2020202680A1 (en) Information processing device and information processing method
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP2022155690A (en) Image processing device, image processing method, and program
JP7362403B2 (en) Image processing device and image processing method
WO2020138128A1 (en) Image processing device, image processing method, and program
JP7194136B2 (en) OPHTHALMOLOGICAL APPARATUS, OPHTHALMOLOGICAL APPARATUS CONTROL METHOD, AND PROGRAM
JP2021164535A (en) Image processing device, image processing method and program
JP7344847B2 (en) Image processing device, image processing method, and program
JP7406901B2 (en) Information processing device and information processing method
JP2021119973A (en) Photographing device, photographing method and program
JP2023010308A (en) Image processing device and image processing method
JP2022121202A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220613

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7413147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151