JP2020058615A - Image processing device, learned model, image processing method, and program - Google Patents

Image processing device, learned model, image processing method, and program Download PDF

Info

Publication number
JP2020058615A
JP2020058615A JP2018191936A JP2018191936A JP2020058615A JP 2020058615 A JP2020058615 A JP 2020058615A JP 2018191936 A JP2018191936 A JP 2018191936A JP 2018191936 A JP2018191936 A JP 2018191936A JP 2020058615 A JP2020058615 A JP 2020058615A
Authority
JP
Japan
Prior art keywords
time
eye
data
tomographic image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018191936A
Other languages
Japanese (ja)
Inventor
好彦 岩瀬
Yoshihiko Iwase
好彦 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018191936A priority Critical patent/JP2020058615A/en
Publication of JP2020058615A publication Critical patent/JP2020058615A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide information more appropriate for assisting eye diagnostic by an examiner than that in a prior art.SOLUTION: An image processing device includes acquisition means which acquires data related to tomography containing a plurality of types of analysis values of an optometry object eye and being related to first tomography of the optometry object eye associated to a first time point, and data of second tomography of the optometry object eye associated to a second time point after the first time point; and generation means which generates, from the required data related to the first tomography and the required data related to the second tomography, at least one of the plurality of types of analysis values of the optometry object eye at a third time point after the second time point using a learned model.SELECTED DRAWING: Figure 7

Description

本発明は、画像処理装置、学習済モデル、画像処理方法およびプログラムに関する。   The present invention relates to an image processing device, a learned model, an image processing method, and a program.

光干渉断層計(OCT;Optical Coherence Tomography)を用いた装置(OCT装置)等の眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。   A tomographic image capturing apparatus of an eye such as an apparatus (OCT apparatus) using an optical coherence tomography (OCT: Optical Coherence Tomography) is capable of three-dimensionally observing a state inside a retinal layer. This tomographic imaging apparatus has been attracting attention in recent years because it is useful for more accurate diagnosis of diseases.

OCTの形態として、例えば、広帯域な光源とマイケルソン干渉計を組み合わせたTD−OCT(Time domain OCT)がある。これは、参照アームの遅延を走査することで、信号アームの後方散乱光との干渉光を計測し、深さ方向の情報を得るように構成されている。しかし、このようなTD−OCTでは高速な画像取得は難しい。   As a form of OCT, for example, there is TD-OCT (Time domain OCT) in which a broadband light source and a Michelson interferometer are combined. This is configured to scan the delay of the reference arm, measure the interference light with the backscattered light of the signal arm, and obtain the information in the depth direction. However, high-speed image acquisition is difficult with such TD-OCT.

これに対し、より高速に画像を取得する方法として、広帯域光源を用い、分光器でインターフェログラムを取得する手法によるSD−OCT(Spectral domain OCT)が知られている。また、光源として、高速波長掃引光源を用い、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS−OCT(Swept Source OCT)が知られている。   On the other hand, as a method for acquiring an image at a higher speed, SD-OCT (Spectral domain OCT) is known which uses a broadband light source and acquires an interferogram by a spectroscope. In addition, SS-OCT (Swept Source OCT) is known, which uses a high-speed wavelength swept light source as a light source and measures spectral interference with a single-channel photodetector.

OCTで撮影された断層画像を用い、神経線維層の厚みを計測することで、緑内障等の疾病の進行度や治療後の回復具合を定量的に診断することができる。眼底の断層画像より得られた膜厚等の解析値の時系列グラフを作成する眼科解析装置が、特許文献1に開示されている。この眼科解析装置では、時系列グラフから得た回帰直線から将来的な解析値を予測している。   By measuring the thickness of the nerve fiber layer using a tomographic image taken by OCT, it is possible to quantitatively diagnose the degree of progress of diseases such as glaucoma and the degree of recovery after treatment. Patent Literature 1 discloses an ophthalmic analysis apparatus that creates a time-series graph of analysis values such as film thickness obtained from a tomographic image of the fundus. In this ophthalmological analysis device, future analysis values are predicted from the regression line obtained from the time series graph.

特開2017−170193号公報JP, 2017-170193, A

しかしながら、眼に生じる病変や異常の態様によっては、眼には単一の特徴ではなく複合的な特徴が表れることがあり、特定の解析値からの予測では十分な診断補助を果たし得ない可能性がある。   However, depending on the type of lesion or abnormality that occurs in the eye, the eye may show multiple features rather than a single feature, and prediction based on specific analysis values may not be sufficient for diagnostic assistance. There is.

本発明の目的の一つは、上記課題に鑑みてなされたものであり、検者による眼の診断を補助する際に、従来よりも適した情報を提供する。   One of the objects of the present invention has been made in view of the above problems, and provides information more suitable than before when assisting an eye diagnosis by an examiner.

上記の目的を達成するための、本発明の一態様による画像処理装置は、
被検眼の複数種類の解析値を含む断層に関するデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する取得手段と、
学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する生成手段と、を備えることを特徴とする。
In order to achieve the above object, an image processing device according to an aspect of the present invention is
Data relating to a slice including multiple types of analysis values of the eye to be inspected, data relating to the first slice of the eye to be examined associated with a first time, and a second time after the first time. Data relating to the second cross-section of the associated eye to be inspected, and acquisition means,
Using a learned model, from the acquired data concerning the first tom and the acquired data concerning the second tom, a plurality of types of the eye to be examined at a third time after the second time. Generating means for generating at least one of the analysis values of.

本発明の一つによれば、検者による眼の診断を補助する際に、従来よりも適した情報を提供することができる。   According to one aspect of the present invention, it is possible to provide more suitable information than before when assisting the eye diagnosis by the examiner.

実施例1に係る画像処理システムの概略的な構成の一例を示す。1 shows an example of a schematic configuration of an image processing system according to a first embodiment. 眼部の構造と断層画像と眼底画像を説明するための図である。It is a figure for explaining the structure of an eye part, a tomographic image, and a fundus image. 実施例1に係る一連の処理を示すフローチャートである。5 is a flowchart showing a series of processes according to the first embodiment. 学習データの例を説明するための図である。It is a figure for explaining an example of learning data. 機械学習モデルの例を説明するための図である。It is a figure for explaining an example of a machine learning model. 機械学習モデルの例を説明するための図である。It is a figure for explaining an example of a machine learning model. 実施例1に係る処理結果の表示画面を説明するための図である。FIG. 6 is a diagram for explaining a display screen of a processing result according to the first embodiment. 実施例2に係る画像処理システムの概略的な構成の一例を示す。1 shows an example of a schematic configuration of an image processing system according to a second embodiment. 実施例3に係る画像処理システムの概略的な構成の一例を示す。9 shows an example of a schematic configuration of an image processing system according to a third embodiment. 実施例3に係る処理結果の表示画面を説明するための図である。FIG. 11 is a diagram for explaining a display screen of processing results according to the third embodiment.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、および構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。   Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, the dimensions, materials, shapes, relative positions of constituent elements, and the like described in the following embodiments are arbitrary, and can be changed according to the configuration of the apparatus to which the present invention is applied or various conditions. Also, in the drawings, the same reference numbers are used in the drawings to denote the same or functionally similar elements.

(実施例1)
以下、図1乃至7を参照して、本発明の実施例1に係る、被検眼の診断補助となる情報を提示する画像処理システムについて説明する。本実施例では、機械学習モデルに関する学習済モデルを用いて、対象となる被検眼の将来的な解析値を生成する。具体的には、被検眼の断層画像から得られた複数種類の解析値を用いた学習により得た学習済モデルを用いて、将来の解析値を予測し、その結果を提示する。
(Example 1)
Hereinafter, with reference to FIGS. 1 to 7, an image processing system according to a first embodiment of the present invention that presents information that will be diagnostic assistance for an eye to be inspected will be described. In the present embodiment, a future analysis value of the target eye to be inspected is generated using the learned model related to the machine learning model. Specifically, a future analysis value is predicted using a learned model obtained by learning using a plurality of types of analysis values obtained from a tomographic image of the eye to be examined, and the result is presented.

ここで、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な学習データを用いてトレーニングすることで得られた(学習を行った)モデルである。ただし、学習済モデルは事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできる。   Here, the machine learning model refers to a learning model based on a machine learning algorithm such as deep learning. Further, the learned model is a model obtained (trained) by preliminarily training a machine learning model by an arbitrary machine learning algorithm using appropriate learning data. However, although the learned model is obtained in advance by using appropriate learning data, it is not the case that further learning is not performed but additional learning can be performed.

図1は、本実施に係る画像処理装置300を備える画像処理システム1の概略的な構成の一例を示す。図1に示すように、画像処理システム1には、断層画像撮影装置の一例としてのOCT装置(以下OCT装置200)、画像処理装置300、眼底画像撮影装置400、外部記憶装置500、表示部600、および入力部700が設けられている。   FIG. 1 shows an example of a schematic configuration of an image processing system 1 including an image processing device 300 according to this embodiment. As shown in FIG. 1, the image processing system 1 includes an OCT apparatus (hereinafter referred to as OCT apparatus 200) as an example of a tomographic image capturing apparatus, an image processing apparatus 300, a fundus image capturing apparatus 400, an external storage device 500, and a display unit 600. , And an input unit 700 are provided.

OCT装置200は、被検眼の断層画像を撮影する装置として用いられる。OCT装置としては、任意の種類のものを用いることができ、例えばSD−OCTやSS−OCTを用いることができる。   The OCT apparatus 200 is used as an apparatus that captures a tomographic image of the subject's eye. Any type of OCT device can be used, for example, SD-OCT or SS-OCT can be used.

画像処理装置300は、インタフェースを介してOCT装置200、眼底画像撮影装置400、外部記憶装置500、表示部600、および入力部700と接続されており、これらを制御することができる。画像処理装置300は、OCT装置200、眼底画像撮影装置400、および外部記憶装置500から取得する各種信号に基づいて、被検眼の断層画像やEn−Face画像(正面画像)等の各種画像を生成することができる。また、画像処理装置300は、これら画像について画像処理を施すことができる。なお、画像処理装置300は、汎用のコンピュータによって構成されてもよいし、画像処理システム1専用のコンピュータによって構成されてもよい。   The image processing apparatus 300 is connected to the OCT apparatus 200, the fundus image capturing apparatus 400, the external storage device 500, the display unit 600, and the input unit 700 via an interface, and can control these. The image processing apparatus 300 generates various images such as a tomographic image of an eye to be examined and an En-Face image (front image) based on various signals acquired from the OCT apparatus 200, the fundus image capturing apparatus 400, and the external storage device 500. can do. Further, the image processing apparatus 300 can perform image processing on these images. The image processing apparatus 300 may be configured by a general-purpose computer or a computer dedicated to the image processing system 1.

眼底画像撮影装置400は、被検眼の眼底画像を撮影するための装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等を用いることができる。なお、OCT装置200と眼底画像撮影装置400の装置構成は、一体型でもよいし別体型でもよい。   The fundus image capturing device 400 is a device for capturing a fundus image of an eye to be inspected, and as the device, for example, a fundus camera, an SLO (Scanning Laser Ophthalmoscope), or the like can be used. The OCT device 200 and the fundus image capturing device 400 may be integrated or separated.

外部記憶装置500は、被検眼に関する情報(患者の氏名、年齢、性別等)と、撮影した各種画像データ、撮影パラメータ、画像解析パラメータ、およびユーザによって設定されたパラメータをそれぞれ関連付けて保持している。外部記憶装置500は、任意の記憶装置によって構成されてよく、例えば、光学ディスクやメモリ等の記憶媒体によって構成されてよい。   The external storage device 500 holds information relating to the eye to be inspected (name, age, sex, etc. of the patient), various image data captured, imaging parameters, image analysis parameters, and parameters set by the user in association with each other. . The external storage device 500 may be configured by any storage device, for example, a storage medium such as an optical disk or a memory.

表示部600は、任意のディスプレイによって構成され、画像処理装置300による制御に従い、被検眼に関する情報や各種画像を表示することができる。   The display unit 600 is configured by an arbitrary display and can display information regarding the eye to be inspected and various images under the control of the image processing device 300.

入力部700は、例えば、マウス、キーボード、又はタッチ操作画面などで構成される。ユーザは、入力部700を介して、画像処理装置300やOCT装置200、眼底画像撮影装置400への指示を画像処理装置300に入力することができる。なお、入力部700をタッチ操作画面とする場合には、入力部700を表示部600と一体として構成することができる。   The input unit 700 includes, for example, a mouse, a keyboard, a touch operation screen, or the like. The user can input an instruction to the image processing apparatus 300, the OCT apparatus 200, and the fundus image capturing apparatus 400 to the image processing apparatus 300 via the input unit 700. When the input unit 700 is a touch operation screen, the input unit 700 can be integrated with the display unit 600.

なお、これら構成要素は、図1では別体として示されているが、これら構成要素の一部又は全部を一体として構成してもよい。   Note that these constituent elements are shown as separate bodies in FIG. 1, but some or all of these constituent elements may be integrally configured.

次にOCT装置200について説明する。OCT装置200には、ガルバノミラー201、駆動制御部202、フォーカスレンズステージ203、内部固視灯204、コヒーレンスゲートステージ205、光源206、およびディテクタ207が設けられている。なお、OCT装置200は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置300からの指示により行われる断層画像の撮影について説明を行う。   Next, the OCT device 200 will be described. The OCT device 200 is provided with a galvanometer mirror 201, a drive control unit 202, a focus lens stage 203, an internal fixation lamp 204, a coherence gate stage 205, a light source 206, and a detector 207. Since the OCT apparatus 200 is a known apparatus, detailed description thereof will be omitted, and here, the imaging of a tomographic image performed according to an instruction from the image processing apparatus 300 will be described.

画像処理装置300から撮影の指示が伝えられると、光源206が光を出射する。光源206からの光は不図示の分割部を用いて測定光と参照光に分割される。OCT装置200では、測定光を被検眼に照射し、被検体からの戻り光と、参照光との干渉光を検出することで、被検眼の断層情報を含む干渉信号を生成することができる。   When a shooting instruction is transmitted from the image processing device 300, the light source 206 emits light. The light from the light source 206 is split into measurement light and reference light using a splitting unit (not shown). The OCT apparatus 200 can generate an interference signal including tomographic information of the eye to be inspected by irradiating the eye to be inspected with the measurement light and detecting the interference light between the return light from the subject and the reference light.

ガルバノミラー201は、測定光を被検眼の眼底において走査するために用いられ、ガルバノミラー201による測定光の走査範囲により、断層画像撮影時の眼底の撮影範囲を規定することができる。画像処理装置300は、ガルバノミラー201の駆動範囲および速度を制御することで、眼底における平面方向の撮影範囲および走査線数(平面方向の走査速度)を規定することができる。図1では、説明を簡略化するため、ガルバノミラー201を1つのユニットとして示したが、ガルバノミラー201は、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上における所望の範囲を測定光で走査できる。なお、測定光を走査するための走査部の構成はガルバノミラーに限られず、他の任意の偏向ミラーを用いることができる。また、走査部として、例えば、MEMSミラー等の1枚で二次元方向に測定光を走査することができる偏向ミラーを用いてもよい。   The galvanometer mirror 201 is used to scan the fundus of the subject's eye with the measurement light, and the scanning range of the measurement light by the galvanometer mirror 201 can define the imaging range of the fundus during tomographic imaging. By controlling the drive range and speed of the galvano mirror 201, the image processing apparatus 300 can define the imaging range in the plane direction and the number of scanning lines (scanning speed in the plane direction) at the fundus. In FIG. 1, the galvano mirror 201 is shown as one unit for the sake of simplification of description, but the galvano mirror 201 is actually composed of a mirror for X scanning and two mirrors for Y scanning, The desired range above can be scanned with the measuring light. The configuration of the scanning unit for scanning the measurement light is not limited to the galvanometer mirror, and any other deflection mirror can be used. Further, as the scanning unit, for example, a deflection mirror capable of scanning the measurement light in a two-dimensional direction with one sheet such as a MEMS mirror may be used.

フォーカスレンズステージ203には不図示のフォーカスレンズが設けられている。フォーカスレンズステージ203を移動させることで、フォーカスレンズを測定光の光軸に沿って移動させることができる。このため、フォーカスレンズによって、被検眼の前眼部を介し、眼底の網膜層に測定光をフォーカスすることができる。眼底を照射した測定光は各網膜層で反射・散乱して戻り光として、光路を戻る。   The focus lens stage 203 is provided with a focus lens (not shown). By moving the focus lens stage 203, the focus lens can be moved along the optical axis of the measurement light. Therefore, the focus lens can focus the measurement light on the retinal layer of the fundus through the anterior segment of the subject's eye. The measurement light emitted to the fundus of the eye is reflected and scattered by each retinal layer and returns to the optical path as return light.

コヒーレンスゲートステージ205は、被検眼の眼軸長の相違等に対応するため、参照光又は測定光の光路の長さを調整するために用いられる。本実施例では、コヒーレンスゲートステージ205は、ミラーが設けられたステージによって構成され、参照光の光路において光軸方向に移動することで参照光の光路長を測定光の光路長に対応させることができる。ここで、コヒーレンスゲートは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。コヒーレンスゲートステージ205は、画像処理装置300により制御されることができる。画像処理装置300は、コヒーレンスゲートステージ205によりコヒーレンスゲートの位置を制御することによって、被検眼の深さ方向の撮影範囲を制御することができ、網膜層側の撮影、又は網膜層より深部側の撮影等を制御することができる。   The coherence gate stage 205 is used to adjust the length of the optical path of the reference light or the measurement light in order to deal with the difference in the axial length of the eye to be inspected and the like. In this embodiment, the coherence gate stage 205 is composed of a stage provided with a mirror, and the optical path length of the reference light can be made to correspond to the optical path length of the measurement light by moving in the optical axis direction in the optical path of the reference light. it can. Here, the coherence gate represents a position where the optical distances of the measurement light and the reference light in OCT are equal. The coherence gate stage 205 can be controlled by the image processing device 300. The image processing apparatus 300 can control the imaging range in the depth direction of the eye to be inspected by controlling the position of the coherence gate by the coherence gate stage 205, and the imaging on the retina layer side or on the side deeper than the retina layer. It is possible to control shooting and the like.

ディテクタ207は、不図示の干渉部において生じた、被検眼からの測定光の戻り光と参照光との干渉光を検出し、干渉信号を生成する。画像処理装置300は、ディテクタ207からの干渉信号を取得し、干渉信号に対してフーリエ変換等を行うことで被検眼の断層画像を生成することができる。   The detector 207 detects the interference light between the return light of the measurement light from the eye to be inspected and the reference light, which is generated in the interference section (not shown), and generates an interference signal. The image processing apparatus 300 can generate a tomographic image of the eye to be inspected by acquiring the interference signal from the detector 207 and performing Fourier transform or the like on the interference signal.

内部固視灯204には、表示部241、およびレンズ242が設けられている。本実施例では、表示部241の一例として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、画像処理装置300の制御により撮影したい部位に応じて変更される。表示部241からの光は、レンズ242を介し、被検眼に導かれる。表示部241から出射される光は、例えば520nmの波長を有し、画像処理装置300による制御により所望のパターンで表示される。   The internal fixation lamp 204 is provided with a display unit 241 and a lens 242. In this embodiment, as an example of the display unit 241, a plurality of light emitting diodes (LD) arranged in a matrix is used. The lighting position of the light emitting diode is changed under the control of the image processing apparatus 300 in accordance with the part to be photographed. The light from the display unit 241 is guided to the subject's eye via the lens 242. The light emitted from the display unit 241 has a wavelength of 520 nm, for example, and is displayed in a desired pattern under the control of the image processing device 300.

駆動制御部202は、上述したガルバノミラー201、フォーカスレンズステージ203、内部固視灯204、コヒーレンスゲートステージ205、光源206、およびディテクタ207と接続される。駆動制御部202は、後述する指示部304を介した画像処理装置300による制御に基づいて、これら各構成要素の駆動を制御する。なお、この駆動制御部202を設けず、画像処理装置300が指示部304を用いて直接これら構成要素の駆動を制御することとしてもよい。   The drive control unit 202 is connected to the galvano mirror 201, the focus lens stage 203, the internal fixation lamp 204, the coherence gate stage 205, the light source 206, and the detector 207 described above. The drive control unit 202 controls the drive of each of these components based on the control by the image processing apparatus 300 via the instruction unit 304 described later. The drive control unit 202 may not be provided, and the image processing apparatus 300 may directly control the drive of these components using the instruction unit 304.

次に、図2(a)乃至(c)を参照して、画像処理システム1で取得する眼の構造と画像について説明する。図2(a)は眼球の模式図である。図2(a)には、角膜C、水晶体CL、硝子体V、黄斑部M(黄斑の中心部は中心窩を表す)、および視神経乳頭部Dが表されている。本実施例では、主に、硝子体V、黄斑部M、視神経乳頭部Dを含む網膜の後極部を撮影する場合について説明を行う。なお、以下では説明をしないが、OCT装置200は、角膜や水晶体等の前眼部を撮影することも可能である。   Next, with reference to FIGS. 2A to 2C, the structure and image of the eye acquired by the image processing system 1 will be described. FIG. 2A is a schematic diagram of an eyeball. In FIG. 2A, the cornea C, the lens CL, the vitreous body V, the macula M (the center of the macula represents the fovea), and the optic disc D are shown. In the present embodiment, a case will be mainly described in which the posterior pole of the retina including the vitreous body V, the macula M, and the optic papilla D is imaged. Although not described below, the OCT apparatus 200 can also image the anterior ocular segment such as the cornea and the crystalline lens.

図2(b)は、OCT装置200を用いて網膜を撮影することで取得した断層画像の一例を示す。図2(b)において、ASは一回のAスキャンにより取得される画像単位を示す。ここで、Aスキャンとは、OCT装置200の一連の動作により、被検眼の一点における深さ方向の断層情報を取得することをいう。また、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼の当該横断方向と深さ方向の二次元の断層情報を取得することをBスキャンという。Aスキャンによって取得されたAスキャン画像を複数集めることで、1つのBスキャン画像を構成することができる。以下、このBスキャン画像のことを、断層画像と呼ぶ。   FIG. 2B shows an example of a tomographic image acquired by imaging the retina using the OCT apparatus 200. In FIG. 2B, AS indicates an image unit acquired by one A scan. Here, the A scan refers to acquisition of tomographic information in the depth direction at one point of the eye to be inspected by a series of operations of the OCT apparatus 200. In addition, acquiring the two-dimensional tomographic information of the eye to be examined in the transverse direction and the depth direction by performing the A scan a plurality of times in an arbitrary transverse direction (main scanning direction) is referred to as a B scan. One B-scan image can be constructed by collecting a plurality of A-scan images acquired by the A-scan. Hereinafter, this B-scan image will be referred to as a tomographic image.

図2(b)には、硝子体V、黄斑部M、視神経乳頭部D、および篩状板Laが表されている。また、境界線L1は内境界膜(ILM)と神経線維層(NFL)との境界、境界線L2は神経線維層と神経節細胞層(GCL)との境界、境界線L3は視細胞内節外節接合部(ISOS)を表す。さらに、境界線L4は網膜色素上皮層(RPE)、境界線L5はブルッフ膜(BM)、境界線L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(深さ方向)をz軸とする。   In FIG. 2B, the vitreous body V, the macula M, the optic disc portion D, and the lamina cribrosa La are shown. The boundary line L1 is the boundary between the inner limiting membrane (ILM) and the nerve fiber layer (NFL), the boundary line L2 is the boundary between the nerve fiber layer and the ganglion cell layer (GCL), and the boundary line L3 is the photoreceptor inner node. Represents an outer segment joint (ISOS). Further, the boundary line L4 represents the retinal pigment epithelium layer (RPE), the boundary line L5 represents the Bruch's membrane (BM), and the boundary line L6 represents the choroid. In the tomographic image, the horizontal axis (main scanning direction of OCT) is the x axis, and the vertical axis (depth direction) is the z axis.

図2(c)は、眼底画像撮影装置400を用いて被検眼の眼底を撮影することで取得した眼底画像の一例を示す。図2(c)には、黄斑部M、視神経乳頭部Dが表されており、網膜の血管が太い曲線で表されている。眼底画像において、横軸(OCT装置の主走査方向)をx軸とし、縦軸(OCT装置の副走査方向)をy軸とする。   FIG. 2C shows an example of the fundus image acquired by photographing the fundus of the subject's eye using the fundus image photographing device 400. In FIG. 2C, the macula M and the optic papilla D are shown, and the blood vessels of the retina are shown by thick curves. In the fundus image, the horizontal axis (the main scanning direction of the OCT apparatus) is the x axis, and the vertical axis (the sub scanning direction of the OCT apparatus) is the y axis.

次に、画像処理装置300について説明する。画像処理装置300には、取得部301、記憶部302、処理部303、指示部304、および表示制御部305が設けられている。   Next, the image processing apparatus 300 will be described. The image processing apparatus 300 includes an acquisition unit 301, a storage unit 302, a processing unit 303, an instruction unit 304, and a display control unit 305.

取得部301は、OCT装置200から被検眼の干渉信号のデータを取得することができる。なお、取得部301が取得する干渉信号のデータは、アナログ信号でもデジタル信号でもよい。取得部301がアナログ信号を取得する場合には、画像処理装置300でアナログ信号をデジタル信号に変換することができる。また、取得部301は断層画像生成部311を有し、該断層画像生成部311で生成された断層データや断層画像およびEn−Face画像等の各種画像を取得することができる。ここで、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号に基づくデータ、およびこれに高速フーリエ変換(FFT:Fast Fourier Transform)や任意の信号処理を行ったデータを含むものをいう。   The acquisition unit 301 can acquire the data of the interference signal of the subject's eye from the OCT apparatus 200. The interference signal data acquired by the acquisition unit 301 may be an analog signal or a digital signal. When the acquisition unit 301 acquires an analog signal, the image processing apparatus 300 can convert the analog signal into a digital signal. Further, the acquisition unit 301 includes a tomographic image generation unit 311, and can acquire various images such as tomographic data and tomographic images generated by the tomographic image generation unit 311 and En-Face images. Here, the tomographic data is data including information about a tomographic image of a subject, data based on an interference signal by OCT, and data obtained by performing a fast Fourier transform (FFT: Fast Fourier Transform) or arbitrary signal processing on the data. Is meant to include.

断層画像生成部311は、取得部301で取得された干渉信号に対してフーリエ変換等の処理を施して断層データを生成し、断層データに基づいて断層画像を生成することができる。なお、断層画像の生成方法としては既知の任意の方法を採用してよく、詳細な説明は省略する。   The tomographic image generation unit 311 can generate tomographic data by performing processing such as Fourier transform on the interference signal acquired by the acquisition unit 301, and can generate a tomographic image based on the tomographic data. Any known method may be used as the method of generating the tomographic image, and detailed description thereof will be omitted.

さらに、取得部301は、画像処理すべき断層画像の撮影条件群(例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像の画素サイズ、画像フィルタ、および画像のデータ形式に関する情報など)を取得する。なお、撮影条件群については、例示したものに限られない。また、撮影条件群は、例示したもの全てを含む必要はなく、これらのうちの一部を含んでもよい。   Furthermore, the acquisition unit 301 includes a group of imaging conditions of a tomographic image to be image-processed (for example, imaging date / time, imaging site name, imaging region, imaging angle of view, imaging method, image resolution and gradation, image pixel size, image Get information such as filters and image data format). The shooting condition group is not limited to the illustrated one. Further, the shooting condition group does not need to include all of the exemplified ones, and may include some of them.

また、取得部301は、眼底画像撮影装置400で取得した眼底情報を含むデータ等を取得することができる。さらに、取得部301は、被検者識別番号等の被検眼を同定するための情報を入力部700等から取得することができる。取得部301は、取得した各種データや画像を記憶部302に記憶させることができる。   The acquisition unit 301 can also acquire data including the fundus information acquired by the fundus image capturing apparatus 400. Furthermore, the acquisition unit 301 can acquire information for identifying the eye to be inspected, such as the subject identification number, from the input unit 700 or the like. The acquisition unit 301 can store various acquired data and images in the storage unit 302.

次に、処理部303について説明する。処理部303には、画像処理部331、演算処理部322、撮影条件取得部333、および選択部334が設けられている。   Next, the processing unit 303 will be described. The processing unit 303 is provided with an image processing unit 331, a calculation processing unit 322, a shooting condition acquisition unit 333, and a selection unit 334.

画像処理部331は、取得部301で取得されたデータや記憶部302に記憶されたデータから、断層画像やEn−Face画像等を生成し、生成又は取得した画像から、後述する被検眼に関する複数種類の解析値を算出する。なお、複数種類の解析値は、予め算出されて記憶部302あるいは外部記憶装置500に記憶されていたものを取得してもよい。   The image processing unit 331 generates a tomographic image, an En-Face image, or the like from the data acquired by the acquisition unit 301 or the data stored in the storage unit 302, and from the generated or acquired images, a plurality of images related to the eye to be described later is generated. Calculate the analysis value for the type. Note that the plurality of types of analysis values may be obtained by being calculated in advance and stored in the storage unit 302 or the external storage device 500.

演算処理部332は、ディープラーニング等の任意の機械学習モデルに対して学習データを与えて学習させることで作成された学習済モデルを含む。具体的な学習の内容に関しては後述する。演算処理部332は、この学習済モデルを用いて、例えば、第一の時間に被検眼を撮影することで得た断層データと、第一の時間の後の第二の時間に被検眼を撮影することで得た断層データとから、第二の時間より後の第三の時間で撮影される断層画像を生成する。生成された断層画像に対しては、画像処理部331において解析処理が行われ、該断層画像における複数種類の解析値が算出される。なお、この複数種類の解析値の算出は演算処理部332で行ってもよく、算出ではなく学習済モデルを用いて2つの断層データから直接的に生成することとしてもよい。   The arithmetic processing unit 332 includes a learned model created by giving learning data to an arbitrary machine learning model such as deep learning and learning. Specific contents of learning will be described later. The arithmetic processing unit 332 uses the learned model to capture, for example, tomographic data obtained by imaging the eye to be inspected at the first time and the eye to be inspected at the second time after the first time. A tomographic image captured at a third time after the second time is generated from the tomographic data obtained by performing the above. The image processing unit 331 performs analysis processing on the generated tomographic image to calculate a plurality of types of analysis values in the tomographic image. The calculation of the plurality of types of analysis values may be performed by the arithmetic processing unit 332, and may be directly generated from the two tomographic data by using a learned model instead of the calculation.

撮影条件取得部333は、画像処理対象となる断層画像を撮影した際の撮影条件を、記憶部302から取得する。なお、取得対象となる撮影条件は、断層画像撮影時に取得部301で取得された上述した撮影条件であってもよく、以前に撮影された断層画像と関連付けられて記憶部302等に記憶された撮影条件であってもよい。   The imaging condition acquisition unit 333 acquires, from the storage unit 302, the imaging conditions when the tomographic image to be image-processed was captured. Note that the imaging conditions to be acquired may be the above-described imaging conditions acquired by the acquisition unit 301 at the time of imaging the tomographic image, and are stored in the storage unit 302 or the like in association with the tomographic image previously captured. It may be a shooting condition.

選択部334は、撮影条件取得部333が取得した撮影条件、あるいは前述した条件に加え例えば前眼部、後眼部等の撮影部位に応じて、適当な学習済モデルを選択する。学習済モデルは撮影条件に応じて予め複数生成されて記憶部302に記憶されており、演算処理部332は撮影条件に応じて選択部334が選択した学習済モデルを用いて断層画像やその解析値の生成を行う。   The selection unit 334 selects an appropriate learned model in accordance with the imaging conditions acquired by the imaging condition acquisition unit 333 or the imaging conditions such as the anterior eye segment and the posterior eye segment in addition to the above-described conditions. A plurality of learned models are generated in advance according to the imaging conditions and stored in the storage unit 302, and the arithmetic processing unit 332 uses the learned model selected by the selection unit 334 according to the imaging conditions to analyze a tomographic image and its analysis. Generate a value.

指示部304は、OCT装置200や眼底画像撮影装置400の各構成要素の駆動を制御することができる。記憶部302は、取得部301で取得された断層データ、および処理部303で生成・処理された断層画像等の各種画像やデータ等を記憶することができる。また、記憶部302は、プロセッサーによって実行されることで画像処理装置300の各構成要素の機能を果たすためのプログラム等を記憶することもできる。   The instruction unit 304 can control the driving of each component of the OCT apparatus 200 and the fundus image capturing apparatus 400. The storage unit 302 can store the tomographic data acquired by the acquisition unit 301 and various images and data such as the tomographic image generated and processed by the processing unit 303. The storage unit 302 can also store a program or the like for executing the functions of the respective constituent elements of the image processing apparatus 300 by being executed by the processor.

表示制御部305は、取得部301で取得された各種情報や処理部303で生成・処理された断層画像、およびユーザによって入力された情報等の表示部600における表示を制御することができる。   The display control unit 305 can control display on the display unit 600 of various information acquired by the acquisition unit 301, a tomographic image generated and processed by the processing unit 303, and information input by a user.

画像処理装置300の記憶部302以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部302は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。   Each component other than the storage unit 302 of the image processing apparatus 300 may be configured by a software module executed by a processor such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). In addition, each of the constituent elements may be configured by a circuit or the like that performs a specific function such as an ASIC. The storage unit 302 may be configured by any storage medium such as an optical disk or a memory, for example.

次に、図3を参照して本実施例に係る一連の処理について説明する。図3は、本実施例に係る一連の処理のフローチャートである。本実施例に係る一連の処理が開始される、処理はステップS301に移行する。   Next, a series of processes according to this embodiment will be described with reference to FIG. FIG. 3 is a flowchart of a series of processes according to this embodiment. When the series of processes according to this embodiment is started, the process proceeds to step S301.

ステップS301では、取得部301が、被検眼を同定する情報の一例である被検者識別番号を、入力部700等により画像処理装置300の外部から取得する。取得部301は、被検者識別番号に基づいて、外部記憶装置500が保持している当該被検眼に関する情報を取得して記憶部302に記憶する。   In step S301, the acquisition unit 301 acquires a subject identification number, which is an example of information for identifying the eye to be inspected, from the outside of the image processing apparatus 300 using the input unit 700 or the like. The acquisition unit 301 acquires information regarding the subject's eye held by the external storage device 500 based on the subject identification number and stores the information in the storage unit 302.

ステップS302では、駆動制御部202がOCT装置200を制御して被検眼を測定光で走査することで撮影を行い、取得部301がOCT装置200から被検眼の断層情報を含む干渉信号を取得する。測定光による走査は、ユーザによる走査開始の指示に応じて、指示部304がOCT装置200を制御し、光源206やガルバノミラー201等を動作させることで行われる。   In step S <b> 302, the drive control unit 202 controls the OCT apparatus 200 to scan the eye to be inspected with measurement light to perform imaging, and the acquisition unit 301 acquires an interference signal including tomographic information of the eye to be inspected from the OCT apparatus 200. . The scanning with the measurement light is performed by the instruction unit 304 controlling the OCT apparatus 200 and operating the light source 206, the galvanometer mirror 201, or the like in response to a user's instruction to start scanning.

ガルバノミラー201は、水平方向用のXスキャナと垂直方向用のYスキャナを含む。駆動制御部202は、これらのスキャナの向きをそれぞれ変更すると、装置座標系における水平方向(X)および垂直方向(Y)それぞれの方向に測定光を走査することができる。なお、駆動制御部202は、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向にも測定光を走査することができる。そのため、駆動制御部202は、眼底平面上の任意の方向に測定光を走査することができる。   The galvanometer mirror 201 includes an X scanner for horizontal direction and a Y scanner for vertical direction. The drive control unit 202 can scan the measurement light in each of the horizontal direction (X) and the vertical direction (Y) in the apparatus coordinate system by changing the orientations of these scanners. The drive control unit 202 can also scan the measurement light in a direction in which the horizontal direction and the vertical direction are combined by changing the directions of these scanners at the same time. Therefore, the drive control unit 202 can scan the measurement light in an arbitrary direction on the fundus plane.

駆動制御部202は、撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、駆動制御部202は、内部固視灯204で表示するパターンの位置、ガルバノミラー201によるスキャン範囲やスキャンパターン、コヒーレンスゲート位置、およびフォーカスレンズ位置を少なくとも設定する。   The drive control unit 202 adjusts various shooting parameters when shooting. Specifically, the drive control unit 202 sets at least the position of the pattern displayed by the internal fixation lamp 204, the scan range and scan pattern of the galvano mirror 201, the coherence gate position, and the focus lens position.

駆動制御部202は、表示部241の発光ダイオードを制御して、例えば被検眼の黄斑部中心や視神経乳頭に撮影を行うように内部固視灯204で表示するパターンの位置を制御する。また、駆動制御部202は、ガルバノミラー201による走査パターンとして、三次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャン等の走査パターンを設定する。なお、どの走査パターンを選択したとしても、一つのライン上で走査が複数回繰り返され、複数回の(繰り返し回数は2枚以上)撮影が行われる。本実施例においては、走査パターンはクロススキャンとし、同一箇所を150枚繰り返し撮影する。これら撮影パラメータの調整終了後、ユーザによる撮影開始の指示に応じて、指示部304がOCT装置200を制御して被検眼の撮影を行う。   The drive control unit 202 controls the light emitting diode of the display unit 241 to control the position of the pattern displayed by the internal fixation lamp 204 so that, for example, the center of the macula of the eye to be inspected or the optic disc is imaged. Further, the drive control unit 202 sets, as the scanning pattern by the galvano mirror 201, a scanning pattern such as raster scan, radial scan, or cross scan for photographing a three-dimensional volume. It should be noted that no matter which scanning pattern is selected, scanning is repeated a plurality of times on one line, and imaging is performed a plurality of times (the number of repetitions is 2 or more). In the present embodiment, the scanning pattern is a cross scan, and the same portion is repeatedly photographed 150 times. After the adjustment of these imaging parameters is completed, the instruction unit 304 controls the OCT apparatus 200 to perform imaging of the eye to be inspected in response to a user's instruction to start imaging.

なお、本開示においては説明を省略するが、OCT装置200は、加算平均用に同じ箇所を撮影するために、被検眼のトラッキングを行うことができる。これにより、OCT装置200は、固視微動の影響を少なくして被検眼のスキャンを行うことができる。   Although not described in this disclosure, the OCT apparatus 200 can perform tracking of the eye to be inspected in order to capture the same portion for arithmetic averaging. As a result, the OCT apparatus 200 can scan the eye to be inspected while reducing the influence of the involuntary eye movement.

ステップS303では、断層画像生成部311が、取得部301によって取得された干渉信号に基づいて断層画像の生成を行う。断層画像生成部311は、それぞれの干渉信号に対して一般的な再構成処理を行うことで、断層画像を生成することができる。   In step S303, the tomographic image generation unit 311 generates a tomographic image based on the interference signal acquired by the acquisition unit 301. The tomographic image generation unit 311 can generate a tomographic image by performing a general reconstruction process on each interference signal.

まず、断層画像生成部311は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は、取得した複数のAスキャン信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。その後、断層画像生成部311は、有限区間でフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。断層画像生成部311は、窓関数処理を行った干渉信号に対して高速フーリエ変換(FFT)処理を行うことによって断層データを生成する。   First, the tomographic image generation unit 311 removes fixed pattern noise from the interference signal. Fixed pattern noise removal is performed by averaging a plurality of acquired A scan signals to extract fixed pattern noise and subtracting this from the input interference signal. After that, the tomographic image generation unit 311 performs a desired window function process in order to optimize the depth resolution and the dynamic range that have a trade-off relationship when Fourier transform is performed in a finite section. The tomographic image generation unit 311 generates tomographic data by performing a fast Fourier transform (FFT) process on the interference signal subjected to the window function process.

断層画像生成部311は、生成した断層データに基づいて断層画像の各画素値を求め、断層画像を生成する。なお、断層画像の生成方法はこれに限られず、既知の任意の方法で行われてよい。   The tomographic image generation unit 311 obtains each pixel value of the tomographic image based on the generated tomographic data and generates a tomographic image. The method of generating the tomographic image is not limited to this, and any known method may be used.

本実施例では、断層画像生成部311は、干渉光の強度に基づく所謂強度画像と称される断層画像を生成している。しかし、断層画像生成部311が生成する画像は強度画像に限られず、例えばモーションコントラスト画像であってもよい。モーションコントラスト画像あるいはこれを生成する際に用いるモーションコントラストデータも、上述した断層データの一態様に含まれる。また、モーションコントラストデータからは、血管径、血管密度等の血管に関する情報も得られるが、これら情報については本実施例における後述する断層に関するデータに含まれる。   In this embodiment, the tomographic image generation unit 311 generates a tomographic image called a so-called intensity image based on the intensity of the interference light. However, the image generated by the tomographic image generation unit 311 is not limited to the intensity image and may be, for example, a motion contrast image. The motion contrast image or the motion contrast data used when generating the motion contrast image is also included in one aspect of the above-described tomographic data. Further, from the motion contrast data, information about the blood vessel such as the blood vessel diameter and the blood vessel density can be obtained, but this information is included in the data regarding the tomographic section described later in this embodiment.

被検眼において極短時間に干渉光の強度等に揺らぎを生じさせる対象物として、血管内を流れる血球等が存在する。このような血球等の動きに基づくモーションコントラストデータを得ることにより、造影剤を用いることなく、血管の造影を行うことができる。被検眼の深さ情報に基づいて取得される三次元のモーションコントラストデータを深度方向に統合し、二次元平面上に投影することでOCTA画像と称される正面血管画像が生成できる。   Blood cells and the like that flow in blood vessels exist as an object that causes fluctuations in the intensity of interference light and the like in the eye to be examined in an extremely short time. By obtaining the motion contrast data based on the movement of such blood cells, the blood vessel can be imaged without using a contrast agent. By integrating the three-dimensional motion contrast data acquired based on the depth information of the eye to be examined in the depth direction and projecting it on a two-dimensional plane, a front blood vessel image called an OCTA image can be generated.

ここで、例えば断層画像生成部311でモーションコントラストデータを生成する場合に具体例について述べる。撮影時刻が互いに連続する略同一箇所を撮影して得た複数の断層画像であって、位置合わせが行われた複数の断層画像を取得する。なお、位置合わせは、種々の公知の方法を使用することができる。例えば、複数の断層画像のうちの1つを基準画像として選択し、基準画像の位置および角度を変更しながら、その他の断層画像との類似度が算出され、各断層画像の基準画像との位置ずれ量が算出される。算出結果に基づいて各断層画像を補正することで、複数の断層画像の位置合わせが行われる。なお、位置合わせの方法はこれに限られず、既知の任意の手法により行われてよい。   Here, a specific example will be described when the tomographic image generation unit 311 generates motion contrast data. A plurality of tomographic images obtained by photographing substantially the same positions where the photographing times are continuous with each other, and a plurality of tomographic images having been aligned are acquired. Note that various known methods can be used for alignment. For example, one of the plurality of tomographic images is selected as a reference image, the similarity with other tomographic images is calculated while changing the position and angle of the reference image, and the position of each tomographic image with respect to the reference image is calculated. The shift amount is calculated. Positioning of a plurality of tomographic images is performed by correcting each tomographic image based on the calculation result. Note that the alignment method is not limited to this, and any known method may be used.

断層画像生成部311は、位置合わせが行われた複数の断層画像のうち撮影時刻が互いに連続する2枚の断層画像ずつについて、以下の数式1により脱相関値を算出する。

Figure 2020058615
The tomographic image generation unit 311 calculates a decorrelation value for each of the two tomographic images of which the photographing times are continuous among the plurality of tomographic images that have been aligned, by using the following mathematical expression 1.
Figure 2020058615

ここで、A(x,z)は断層画像Aの位置(x,z)における振幅、B(x,z)は断層画像Bの同一位置(x,z)における振幅を示している。結果として得られる脱相関値M(x,z)は0から1までの値を取り、二つの振幅値の差異が大きいほど1に近い値となる。なお、本実施例では、XZ平面の二次元の断層画像を用いる場合について述べたが、例えばYZ平面等の二次元断層画像を用いてもよい。この場合には、位置(x、z)を位置(y、z)等に置き換えてよい。なお、脱相関値は、断層画像の輝度値に基づいて求められてもよいし、断層画像に対応する断層信号の値に基づいて求められてもよい。   Here, A (x, z) indicates the amplitude at the position (x, z) of the tomographic image A, and B (x, z) indicates the amplitude at the same position (x, z) of the tomographic image B. The resulting decorrelation value M (x, z) takes a value from 0 to 1, and becomes closer to 1 as the difference between the two amplitude values is larger. Although the present embodiment has described the case of using the two-dimensional tomographic image of the XZ plane, for example, the two-dimensional tomographic image of the YZ plane or the like may be used. In this case, the position (x, z) may be replaced with the position (y, z) or the like. The decorrelation value may be obtained based on the brightness value of the tomographic image, or may be obtained based on the value of the tomographic signal corresponding to the tomographic image.

断層画像生成部311は、各位置(画素位置)での脱相関値M(x、z)に基づいて、モーションコントラスト画像の画素値を決定し、モーションコントラスト画像を生成する。なお、本実施例では、断層画像生成部311は、撮影時刻が互いに連続する断層画像について脱相関値を算出したが、モーションコントラストデータの算出方法はこれに限定されない。脱相関値Mを求める2つの断層画像は、互いに対応する各断層画像に関する撮影時間が所定の時間間隔以内であればよく、撮影時間が連続していなくてもよい。そのため、例えば、時間的変化が少ない対象物の抽出を目的として、取得した複数の断層画像から撮影間隔が通常の規定時間より長くなるような2つの断層画像を抽出して脱相関値を算出してもよい。また、脱相関値に代えて、分散値や、最大値を最小値で割った値(最大値/最小値)等を求めてもよい。   The tomographic image generation unit 311 determines the pixel value of the motion contrast image based on the decorrelation value M (x, z) at each position (pixel position), and generates the motion contrast image. In the present embodiment, the tomographic image generation unit 311 calculates the decorrelation value for the tomographic images whose imaging times are continuous with each other, but the method of calculating the motion contrast data is not limited to this. The two tomographic images for which the decorrelation value M is obtained need only have a shooting time within a predetermined time interval with respect to each corresponding tomographic image, and the shooting times do not have to be continuous. Therefore, for example, for the purpose of extracting an object with a small temporal change, two tomographic images having an imaging interval longer than a normal specified time are extracted from the acquired tomographic images to calculate the decorrelation value. May be. Further, instead of the decorrelation value, a variance value, a value obtained by dividing the maximum value by the minimum value (maximum value / minimum value), or the like may be obtained.

なお、モーションコントラスト画像の生成方法は、上述の方法に限られず、公知の他の任意の方法を用いてもよい。上述したように、モーションコントラストデータは、例えば略同一箇所を繰り返して撮影することで得られた複数の断層画像間における複素OCT信号の位相やベクトル、強度の時間的な変化を差、比率、又は相関等から計算することによって得られる。この場合、略同一箇所とは、モーションコントラストデータを生成するのに許容できる程度に同一である位置をいい、厳密に同一である箇所から僅かにずれた箇所も含むものをいう。   The method of generating the motion contrast image is not limited to the above method, and any other known method may be used. As described above, the motion contrast data includes, for example, a difference, a ratio, or a temporal change in the phase or vector or intensity of the complex OCT signal between a plurality of tomographic images obtained by repeatedly photographing substantially the same portion. It is obtained by calculating from the correlation or the like. In this case, the “substantially the same position” means a position that is the same as that which is acceptable for generating the motion contrast data, and also includes a position that is slightly deviated from the strictly same position.

ステップS304では、画像処理部331が網膜層の検出を行うと共に、網膜層の厚さ、体積、曲率、形状に例示される複数の解析値を求める。初めに、網膜層の検出について説明をする。画像処理部331は、OCT装置200が撮影した複数の断層画像において網膜層の境界を検出する。   In step S304, the image processing unit 331 detects the retinal layer and obtains a plurality of analysis values exemplified by the thickness, volume, curvature, and shape of the retinal layer. First, the detection of the retinal layer will be described. The image processing unit 331 detects the boundary of the retinal layer in the plurality of tomographic images captured by the OCT apparatus 200.

ここで、網膜層を検出する処理の詳細について説明する。画像処理部331は、処理の対象とする断層画像に対して、ノイズ除去とエッジ強調処理を行う。ノイズ除去処理としては、例えばメディアンフィルタやガウシアンフィルタを適用する。エッジ強調処理としては、SobelフィルタやHessianフィルタを適用する。   Here, details of the process of detecting the retinal layer will be described. The image processing unit 331 performs noise removal and edge enhancement processing on the tomographic image to be processed. As the noise removing process, for example, a median filter or a Gaussian filter is applied. A Sobel filter or a Hessian filter is applied as the edge enhancement processing.

二次元のHessianフィルタを用いた、二次元断層画像に対するエッジ強調処理について説明する。Hessianフィルタは、ヘッセ行列の2つの固有値(λ、λ)の関係に基づいて、二次元濃淡分布の二次局所構造を強調することができる。ヘッセ行列の固有値と固有ベクトル(e、e)の関係を用いて、二次元の線構造を強調する。被検眼についての二次元断層画像における線構造は網膜層に相当するため、当該Hessianフィルタの適用により、網膜層の構造を強調することができる。 An edge enhancement process for a two-dimensional tomographic image using a two-dimensional Hessian filter will be described. The Hessian filter can emphasize the secondary local structure of a two-dimensional grayscale distribution based on the relationship between two eigenvalues (λ 1 , λ 2 ) of the Hessian matrix. The relationship between the eigenvalues of the Hessian matrix and the eigenvectors (e 1 , e 2 ) is used to emphasize the two-dimensional line structure. Since the line structure in the two-dimensional tomographic image of the eye to be examined corresponds to the retinal layer, the structure of the retinal layer can be emphasized by applying the Hessian filter.

なお、厚みの異なる網膜層を検出するには、ヘッセ行列を計算する際に行うガウス関数による平滑化の解像度を変更すればよい。また、二次元のHessianフィルタを適用する際には、画像のXZの物理サイズを合わせるようにデータを変形した後に適用することができる。一般的なOCTの場合、XY方向とZ方向の物理サイズが異なる。そのため、画素毎の網膜層の物理サイズを合わせてフィルタを適用する。なお、XY方向とZ方向の物理サイズは、OCT装置200の設計/構成から把握できるため、当該物理サイズに基づいて、断層画像のデータを変形させることができる。また、物理サイズを正規化しない場合には、ガウス関数による平滑化の解像度を変更することでも近似的に対応できる。   Note that in order to detect retinal layers having different thicknesses, the resolution of smoothing by a Gaussian function performed when calculating the Hessian matrix may be changed. When applying the two-dimensional Hessian filter, the data can be applied after transforming the data so that the physical size of XZ of the image is matched. In the case of general OCT, the physical sizes in the XY direction and the Z direction are different. Therefore, the filter is applied by matching the physical size of the retinal layer for each pixel. Since the physical sizes in the XY direction and the Z direction can be grasped from the design / configuration of the OCT apparatus 200, the tomographic image data can be transformed based on the physical size. In addition, when the physical size is not normalized, it can be approximately handled by changing the resolution of smoothing by the Gaussian function.

上記では、二次元断層画像での処理について説明したが、Hessianフィルタを適用する対象はこれに限らない。断層画像を撮影した際のデータ構造がラスタスキャンによる三次元断層画像である場合、三次元のHessianフィルタを適用することも可能である。この場合、画像処理部331によって、隣接する断層画像間において、XZ方向の位置合わせ処理を行った後に、ヘッセ行列の3つの固有値(λ、λ、λ)の関係に基づいて、三次元濃淡分布の二次局所構造を強調することができる。そのため、ヘッセ行列の固有値と固有ベクトル(e、e、e)の関係を用いて三次元の層構造を強調することで、三次元的にエッジを強調することも可能である。なお、ここでは、Hessianフィルタを用いてエッジ強調処理を行う構成について説明したが、エッジ強調処理の処理方法はこれに限られず、既存の任意の方法によって行われてよい。 Although the processing on the two-dimensional tomographic image has been described above, the target to which the Hessian filter is applied is not limited to this. When the data structure when the tomographic image is captured is a three-dimensional tomographic image by raster scanning, it is possible to apply a three-dimensional Hessian filter. In this case, the image processing unit 331 performs the alignment process in the XZ direction between the adjacent tomographic images, and then the cubic function is performed based on the relationship between the three eigenvalues (λ 1 , λ 2 , λ 3 ) of the Hessian matrix. It is possible to emphasize the secondary local structure of the original gray distribution. Therefore, by emphasizing the three-dimensional layered structure by using the relation between the eigenvalues of the Hessian matrix and the eigenvectors (e 1 , e 2 , e 3 ), it is possible to emphasize the edges in three dimensions. In addition, here, although the configuration in which the edge emphasis processing is performed using the Hessian filter has been described, the processing method of the edge emphasis processing is not limited to this, and any existing method may be used.

画像処理部331は、エッジ強調処理をした断層画像からエッジ強調された境界を検出する。本実施例では、ILMとNFLとの境界、RPE、ISOS、NFLとGCL境界を検出する。なお、図示しないが、その他の境界として、外網状層(OPL)と外顆粒層(ONL)との境界、内網状層(IPL)と内顆粒層(INL)との境界、INLとOPLとの境界、GCLとIPLとの境界等も検出できる。   The image processing unit 331 detects the edge-enhanced boundary from the tomographic image subjected to the edge enhancement processing. In this embodiment, the boundary between ILM and NFL, RPE, ISOS, and the boundary between NFL and GCL are detected. Although not shown, as other boundaries, a boundary between the outer reticular layer (OPL) and the outer granular layer (ONL), a boundary between the inner reticular layer (IPL) and the inner granular layer (INL), and a boundary between the INL and the OPL. A boundary, a boundary between GCL and IPL, etc. can also be detected.

境界の検出方法としては、各Aスキャンにおいてエッジ強度が強い箇所を境界候補として複数検出し、隣接するAスキャンにおいて境界候補同士の連続性を基に、点(エッジ強度画強い箇所)を線としてつなげる処理を行う。また、画像処理部331は、点を線としてつなげた場合に、線の滑らかさを評価することで、深さ方向に位置がずれている外れ値を除去することができる。より具体的には、例えば、つなげた点同士のZ方向の位置を比較し、所定の閾値よりもZ方向の位置の差が大きい場合には、新しくつなげられた点を外れ値として判断し、つなげる処理から除外することができる。また、外れ値を除去した場合、除外した点のAスキャン位置に隣接するAスキャンにおける境界候補を線としてつなげてもよい。なお、外れ値の除去方法はこれに限られず、既存の任意の方法によって行われてよい。   As a boundary detection method, a plurality of locations having strong edge strengths are detected as boundary candidates in each A-scan, and points (edge strength image strong locations) are formed as lines based on the continuity between the boundary candidates in adjacent A-scans. Perform the connecting process. In addition, the image processing unit 331 can remove the outlier that is displaced in the depth direction by evaluating the smoothness of the line when the points are connected as a line. More specifically, for example, the positions of the connected points in the Z direction are compared, and if the difference in the Z direction position is larger than a predetermined threshold value, the newly connected point is determined as an outlier, It can be excluded from the splicing process. When the outliers are removed, the boundary candidates in the A scan adjacent to the A scan position of the excluded point may be connected as a line. The method of removing outliers is not limited to this, and any existing method may be used.

画像処理部331は、点をつなげて形成した各線について、網膜層の境界のZ方向の上下の距離や位置関係に基づいて、対応する境界を決定する。なお、各Aスキャンにおいて外れ値を除去した結果として検出された境界がない場合には、周囲の境界から補間でこれを求めてもよい。また、周囲の境界からエッジを頼りに水平方向(X又はY方向)に境界候補を探索していき、周囲の境界から探索した境界候補を基にして再度、境界を決定するようにしてもよい。   The image processing unit 331 determines, for each line formed by connecting points, a corresponding boundary based on the vertical distance and the positional relationship in the Z direction of the boundary of the retina layer. If there is no boundary detected as a result of removing the outlier in each A scan, this may be obtained by interpolation from the surrounding boundary. Alternatively, the boundary candidates may be searched in the horizontal direction (X or Y direction) from the peripheral boundary depending on the edge, and the boundary may be determined again based on the boundary candidates searched from the peripheral boundary. .

その後、画像処理部331は、検出した境界に対して、境界の形状を滑らかに補正する処理を実行する。例えば、SnakesやLevel Set法等の動的輪郭モデル等により、画像特徴と形状特徴とを用いて境界の形状を滑らかにしてもよい。また、境界形状の座標値を信号による時系列データとみなして、Savitzky−Golayフィルタや、単純移動平均、加重移動平均、指数移動平均等の平滑化処理で形状を滑らかにしてもよい。   After that, the image processing unit 331 executes a process for smoothly correcting the shape of the detected boundary. For example, an active contour model such as the Snakes or Level Set method may be used to smooth the shape of the boundary by using the image feature and the shape feature. Alternatively, the coordinate values of the boundary shape may be regarded as time-series data of a signal, and the shape may be smoothed by a smoothing process such as a Savitzky-Golay filter, a simple moving average, a weighted moving average, or an exponential moving average.

なお、網膜層の検出に関しても専用の学習済モデルを用いて行うようにしてもよい。その場合、事前に教師データとして作成したラベル画像と入力画像としてラベル画像の生成に用いた断層画像とをペアで学習した層検出用の学習済モデルを生成しておく。なお、ラベル画像とは、断層画像における画素毎に、当該画素に現れている(撮影されている)像に関するラベルが与えられた画像をいう。例えば網膜よりも浅層側(硝子体側)のラベル、網膜内層のラベル、および網膜よりも深層側(脈絡膜側)のラベルが、与えられるラベルとして例示できる。   The detection of the retinal layer may be performed using a dedicated learned model. In that case, a learned model for layer detection in which a label image created as teacher data and a tomographic image used to create the label image as an input image are learned in pairs is created in advance. The label image refers to an image in which a label for an image appearing (captured) in each pixel is given to each pixel in the tomographic image. For example, a label on the shallower layer side (vitreous body side) than the retina, a label on the inner layer of the retina, and a label on the deeper layer side (choroid side) than the retina can be exemplified as the given labels.

次に、画像処理部331は、複数の解析値を得るための計測処理を行う。解析値の例としては、境界検出で求めた任意の2本の境界で定義される網膜の厚みがある。例えば、緑内障においては網膜が菲薄化し、上下で層厚が非対称となる傾向がある。また、網膜静脈分子閉塞症等のように出血を伴う異常を被検眼が有する場合、出血により網膜全体が厚くなる。そのため、網膜の厚みを計測してその解析値を得ることで、病気によって現れる層厚変化の特徴を知ることができる。   Next, the image processing unit 331 performs measurement processing for obtaining a plurality of analysis values. An example of the analysis value is the thickness of the retina defined by two arbitrary boundaries obtained by the boundary detection. For example, in glaucoma, the retina becomes thin, and the layer thickness tends to be asymmetrical in the upper and lower parts. When the eye to be examined has an abnormality accompanied by bleeding such as molecular retinal vein occlusion, the entire retina becomes thick due to bleeding. Therefore, by measuring the thickness of the retina and obtaining an analysis value thereof, it is possible to know the feature of the layer thickness change that appears due to a disease.

また、網膜における層厚は、計測部位が黄斑部なのか、視神経乳頭部なのかによっても厚みの基準が異なる。このため、計測部位の位置情報と共に厚みを計測しておくとよい。また、撮影部位が視神経乳頭部の場合、CupとDiscの比であるC/D比も計測するとよい。その他に、境界検出で求めた任意の境界の形状特徴を計測するようにしてもよい。例えば、強度近視眼においては網膜が後方(下方向)に引き伸ばされたような形に変形する。また、加齢黄斑変性では、RPEが上に突出したような形に変形する。そのため、形の特徴として、RPEやブルッフ膜等の境界を用いて局所的な曲率を解析値として計測するとよい。このような解析値からは、病気によって現れる形の特徴を把握することができる。   In addition, the layer thickness in the retina has different thickness standards depending on whether the measurement site is the macula or the optic papilla. Therefore, it is preferable to measure the thickness together with the position information of the measurement site. When the imaging site is the optic papilla, the C / D ratio, which is the ratio of Cup to Disc, may be measured. In addition, the shape feature of an arbitrary boundary obtained by the boundary detection may be measured. For example, in an intense myopic eye, the retina is deformed to be stretched backward (downward). Moreover, in age-related macular degeneration, the RPE is deformed into a shape protruding upward. Therefore, as a shape feature, it is advisable to measure the local curvature as an analysis value by using the boundary such as RPE or Bruch's membrane. From such an analysis value, it is possible to grasp the characteristic of the shape that appears due to the disease.

上述したように、病気によって層厚や網膜の形に特徴が表れる。さらに、一つの眼において、これらの特徴が一つ現れるだけではなく、複数の特徴が表れることがある。例えば、ある疾病によって特定の層の菲薄化が進行することに合わせて湾極度等の形状の変化も進行し、病状の進行によってある時点で湾曲の影響も加わって菲薄化が急激となることも起こり得る。このような場合、菲薄化の進行のみを解析値から想定していた場合には、急激な変化は想定し得ない。そのため、計測しておく解析値は、層厚や湾極度等の想定される複数種類ものを得ておくとよい。   As described above, the disease causes characteristics in the layer thickness and the shape of the retina. Moreover, not only one of these features may appear in one eye, but multiple features may appear. For example, as a certain disease progresses thinning of a specific layer, a change in shape such as the extreme of the bay also progresses, and due to the progress of the medical condition, the thinning may become rapid due to the influence of curvature. It can happen. In such a case, if only the progress of thinning is assumed from the analysis value, a rapid change cannot be expected. Therefore, it is advisable to obtain a plurality of types of assumed analytical values such as layer thickness and bay extremes.

また、上述したように、画像処理部331がモーションコントラストデータを生成することとしてもよい。この場合、画像処理部331は、モーションコントラストデータを平均値投影する(AIP)、あるいは最大値投影(MIP)することで得られるモーションコントラスト画像の正面画像であるOCTA画像を用いて解析値を得てもよい。例えば、OCTA画像を2値化、あるいは2値化画像を細線化した画像から、血管に相当する箇所の密度や血管の形状(長さや形)等特徴を求めてもよい。これら特徴も解析値として用いることができる。   Further, as described above, the image processing unit 331 may generate the motion contrast data. In this case, the image processing unit 331 obtains the analysis value using the OCTA image which is the front image of the motion contrast image obtained by performing the average value projection (AIP) or the maximum value projection (MIP) of the motion contrast data. May be. For example, features such as the density of the portion corresponding to the blood vessel and the shape (length or shape) of the blood vessel may be obtained from the image obtained by binarizing the OCTA image or thinning the binarized image. These characteristics can also be used as analysis values.

ステップS304において、画像処理部331による解析値の計測処理が行われると、処理はステップS305に移行する。ステップS305では、検出した境界と断層画像とを表示部600に表示する。ここで、表示部600に画面を表示する際の処理について、図3(b)、および図4乃至図6を用いて説明をする。なお、図3(b)は、ステップS305の表示処理において実行される一連の処理のフローチャートである。本実施例に係る表示処理が開始されると、処理はステップS351に移行する。   In step S304, when the analysis value measurement process is performed by the image processing unit 331, the process proceeds to step S305. In step S305, the detected boundary and tomographic image are displayed on the display unit 600. Here, the process of displaying a screen on the display unit 600 will be described with reference to FIG. 3B and FIGS. 4 to 6. Note that FIG. 3B is a flowchart of a series of processes executed in the display process of step S305. When the display process according to the present embodiment is started, the process proceeds to step S351.

ステップS351では、撮影条件取得部333が、ステップS302で干渉信号を取得した際の撮影条件を記憶部302から取得する。また、撮影条件取得部333は、ステップS301で取得した被検眼情報も記憶部302から併せて取得する。   In step S351, the imaging condition acquisition unit 333 acquires from the storage unit 302 the imaging conditions used when the interference signal was acquired in step S302. Further, the imaging condition acquisition unit 333 also acquires the eye information acquired in step S301 from the storage unit 302.

ステップS352では、ステップS351で取得した情報から、記憶部302又は外部記憶装置500が同一の被検眼において過去に同じ走査パターンで撮影して得た情報を記憶しているか否かが、選択部334により判定される。過去に同じ走査パターンで撮影されたデータがある場合には、処理はステップS353に移行する。また、このようなデータがない場合には、処理はステップS356に移行する。   In step S352, the selection unit 334 determines whether or not the storage unit 302 or the external storage device 500 stores information obtained by imaging the same eye in the same scan pattern in the past from the information acquired in step S351. Is determined by. If there is data captured in the same scan pattern in the past, the process proceeds to step S353. If there is no such data, the process proceeds to step S356.

なお、撮影されたデータの有無だけではなく、過去検査数に応じてフローを分けてもよい。例えば、過去に撮影されたデータ数が1だけの場合、現在のデータと合わせても2データ分しかないため、後述する学習済モデルを用いるには情報が少ない。そのため、過去検査数として閾値Th(例えば、Th>2)を設定し、過去検査数が一定数以上ある場合に、処理がステップS353に移行するようにしてもよい。   The flow may be divided according to the number of past examinations as well as the presence or absence of photographed data. For example, when the number of data captured in the past is only 1, there is only 2 data including the current data, so there is little information to use the learned model described later. Therefore, a threshold value Th (for example, Th> 2) may be set as the number of past examinations, and the process may move to step S353 when the number of past examinations is a certain number or more.

ステップS353では、撮影条件取得部333が取得した撮影条件に基づいて、選択部334が使用する学習済モデルの選択を行う。撮影部位に関連した撮影条件としては、例えば撮影部位が被検眼の前眼部か後眼部かがある。前眼部と後眼部とでは、画像データから出力される解析値が異なるため、それぞれ別々の学習済モデルを得ておく。なお、本実施例では、前眼部と後眼部との何れを撮影するかによって用いる学習済モデルを選択する例について説明をした。しかし、参照する撮影部位はこれに限られず、後眼部においても、さらに黄斑部か視神経乳頭部かに応じて学習済モデルを選択するようにしてもよい。   In step S353, the learned model used by the selection unit 334 is selected based on the shooting conditions acquired by the shooting condition acquisition unit 333. The imaging conditions related to the imaging region include, for example, whether the imaging region is the anterior segment or the posterior segment of the subject's eye. Since the analysis values output from the image data are different between the anterior segment and the posterior segment, separate learned models are obtained in advance. In addition, in the present embodiment, the example in which the learned model to be used is selected depending on which of the anterior segment and the posterior segment is imaged has been described. However, the imaged region to be referred to is not limited to this, and the learned model may be selected also in the posterior segment of the eye according to the macular region or the optic papilla.

なお、例えば後眼部の学習済モデルがあり、前眼部の学習済モデルが存在しない場合において、入力するデータが前眼部の画像の場合、ステップS352の時点において、フローがステップS356に移行するようにしてもよい。このような処理により、初期は学習済モデルが対応していなくても、ソフトウェアのアップデートにより対応可能な学習済モデルを追加して、前眼部を撮影した場合にも対応することができるようになる。   Note that, for example, when there is a learned model of the posterior segment of the eye and no learned model of the anterior segment exists, and the input data is an image of the anterior segment of the eye, the flow proceeds to step S356 at the time of step S352. You may do it. By such processing, even if the learned model does not correspond at the beginning, it is possible to add a learned model that can be supported by updating the software so that it can be supported even when the anterior segment of the eye is photographed. Become.

ステップS354では、演算処理部332が、学習済モデルを用いて、将来的に当該被検眼を同じ撮影条件で撮影した場合に得られる可能性が高い断層画像を生成する。また、画像処理部331は、生成された断層画像を用いて、上述した複数種類の解析値を算出する。なお、本実施例では、演算処理部332が、学習済モデルを用いて断層画像を生成することとしている。しかし、演算処理部332は、上述した画像処理部331により求められた複数種類の解析値から、将来的に得られる可能性の高い各々の解析値を直接生成することとしてもよい。   In step S354, the arithmetic processing unit 332 uses the learned model to generate a tomographic image that is likely to be obtained when the subject eye is imaged under the same imaging condition in the future. In addition, the image processing unit 331 uses the generated tomographic image to calculate the above-described plurality of types of analysis values. In the present embodiment, the arithmetic processing unit 332 uses the learned model to generate a tomographic image. However, the arithmetic processing unit 332 may directly generate each analysis value that is likely to be obtained in the future from the plurality of types of analysis values obtained by the image processing unit 331 described above.

なお、上述したように、本発明の説明における学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデル対して、事前に適切な学習データを用いてトレーニングしたモデルである。ここで、本実施例に係る学習済モデルを得る際のトレーニングに用いる学習データについて説明する。学習データは、実際に学習済モデルに入力されるデータに対応する入力データと、学習済モデルによって生成されるデータに対応する教師データとのペアからなる。本発明では、入力データとして、第一の時間と該第一の時間より後の第二の時間の少なくとも二つの時間に、同一被検眼を同じ撮影条件で撮影して得た二つの断層画像、あるいは該断層画像から得た複数種類の解析値からなる二つの検査結果を用いる。また、教師データとして、第二の時間よりもさらに後の第三の時間に、同一被検眼を同じ撮影条件で撮影して得た断層画像あるいは該断層画像から得た複数種類の解析値からなる検査結果を用いる。   Note that, as described above, the learned model in the description of the present invention is a model trained in advance using appropriate learning data for a machine learning model according to an arbitrary machine learning algorithm such as deep learning. . Here, the learning data used for training when obtaining the learned model according to the present embodiment will be described. The learning data is composed of a pair of input data corresponding to the data actually input to the learned model and teacher data corresponding to the data generated by the learned model. In the present invention, as input data, at least two times of the first time and the second time after the first time, two tomographic images obtained by imaging the same eye under the same imaging conditions, Alternatively, two inspection results composed of plural kinds of analysis values obtained from the tomographic image are used. Further, as teacher data, it is composed of a tomographic image obtained by photographing the same eye under the same photographing condition at a third time after the second time or a plurality of types of analysis values obtained from the tomographic image. Use the test results.

学習済モデルを得る際には、ここで述べたように、過去の少なくとも三つの時点で予め得られている断層画像や検査結果を学習データに用いて学習を行う。そして、この学習済モデルを用いる際には、学習済モデルの生成時に用いた入力データに対応する過去の第一の時間と第二の時間との時間間隔と同じ時間間隔で得られている二つの検査結果を入力する。教師データは、学習済モデルから生成される解析値等と対応する。すなわち、学習済モデルを用いることで、上述した第二の時間と第三の時間との時間間隔と対応する数か月から数年先において、この被検眼から得られる可能性の高い解析値を得ることができる。   When obtaining the learned model, learning is performed using the tomographic images and the inspection results previously obtained at at least three past times as the learning data, as described here. When this learned model is used, it is obtained at the same time interval as the time interval between the first time and the second time in the past corresponding to the input data used when the learned model is generated. Enter the two test results. The teacher data corresponds to the analysis value and the like generated from the learned model. That is, by using the learned model, in the several months to several years ahead corresponding to the time interval between the second time and the third time described above, the analysis value that is highly likely to be obtained from this eye is calculated. Obtainable.

次に、複数種類の解析値を用いた場合の機械学習アルゴリズムについて図4を用いて説明をする。ここで、学習済モデルを得る際のトレーニングに用いる学習データについて説明する。上述したように、学習データは、過去の異なる時間において撮影した同じ被検眼から得られている、例えば複数種類の解析値からなる数値データを含む。学習データの一例を図4に示す。図4では、N個の計測パラメータ(Params1〜ParamsN)の時系列上(日時T)の解析値(数値)の例を示している。ここで複数種類の解析値には、例えば撮影部位が後眼部画像の場合には、網膜全体の厚み、任意の層間の厚み、脈絡膜の厚み、網膜の形状特徴(例えばRPEやブルッフ膜等の曲率)等が含まれる。また、撮影部位が視神経乳頭部の場合には、網膜の厚みの他にCupとDiscの比であるC/D比等が複数種類の解析値に含まれる。なお、C/D比は断層画像からではなく、眼底画像撮影装置400から取得した眼底写真やSLO等の平面画像から求めてもよい。また、撮影部位が前眼部の場合には、角膜厚、角膜曲率、前房深度、水晶体全面曲率、水晶体後面曲率等が複数種類の解析値に含まれる。   Next, a machine learning algorithm using a plurality of types of analysis values will be described with reference to FIG. Here, the learning data used for training when obtaining the learned model will be described. As described above, the learning data includes numerical value data obtained from the same eye to be inspected at different times in the past, for example, including numerical values of a plurality of types of analysis values. An example of the learning data is shown in FIG. FIG. 4 shows an example of analysis values (numerical values) of N measurement parameters (Params1 to ParamsN) on the time series (date T). Here, for example, when the imaging region is a posterior segment image, the plurality of types of analysis values include the thickness of the entire retina, the thickness between arbitrary layers, the thickness of the choroid, and the shape characteristics of the retina (such as RPE and Bruch's membrane). Curvature) etc. are included. When the imaging site is the optic papilla, a plurality of types of analysis values include the C / D ratio, which is the ratio of Cup to Disc, in addition to the thickness of the retina. The C / D ratio may be obtained not from a tomographic image but from a fundus image acquired from the fundus image capturing apparatus 400 or a plane image such as SLO. When the imaged part is the anterior segment, the corneal thickness, the corneal curvature, the anterior chamber depth, the entire lens curvature, the posterior lens curvature, and the like are included in a plurality of types of analysis values.

図4は、撮影を行った日時を示す時間軸Tからなる横軸と、特定の計測パラメータの解析値からなる縦軸とからなる時系列グラフである。なお学習データとして、解析値の数値をそのまま用いてもよい。しかし、扱いやすくするために、前の時間の解析値との差分を求め、これを学習データとして用いてもよい。なお、上述した学習済モデルの生成時に用いる入力データとして時系列上の2つのデータを用い、学習済モデルに入力されるデータもこれに対応して2つのデータを用いる例について上では述べている。しかし、入力データおよび入力されるデータの数は2つに限られず、より多くのデータ数であってもよい。学習済モデルの生成時に時系列上の多くのデータを用いることで学習に要する時間が長くなる。しかし、入力データの間隔をこの時系列上の任意のデータの間隔とあわせることが可能となり、汎用性が高められる可能性が生まれる。   FIG. 4 is a time-series graph including a horizontal axis that is a time axis T that indicates the date and time when the image was captured and a vertical axis that is an analysis value of a specific measurement parameter. The numerical value of the analysis value may be used as it is as the learning data. However, for easier handling, a difference from the analysis value of the previous time may be obtained and used as the learning data. It should be noted that an example in which two data on a time series are used as input data used when generating the learned model described above and two data corresponding to this are also used as data input to the learned model is described above. . However, the number of input data and the number of input data is not limited to two, and a larger number of data may be used. The time required for learning becomes long by using a lot of data on the time series when the trained model is generated. However, it becomes possible to match the interval of the input data with the interval of the arbitrary data on the time series, and the versatility may be enhanced.

さらに、学習時にはこれら複数の解析値からなるデータをトータルして病気の進行が進んだか、進行していないか、止まったかという病気の進行度に関する情報を評価値として学習データに加えてもよい。この場合、病気の進行度は数値として定義しておく。例えば、医師等が解析値の時系列データや、断層画像を参照して病状を判断し、病気の進行が進んでいる場合は評価値100、変わっていない場合は評価値50、改善した場合は評価値0等とする。なお、この数値はあくまでも一例であり、この値に限るものではなく、病気の種類や判断対象とする項目に応じて、評価値は適宜定められる。なお、ここでは評価値を数値として扱う場合を例として説明しているが、例えば病気の進行状態や、眼の状態について良否をランク付けすることとしてもよい。即ち、ここで述べた評価値は、目の状態を医師等が評価して定め、データとして入力する評価情報の一例となる。   Further, at the time of learning, information regarding the degree of progress of the disease such as whether the disease has progressed, has not progressed, or has stopped may be added to the learning data as the evaluation value by totalizing the data including the plurality of analysis values. In this case, the degree of disease progression is defined as a numerical value. For example, a doctor or the like determines time-series data of analysis values or a tomographic image to determine a medical condition, and an evaluation value of 100 when the disease progresses, an evaluation value of 50 when the disease has not changed, and an improvement when the disease has improved. The evaluation value is 0 or the like. It should be noted that this numerical value is merely an example, and the numerical value is not limited to this value, and the evaluation value is appropriately determined according to the type of disease and the item to be judged. Although the evaluation value is treated as a numerical value here as an example, the quality may be ranked, for example, with respect to the disease progression state or the eye state. That is, the evaluation value described here is an example of the evaluation information that the doctor or the like evaluates and determines the eye condition and inputs as data.

次に、本実施例に係る機械学習モデルの一例として、時系列情報を扱うニューラルネットワークであるRecurrent Neural Network(以下、RNN)に関して、図5を参照して説明する。また、RNNの一種であって、演算処理部332が用いるLong short−term memory(以下、LSTM)に関して、図6を参照して説明する。   Next, as an example of the machine learning model according to the present embodiment, a Recurrent Natural Network (hereinafter, RNN) that is a neural network that handles time series information will be described with reference to FIG. In addition, a long short-term memory (hereinafter, LSTM), which is a type of RNN and used by the arithmetic processing unit 332, will be described with reference to FIG. 6.

図5(a)は、演算処理部332における機械学習モデルであるRNNの構造を示す。図5に示すRNN520は、ネットワークにループ構造を持ち、時刻tにおいてデータx510を入力し、データh530を出力する。RNN520はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図5(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx510にはN個(Params1〜ParamsN)の計測パラメータに関する解析値が含まれ。また、RNN520より出力されるデータh530には入力データに対応するN個(Params1〜ParamsN)の解析値が含まれる。 FIG. 5A shows the structure of the RNN, which is a machine learning model in the arithmetic processing unit 332. The RNN 520 shown in FIG. 5 has a loop structure in the network, inputs data x t 510 at time t, and outputs data h t 530. Since the RNN 520 has a loop function in the network, it is possible to take over the state at the current time to the next state, so that the time series information can be handled. FIG. 5B shows an example of input / output of the parameter vector at time t. The data x t 510 includes analysis values regarding N (Params 1 to Params N) measurement parameters. The data h t 530 output from the RNN 520 includes N (Params 1 to Params N) analysis values corresponding to the input data.

しかし、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができない。そのため、本実施例ではLSTMを用いることとする。LSTMは、忘却ゲート、入力ゲート、出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図6(a)にLSTMの構造を示す。LSTM620において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct−1と出力データht−1である。なお、図の小文字(c、h、x)はベクトルを表している。本実施例において、このベクトルは、図4で示した解析値で構成される。 However, the RNN cannot handle long-term information during error back propagation. Therefore, the LSTM is used in this embodiment. The LSTM can learn long-term information by including a forget gate, an input gate, and an output gate. Here, the structure of the LSTM is shown in FIG. In the LSTM 620, the information that the network takes over at the next time t is the internal state ct -1 of the network called a cell and the output data ht -1 . The lower case letters (c, h, x) in the figure represent vectors. In this embodiment, this vector is composed of the analysis values shown in FIG.

次に、図6(b)にLSTM620の詳細を示す。図6(b)において、FGは忘却ゲートネットワーク、IGは入力ゲートネットワーク、OGは出力ゲートネットワークを示し、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。CUは、セル更新候補ネットワークであり、活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。   Next, FIG. 6B shows details of the LSTM 620. In FIG. 6B, FG is a forgetting gate network, IG is an input gate network, OG is an output gate network, and each is a sigmoid layer. Therefore, a vector in which each element has a value of 0 to 1 is output. The forgetting gate network FG determines how much past information is retained, and the input gate network IG determines which value is updated. The CU is a cell update candidate network and is an activation function tanh layer. This creates a new vector of candidate values that will be added to the cell. The output gate network OG selects a cell candidate element and selects how much information is transmitted at the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルはニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等の機械学習モデルを用いてもよい。また、ここに例示したRNNやLSTMではデータとして解析値に例示される数値を入力する場合について述べている。しかし、上述したように、断層画像等の断層データを入力し、断層データを出力するようにRNNやLSTMを構成してもよい。   The above-described LSTM model is a basic form, and is not limited to the network shown here. The connection between networks may be changed. QRNN (Quasi Current Neural Network) may be used instead of the LSTM. Further, the machine learning model is not limited to the neural network, and a machine learning model such as boosting or support vector machine may be used. Further, in the RNN and the LSTM illustrated here, the case where the numerical value illustrated as the analysis value is input as the data is described. However, as described above, the RNN or the LSTM may be configured to input the tomographic data such as the tomographic image and output the tomographic data.

学習済モデルにデータを入力すると、学習済モデルの設計に従ったデータが出力される。例えば、学習データからトレーニングされた傾向に従って入力データに対応する可能性の高い出力データが出力される。例えば、上述した学習データによってトレーニングされた学習済モデルにOCTによって撮影された断層画像を入力すると、将来の撮影される可能性が高いと予測される断層画像が出力される。また、断層画像ではなく解析値を用いる学習済モデルを用いた場合であれば、該学習済モデルにOCTによって撮影された断層画像から得られた解析値を入力すると、将来撮影された断層画像から計測される可能性が高いと予測される解析値が出力される。   When data is input to the learned model, the data according to the design of the learned model is output. For example, output data that is highly likely to correspond to the input data is output according to the training tendency from the learning data. For example, when a tomographic image captured by OCT is input to a learned model trained with the above-described learning data, a tomographic image predicted to be highly likely to be captured in the future is output. If a learned model that uses analysis values instead of tomographic images is used, if an analysis value obtained from a tomographic image captured by OCT is input to the learned model, a tomographic image captured in the future will be used. The analysis value predicted to be measured is output.

本実施例に係る演算処理部332の学習済モデルでは、データx510として断層画像が入力されると、学習データを用いて学習した傾向に従って、データh530として断層画像が出力される。また、データx510として複数の計測パラメータの解析値が入力されると、学習データを用いて学習した傾向に従って、データh530として対応する計測パラメータの解析値が複数出力される。 In the learned model of the arithmetic processing unit 332 according to the present embodiment, when the tomographic image is input as the data x t 510, the tomographic image is output as the data h t 530 according to the tendency learned using the learning data. Further, when the analysis values of a plurality of measurement parameters are input as the data x t 510, a plurality of analysis values of the corresponding measurement parameters are output as the data h t 530 according to the tendency learned using the learning data.

ステップS355あるいはS356では、表示制御部305からの指示に応じて、表示部600が解析結果を表示する。なお、ステップS355とステップS356では、演算処理部332により生成された結果の表示を行うか、ステップS351で取得した解析値等がそのまま表示されるかが異なるだけで、それ以外の表示情報は同じである。よって、表示部600に表示される画面については、以降でまとめて説明する。   In step S355 or S356, the display unit 600 displays the analysis result according to the instruction from the display control unit 305. It should be noted that in step S355 and step S356, only the result generated by the arithmetic processing unit 332 is displayed or the analysis value obtained in step S351 is displayed as it is, and the other display information is the same. Is. Therefore, the screens displayed on the display unit 600 will be collectively described below.

図7に表示部600に表示する画面の一例を示す。表示画面710には、患者タブ701、撮影タブ702、レポートタブ703、および設定タブ704が表示される。また、表示画面の左側には、過去に同一被検眼を撮影して得た断層画像群が、サムネイル画像705として表示される。なお、図ではレポートタブ703に斜線が加えられているが、この斜線はレポート画面がアクティブ状態であることを表している。以下、本実施例において、レポート画面を表示する場合について説明をする。なお、ここではアクティブ状態を示すために斜線を用いたが、例えば表示領域の着色は表示文字の色変更等によりアクティブ状態を示すこともできる。   FIG. 7 shows an example of a screen displayed on the display unit 600. On the display screen 710, a patient tab 701, an imaging tab 702, a report tab 703, and a setting tab 704 are displayed. On the left side of the display screen, a tomographic image group obtained by photographing the same eye to be inspected in the past is displayed as a thumbnail image 705. It should be noted that although a diagonal line is added to the report tab 703 in the figure, this diagonal line indicates that the report screen is in an active state. Hereinafter, a case of displaying a report screen in the present embodiment will be described. It should be noted that the diagonal lines are used here to indicate the active state, but the coloring of the display area can also indicate the active state, for example, by changing the color of the display character.

レポート画面には、被検眼を水平方向に走査して得られる断層画像711と、垂直方向に走査して得られる断層画像712とが示される。また、レポート画面には、眼底の正面像であるSLO画像713が表示される。この、SLO画像713には、例えば網膜の厚みを表現するカラーマップ714が重畳されている。また、SLO画像713に重畳表示されたセクターの各領域の網膜厚を表示するETDRSグリッド715と、ETDRSグリッド内の網膜厚を表わす表716も併せて表示される。   On the report screen, a tomographic image 711 obtained by scanning the eye to be examined in the horizontal direction and a tomographic image 712 obtained by scanning in the vertical direction are shown. In addition, an SLO image 713 that is a front image of the fundus is displayed on the report screen. On this SLO image 713, for example, a color map 714 expressing the thickness of the retina is superimposed. Further, an ETDRS grid 715 that displays the retinal thickness of each region of the sector that is superimposed and displayed on the SLO image 713, and a table 716 that represents the retinal thickness in the ETDRS grid are also displayed.

グラフ720は、断層画像711,712から求められる網膜の厚みについて、これを時系列で配置することで得られている。演算処理部332より生成された網膜の厚みについての予想解析値がある場合には、ここに表示をする。セレクタ721は、グラフ720に示している解析値を得ている計測パラメータを選択するために用いられる。ここでは網膜の厚さを計測パラメータとするParams1が選択されている。   The graph 720 is obtained by arranging the thickness of the retina calculated from the tomographic images 711 and 712 in time series. If there is an estimated analysis value for the thickness of the retina generated by the arithmetic processing unit 332, it is displayed here. The selector 721 is used to select the measurement parameter for which the analysis value shown in the graph 720 is obtained. Here, Params1 having the thickness of the retina as a measurement parameter is selected.

グラフ720において、複数の黒丸722は過去に撮影された断層画像から得た網膜厚の時系列の解析値を、白丸723は最新の解析値を示している。さらに、星印724は、演算処理部332が生成した将来の網膜厚の予測値を示している。確率725は、前述した医師等によって入力された評価値に対応する。過去の解析値に併せて評価値が入力されている場合には、演算処理部332はこの評価値を生成し、レポート画面にはこれが確率725として表示される。   In the graph 720, a plurality of black circles 722 indicate time series analysis values of retinal thickness obtained from tomographic images captured in the past, and white circles 723 indicate latest analysis values. Furthermore, an asterisk 724 indicates a predicted value of the future retinal thickness generated by the arithmetic processing unit 332. The probability 725 corresponds to the evaluation value input by the above-mentioned doctor or the like. When the evaluation value is input together with the past analysis value, the arithmetic processing unit 332 generates this evaluation value, and this is displayed as the probability 725 on the report screen.

なお、本実施例では、複数の計測パラメータの解析値を入力し、これらから演算処理部332が対応する進行予測値を解析値として出力し、その結果がグラフ720として表示される。そのため、グラフ720に表示される時系列の解析値は、セレクタ721で表示する計測パラメータを選択することによって変わり、これに応じて星印724で示される将来の予測値も変更される。しかし、確率725は、全体のパラメータを用いて医師等により総合的に入力された評価値に基づいて生成されるため、セレクタ721で表示する計測パラメータを変更しても結果は変わらない。   In the present embodiment, the analysis values of the plurality of measurement parameters are input, and the arithmetic processing unit 332 outputs the corresponding predicted progress value as the analysis value, and the result is displayed as the graph 720. Therefore, the time-series analysis value displayed in the graph 720 changes by selecting the measurement parameter displayed by the selector 721, and the future predicted value indicated by the star 724 is also changed accordingly. However, the probability 725 is generated based on the evaluation value comprehensively input by the doctor or the like using the entire parameters, and therefore the result does not change even if the measurement parameter displayed by the selector 721 is changed.

また、ここでは確率725の進行予測値を単に数値表示する例を示している。しかし、他の表示例として、症状が改善する場合には青字や緑字、あまり変化がない場合は黒字、症状が悪化する可能性が高い場合には橙字や赤字など、視覚的に分かりやすいように数値の色を変えて表示するようにしてもよい。また、確率752として表示するのではなく、グラフ720に表示される各点について、これを上述した色表示することで検者に症状の進行状態を示すこととしてもよい。更に、ここでは医師等が被検眼を評価し、その評価結果を確率として数値化して入力することとしているが、評価結果は数値に限定されず、例えばランク付けすることで行ってもよい。即ち、ここで表示される対象は、医師等が被検眼の状態を評価することで得た評価情報であればよい。   Further, here, an example is shown in which the progress prediction value of the probability 725 is simply displayed as a numerical value. However, as another display example, if the symptom improves, it is blue or green, if there is not much change, it is black, if the symptom is likely to worsen, orange or red. You may change and display the color of a numerical value so that it may be easy. Further, instead of displaying as the probability 752, each point displayed in the graph 720 may be displayed in the above-described color to show the progress state of the symptom to the examiner. Further, here, the doctor or the like evaluates the eye to be inspected and numerically inputs the evaluation result as a probability, but the evaluation result is not limited to a numerical value, and may be ranked, for example. That is, the target displayed here may be evaluation information obtained by a doctor or the like evaluating the state of the eye to be inspected.

ステップS355では、演算処理部332により生成された結果を含めたグラフ720と、確率725とを含めたレポート画面が表示画面710に表示される。表示後、フローはステップS306に移行する。ステップS356では、演算処理部332が解析値等を生成できないため、ステップS351で得られた結果がそのまま表示部600に表示される。この場合、グラフ720には星印724が表示されず、確率725も表示されない、あるいは空欄として表示される。表示後、フローはステップS306に移行する。なお、ステップS336における表示において、確率725として、入力部700を介して医師等が評価値を入力することもできる。   In step S355, the report screen including the graph 720 including the result generated by the arithmetic processing unit 332 and the probability 725 is displayed on the display screen 710. After the display, the flow moves to step S306. In step S356, the arithmetic processing unit 332 cannot generate an analysis value or the like, so the result obtained in step S351 is displayed on the display unit 600 as it is. In this case, the star 724 is not displayed on the graph 720, the probability 725 is not displayed, or a blank is displayed. After the display, the flow moves to step S306. In addition, in the display in step S336, a doctor or the like can input the evaluation value as the probability 725 via the input unit 700.

上述したように、本実施例では、レポート画面の表示を行う処理において演算処理部332により将来の断層画像や解析値を生成する形態について説明している。しかし、演算処理部332が将来の断層画像や解析値を生成するタイミングはこれに限られない。ステップS304における計測処理が終了した段階で、過去の検査がある場合に断層画像あるいは解析値の生成を行って外部記憶装置500にこれを保存することとしてもよい。この場合、ステップS305の表示処理においては、保存されている断層画像あるいは解析値を読みだして表示するようにしてもよい。   As described above, in the present embodiment, the form in which the arithmetic processing unit 332 generates a future tomographic image and an analysis value in the process of displaying the report screen has been described. However, the timing at which the arithmetic processing unit 332 generates a future tomographic image or analysis value is not limited to this. At the stage where the measurement process in step S304 is completed, if there is a past examination, a tomographic image or an analysis value may be generated and stored in the external storage device 500. In this case, in the display process of step S305, the stored tomographic image or analysis value may be read and displayed.

ステップS306では、取得部301は、画像処理システム1による断層画像の撮影に係る一連の処理を終了するか否かの指示を外部から取得する。この指示は、入力部700を用いて、ユーザによって入力されることができる。処理を終了する指示を取得した場合には、画像処理システム1は本実施例に係る一連の処理を終了する。一方、取得部301が処理を終了しない指示を取得した場合には、フローをステップS302に戻して撮影を続行する。   In step S306, the acquisition unit 301 externally acquires an instruction as to whether or not to end a series of processes related to imaging of a tomographic image by the image processing system 1. This instruction can be input by the user using the input unit 700. When the instruction to end the process is acquired, the image processing system 1 ends the series of processes according to the present embodiment. On the other hand, when the acquisition unit 301 acquires an instruction not to end the process, the flow is returned to step S302 to continue shooting.

上述したように、本実施例に係る画像処理装置300は、取得手段(取得部301)と、生成手段(演算処理部332)とを備える。取得手段は、第一の時間に関連付いた被検眼の第一の断層に関するデータと、第一の時間より後の第二の時間に関連付いた被検眼の第二の断層に関するデータと、を取得する。第一の断層に関するデータは、第一の時間に被検眼を撮影して得た断層画像と、該断層画像から得られる複数種類の解析値(第一の解析値)とのうち少なくとも一つを含む。また、第二の断層に関するデータは、第二の時間に被検眼を撮影して得た断層画像と、該断層画像から得られる複数種類の解析値(第二の解析値)とのうち少なくとも一つを含む。   As described above, the image processing apparatus 300 according to the present embodiment includes the acquisition unit (acquisition unit 301) and the generation unit (arithmetic processing unit 332). The acquisition means, data relating to the first tomography of the eye to be examined associated with the first time, and data relating to the second tomography of the eye to be examined associated with the second time after the first time, get. The data regarding the first tomographic data is at least one of a tomographic image obtained by photographing the eye to be inspected at the first time and a plurality of types of analysis values (first analysis values) obtained from the tomographic image. Including. The data regarding the second tomographic image is at least one of a tomographic image obtained by photographing the eye to be inspected at the second time and a plurality of types of analysis values (second analysis values) obtained from the tomographic image. Including one.

演算処理部332は、学習済モデルを用いて、取得部301により取得された第一の断層に関するデータと第二の断層に関するデータとから、第二の時間より後の第三の時間における被検眼の複数種類の解析値の少なくとも一つを生成する。このとき、断層に関するデータには、複数種類の解析値が含まれる。なお、断層に関するデータには、複数種類の解析値を1つのデータセットとして取り扱った場合だけでなく、複数種類の解析値それぞれのデータを別々に取り扱う場合も含まれる。また、少なくとも一つの解析値は、学習済モデルを用いて生成された被検眼の断層画像(第三の断層に関するデータ)から演算・生成されることもできる。即ち、断層に関するデータは、断層画像或いは断層データであってもよい。この場合、上述した第一の時間に関連付いた断層画像と、第二の時間に関連付いた断層画像とを取得し、学習済モデルを用いてこれら断層画像から断層画像を生成し、生成された断層画像から特定の解析値を得ることとなる。なお、異なる時間における同一被検眼の断層画像を比較した場合、例えば病気の進行によって、特性の層が菲薄化すると同時に、当該層或いは周囲の層において曲率も変化している場合がある。即ち、学習済モデルに入力するデータとして同一被検眼から異なる時間に取得した断層画像そのものを用いることで、被検眼についての複数種類の解析値の変化がまとめて勘案されたような将来の断層画像を得ることとなる。上述したように、本発明は目の複合的な特徴を用いた診断補助の提供を目的とし、被検眼の複数種類の解析値を含む断層に関するデータであって、異なる時間に関連付いた2つのデータから学習済モデルを用いて特定の解析値を得ることとしている。従って、異なる時間に被検眼を撮影して得た2つの断層画像から学習済モデルを用いて生成される断層画像を解析することにより特定の解析値を得ることは、上述した異なる時間に関連付いた2つの断層に関するデータから特定の解析値を得ることと、同様の効果を得ることができる。なお、ここでは、第一の時間に関連付いた断層画像と、第二の時間に関連付いた断層画像とを取得し、学習済モデルを用いてこれら断層画像から断層画像を生成し、生成された断層画像から特定の解析値を得る例について述べた。しかし、2つの断層画像から断層画像を生成する学習モデルを用いるのではなく、2つの断層画像から直接的に解析値を生成する学習済モデルを用いてもよい。この場合、第一の時間に関連付いた断層画像と、第二の時間に関連付いた断層画像とを取得し、学習済モデルを用いてこれら断層画像から直接的に特定の解析値を得ることとなる。   The arithmetic processing unit 332 uses the learned model to extract the eye to be inspected at the third time after the second time from the data regarding the first tomography and the data regarding the second tomography acquired by the acquisition unit 301. At least one of a plurality of types of analysis values of is generated. At this time, the data regarding the fault includes a plurality of types of analysis values. The data regarding the fault includes not only the case where a plurality of types of analysis values are handled as one data set, but also the case where a plurality of types of analysis values are separately handled. Further, at least one analysis value can also be calculated / generated from a tomographic image of the eye to be inspected (data relating to the third tomographic image) generated using the learned model. That is, the data regarding the tomographic image may be a tomographic image or tomographic data. In this case, the tomographic image associated with the first time and the tomographic image associated with the second time described above are acquired, the tomographic image is generated from these tomographic images using the learned model, and the tomographic image is generated. A specific analysis value will be obtained from the tomographic image. When comparing tomographic images of the same eye to be inspected at different times, the characteristic layer may be thinned due to the progress of disease, for example, and at the same time, the curvature may be changed in the layer or the surrounding layers. That is, by using the tomographic images themselves acquired at different times from the same eye as the data to be input to the learned model, future tomographic images in which changes in multiple types of analysis values for the eye to be examined are collectively considered. Will be obtained. As described above, the present invention aims to provide a diagnostic aid using the complex features of the eye, and is data regarding a tomographic image including a plurality of types of analysis values of an eye to be examined, and two data associated with different times. A specific analysis value is to be obtained from the data using a trained model. Therefore, obtaining a specific analysis value by analyzing the tomographic images generated by using the learned model from the two tomographic images obtained by photographing the eye to be inspected at different times is related to the different times described above. The same effect can be obtained by obtaining a specific analysis value from data on two different faults. Here, a tomographic image associated with the first time and a tomographic image associated with the second time are acquired, a tomographic image is generated from these tomographic images using the learned model, and the tomographic image is generated. An example of obtaining a specific analysis value from a tomographic image was described. However, instead of using a learning model that generates a tomographic image from two tomographic images, a learned model that directly generates an analysis value from two tomographic images may be used. In this case, obtaining a tomographic image associated with the first time and a tomographic image associated with the second time, and obtaining a specific analysis value directly from these tomographic images using a trained model. Becomes

本実施例に係る学習済モデルは、入力データと教師データとからなる学習データを用いて得られる。入力データには、例えば第一の時間より前の第四の時間に被検眼を撮影して得た断層画像と、第一の時間より前で且つ該第四の時間より後の第五の時間に被検眼を撮影して得た断層画像とを用いる。また、教師データには、第一の時間より前で且つ第五の時間より後の第六の時間に被検眼を撮影して得た断層画像を用いる。   The learned model according to the present embodiment is obtained using learning data including input data and teacher data. The input data includes, for example, a tomographic image obtained by photographing the eye to be inspected at a fourth time before the first time and a fifth time before the first time and after the fourth time. And a tomographic image obtained by photographing the eye to be inspected. Further, as the teacher data, a tomographic image obtained by photographing the eye to be inspected at a sixth time before the first time and after the fifth time is used.

なお、演算処理部332において、学習済モデルに入力されるデータは、断層画像ではなく、被検眼の断層画像から得られる複数種類の解析値の各々であってもよい。この場合、学習済モデルにおける入力データの一つは、第一の時間より前の第四の時間に被検眼を撮影して得た断層画像から得られる複数種類の第四の解析値となる。また、もう一つの入力データは、第一の時間より前で且つ該第四の時間より後の第五の時間に被検眼を撮影して得た断層画像から得られる複数種類の第五の解析値となる。そして、教師データは、第一の時間より前で且つ第五の時間より後の第六の時間に被検眼を撮影して得た断層画像から得られる複数種類の第六の解析値となる。これら入力データおよび教師データを用いて学習すること、上述した学習済モデルが得られる。   The data input to the learned model in the arithmetic processing unit 332 may be each of a plurality of types of analysis values obtained from the tomographic image of the subject's eye instead of the tomographic image. In this case, one of the input data in the learned model is a plurality of types of fourth analysis values obtained from the tomographic image obtained by photographing the subject's eye at the fourth time before the first time. Further, another input data is a plurality of types of fifth analysis obtained from a tomographic image obtained by photographing the eye to be inspected at a fifth time before the first time and after the fourth time. It becomes a value. Then, the teacher data becomes a plurality of types of sixth analysis values obtained from the tomographic image obtained by imaging the subject's eye at the sixth time before the first time and after the fifth time. Learning by using these input data and teacher data, the learned model described above is obtained.

なお、上述した学習済モデルに入力されるデータと、学習済モデルを得るために用いる入力データとにおいて、第二の時間と第三の時間との間の経過時間と、第五の時間と第六の時間との間の経過時間とは略等しい。この場合、厳密に経過時間が同じである必要は無いが、例えば被検眼において注目する病状あるいは異常に応じて、ユーザが許容される相違量を適宜定めることができる。   In the data input to the learned model described above and the input data used to obtain the learned model, the elapsed time between the second time and the third time, the fifth time, and the Elapsed time between six times is almost equal. In this case, the elapsed times do not have to be exactly the same, but the amount of difference that the user can tolerate can be appropriately determined depending on, for example, the medical condition or abnormality of the eye to be examined.

また、本実施例に係る画像処理装置300の取得部301は、第一の時間および第二の時間における被検眼の状態に関する、上述した評価情報を取得できる。この場合、演算処理部332は、第三の時間における前記複数種類の解析値の少なくとも一つに併せて、第三の時間における評価情報を生成することができる。また、表示制御手段(表示制御部305)は、生成された評価情報を表示部600に表示させることができる。   Further, the acquisition unit 301 of the image processing apparatus 300 according to the present embodiment can acquire the above-described evaluation information regarding the state of the eye to be inspected at the first time and the second time. In this case, the arithmetic processing unit 332 can generate the evaluation information at the third time in combination with at least one of the plurality of types of analysis values at the third time. Further, the display control means (display control unit 305) can display the generated evaluation information on the display unit 600.

ここで、第一の断層に関するデータおよび第二の断層に関するデータが断層画像(断層データ)であった場合を考える。この場合、これら断層に関するデータからは、各々第一の時間に関連付いた第一の解析値および第二の時間に関連付いた第二の解析値が得られる。表示制御部305は、第三の時間における少なくとも一つの解析値と同じ種類の第一および第二の解析値、並びに前記第三の時間における少なくとも一つの解析値を用いてグラフ720を生成する。表示制御部305は、生成されたグラフ720を表示部600に表示させる。   Here, consider a case where the data regarding the first slice and the data regarding the second slice are tomographic images (tomographic data). In this case, the data relating to these faults provides a first analysis value and a second analysis value each associated with a first time. The display control unit 305 generates the graph 720 using the first and second analysis values of the same type as the at least one analysis value at the third time and the at least one analysis value at the third time. The display control unit 305 causes the display unit 600 to display the generated graph 720.

また、本実施例に係る画像処理装置300は、被検眼から第一の断層に関するデータおよび第二の断層に関するデータを取得する取得条件に基づいて学習済モデルを選択する選択手段(選択部334)をさらに備える。この場合、取得条件には、例えば撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式の少なくともいずれかが含まれる。   Further, the image processing apparatus 300 according to the present embodiment selects the learned model based on the acquisition condition for acquiring the data regarding the first slice and the data regarding the second slice from the eye to be examined (selecting unit 334). Is further provided. In this case, the acquisition condition includes, for example, at least one of a shooting date and time, a shooting region name, a shooting region, a shooting angle of view, and a shooting method.

本実施例によれば、被検眼を、少なくとも二つの異なる時間に撮影することで得た断層データや該断層データから得た解析値から、学習済モデルを用いてこの被検眼を将来に撮影した場合に得られる可能性の高い断層データあるいは解析値を得ることができる。従って、この被検眼の診断に際して、経過観察や治療方針等に対して診断補助に有効な情報を提示することができる。   According to this example, the eye to be inspected was imaged in the future using the learned model from the tomographic data obtained by imaging the eye to be examined at least two different times and the analysis values obtained from the tomographic data. It is possible to obtain fault data or analysis values that are likely to be obtained in some cases. Therefore, when diagnosing the eye to be inspected, it is possible to present information effective for assisting diagnosis for follow-up observation, treatment policy, and the like.

(実施例2)
実施例1においては、被検眼の断層画像や、該断層画像や眼底平面画像から求めた様々な解析値を用いて、被検眼の計測パラメータ各々についての複数の解析値を生成する例について示した。しかし、被検眼を検査する際に用いる被検眼に関する数値は、上述した断層画像から計測される解析値等に限られない。また、これら以外に被検眼で計測される計測値によっても被検眼の病状等、状態の推移を知ることができる。実施例2においては、他の検査(例えば、眼軸長や眼圧など)結果も含めて入力できる、学習済モデルを用いることとし、これにより各種解析値や計測値、さらには上述した評価値を生成する。
(Example 2)
In the first embodiment, an example of generating a plurality of analysis values for each measurement parameter of the eye to be examined using the tomographic image of the eye to be examined and various analysis values obtained from the tomographic image and the fundus plane image is shown. . However, the numerical values relating to the eye to be used when inspecting the eye are not limited to the analysis values and the like measured from the tomographic image described above. In addition to these, it is possible to know the transition of the condition such as the medical condition of the eye to be inspected by the measurement value measured by the eye to be inspected. In the second embodiment, a learned model that can be input including the results of other examinations (for example, axial length and intraocular pressure) is used, whereby various analysis values and measured values, and further the evaluation values described above are used. To generate.

以下、図8を参照して、本実施例に係る画像処理システム8について説明する。以下の説明においては、実施例1に係る画像処理システム1との違いを中心として説明する。なお、実施例1に係る画像処理システム1の構成および処理と同様である本実施例に係る画像処理システムの構成および処理については、同一の参照符号を用いて示し、ここでの説明を省略する。   Hereinafter, the image processing system 8 according to the present embodiment will be described with reference to FIG. In the following description, differences from the image processing system 1 according to the first embodiment will be mainly described. It should be noted that the configurations and processes of the image processing system according to the present embodiment that are the same as the configurations and processes of the image processing system 1 according to the first embodiment are denoted by the same reference numerals, and description thereof will be omitted here. .

図8は、本実施例に係る画像処理システム8の概略的な構成の一例を示す。本実施例に係る画像処理システム8では、画像処理装置800の処理部803において、演算処理部332に変えた本実施例に係る演算処理部832と、新たに設けられた計測値取得部835とが配される。   FIG. 8 shows an example of a schematic configuration of the image processing system 8 according to this embodiment. In the image processing system 8 according to the present embodiment, in the processing unit 803 of the image processing apparatus 800, the arithmetic processing unit 832 according to the present embodiment, which is replaced with the arithmetic processing unit 332, and the newly provided measurement value acquisition unit 835. Are arranged.

計測値取得部835は、被検眼に関する他の検査情報を取得する。具体的には、計測値取得部835は、例えばユーザーインターフェイスにより、ユーザが入力した計測値を取得するよい。また、ネットワークを介して電子カルテシステムと連携し、電子カルテシステムに登録された数値データを取得してもよい。あるいは、バーコードリーダーやRFIDリーダー等、外部リーダーから情報を取得してもよい。   The measurement value acquisition unit 835 acquires other inspection information regarding the eye to be inspected. Specifically, the measurement value acquisition unit 835 may acquire the measurement value input by the user using, for example, a user interface. Further, the numerical data registered in the electronic medical chart system may be acquired by cooperating with the electronic medical chart system via a network. Alternatively, the information may be acquired from an external reader such as a barcode reader or an RFID reader.

本実施例においては、実施例1の図5および図6で示した入出力のパラメータベクトル(c、h、x)の中身が異なる。すなわち、演算処理部832に入出力されるデータが異なる。実施例1では、学習や解析値生成時に用いたベクトルの中身では、断層画像あるいは該断層画像から得られた解析値をParamsとして用いていた。これに対し、本実施例では、断層画像あるいは該断層画像から得られた解析値だけではなく、眼軸長検査や眼圧検査等、画像を用いない眼部に関する検査データを入出力のパラメータベクトルに追加をして解析値等の生成を行う。   In this embodiment, the contents of the input / output parameter vectors (c, h, x) shown in FIGS. 5 and 6 of the first embodiment are different. That is, the data input / output to / from the arithmetic processing unit 832 is different. In the first embodiment, a tomographic image or an analytical value obtained from the tomographic image is used as Params in the contents of the vector used during learning and generation of the analytical value. On the other hand, in the present embodiment, not only the tomographic image or the analysis value obtained from the tomographic image, but also the input / output parameter vector of the inspection data regarding the eye part such as the axial length test and the intraocular pressure test that does not use the image. To generate analysis values.

例えば、実施例1ではParams1〜ParamsNとして、N個の解析値を用いた例を示した。これに対し、本実施例では、計測値取得部835が取得する計測値がM個だとすると、Params1〜ParamsNの解析値とParams1’〜ParamsMの計測値とを用いて学習を行うこととなる。演算処理部832は、これらN個の解析値と、M個の計測値とから学習データを取得し、これら学習データを用いて得られた学習済モデルを用いる。   For example, in Example 1, an example in which N analysis values are used as Params1 to ParamsN is shown. On the other hand, in the present embodiment, if the number of measurement values acquired by the measurement value acquisition unit 835 is M, learning is performed using the analysis values of Params1 to ParamsN and the measurement values of Params1 'to ParamsM. The arithmetic processing unit 832 acquires learning data from these N analysis values and M measurement values, and uses the learned model obtained by using these learning data.

本実施例に係る演算処理部832は、ディープラーニング等の任意の機械学習モデルに対して学習データを与えて作成された学習済モデルを含む。演算処理部832は、この学習済モデルに対して、第一の時間に被検眼を撮影することで得た断層データおよび計測値と、第一の時間の後の第二の時間に被検眼を撮影することで得た断層データおよび計測値とを入力する。演算処理部832は、これら断層データおよび計測値から、学習済モデルを用いて断層画像および計測値を生成する。生成された断層画像に対しては、画像処理部331において解析処理が行われ、該断層画像における複数種類の解析値が算出される。なお、この複数種類の解析値の算出は上述したエッジ強調処理等を用いて演算処理部832で行ってもよく、算出ではなく学習モデル済みを用いて解析値から直接生成することとしてもよい。   The arithmetic processing unit 832 according to the present embodiment includes a learned model created by giving learning data to an arbitrary machine learning model such as deep learning. The arithmetic processing unit 832 sets the tomographic data and the measurement value obtained by imaging the eye to be inspected at the first time and the eye to be inspected at the second time after the first time for the learned model. The tomographic data and the measurement value obtained by photographing are input. The arithmetic processing unit 832 generates a tomographic image and a measured value from the tomographic data and the measured value using the learned model. The image processing unit 331 performs analysis processing on the generated tomographic image to calculate a plurality of types of analysis values in the tomographic image. Note that the calculation of the plurality of types of analysis values may be performed by the arithmetic processing unit 832 using the above-described edge enhancement processing or the like, and may be directly generated from the analysis values by using learning model completion instead of calculation.

ここで、本実施例における学習済モデルを得る際のトレーニングに用いる学習データについて説明する。学習データは、実際に学習済モデルに入力されるデータに対応する入力データと、学習済モデルによって生成されるデータに対応する教師データとからなる。実施例1では、入力データとして、第一の時間と該第一の時間より後の第二の時間の少なくとも二つの時間に、同一被検眼を同じ撮影条件で撮影して得た二つの断層画像、あるいは該断層画像から得た複数種類の解析値からなる二つの検査結果を用いる。本実施例では、さらに第一の時間に同一被検眼が計測されて得た計測値と、第二の時間に計測されて得た計測値とを、併せて入力データとする。また、教師データとして、第二の時間よりもさらに後の第三の時間に、同一被検眼を同じ撮影条件で撮影して得た断層画像あるいは該断層画像から得た複数種類の解析値からなる検査結果と、第三の時間に計測されて得た第三の計測値とを用いる。   Here, the learning data used for training when obtaining the learned model in the present embodiment will be described. The learning data is composed of input data corresponding to the data actually input to the learned model and teacher data corresponding to the data generated by the learned model. In the first embodiment, as input data, two tomographic images obtained by photographing the same eye under the same photographing condition at least two times of the first time and the second time after the first time. Alternatively, two inspection results including a plurality of types of analysis values obtained from the tomographic image are used. In the present embodiment, the measurement value obtained by measuring the same eye to be examined at the first time and the measurement value obtained by measuring at the second time are also used as input data. Further, as teacher data, it is composed of a tomographic image obtained by photographing the same eye under the same photographing condition at a third time after the second time or a plurality of types of analysis values obtained from the tomographic image. The inspection result and the third measurement value obtained by measuring at the third time are used.

学習済モデルを得る際には、ここで述べたように、過去の少なくとも三つの時点で予め得られている検査結果および計測結果を学習データに用いて学習を行う。そして、この学習済モデルを用いる際には、学習済モデルの生成時に用いた入力データに対応する過去の第一の時間と第二の時間との時間間隔で得られている二つの検査結果および計測結果を入力する。教師データは、学習済モデルから生成される解析値等および計測結果と対応する。すなわち、学習済モデルを用いることで、上述した第二の時間と第三の時間との時間間隔に対応する数か月から数年先において、この被検眼から得られる可能性の高い解析値と計測値とを得ることができる。   When obtaining a learned model, learning is performed using the inspection results and measurement results obtained in advance at least at three points in the past, as learning data, as described here. Then, when using this learned model, two inspection results obtained at the time interval between the first time and the second time in the past corresponding to the input data used when the learned model is generated, and Enter the measurement result. The teacher data corresponds to analysis values and the like and measurement results generated from the learned model. That is, by using the learned model, in the several months to several years ahead corresponding to the time interval between the second time and the third time described above, with an analysis value that is likely to be obtained from this eye, The measured value can be obtained.

なお、ここでは断層画像の取得時と計測値の取得時は例えば第一の時間で同じと称している。しかし、例えば緑内障等、病変が緩やかに進行する被検眼が対象となる場合であれば、断層画像と計測値との取得とは、厳密に同じ時間で無くともよい。例えば、数日の間隔があっても、病状の推移に鑑みて許容できる場合がある。   It should be noted that, here, the acquisition of the tomographic image and the acquisition of the measurement value are said to be the same for the first time, for example. However, for example, when the subject eye such as glaucoma in which the lesion gradually progresses is targeted, the acquisition of the tomographic image and the measurement value may not be exactly the same time. For example, even if there is an interval of several days, it may be acceptable in view of the transition of the medical condition.

例えば、緑内障についての検査では、断層画像からの解析値で得られる情報に加え、眼圧値や強度近視眼での眼軸長等が有効である。本実施例によれば、断層画像から得られる解析値だけではなく、被検眼に関する他の種類の計測パラメータについての計測値を用いて、将来的な被検眼についての解析値や計測値を生成することができる。また、医師等はこれら計測値も参照した上で上述した評価値を定め、演算処理部832は学習済モデルを用いて将来想定される評価値を生成する。従って、緑内障を例とした場合、その症状をより適切に判断できる計測値も参照することで、医師等の診断に際して、より確度の高い診断補助データを提供することができる。   For example, in an examination for glaucoma, in addition to the information obtained from the analysis value from the tomographic image, the intraocular pressure value, the axial length of the intense myopic eye, and the like are effective. According to the present embodiment, not only the analysis value obtained from the tomographic image but also the measurement value for the other type of measurement parameter regarding the eye to be examined is used to generate the analysis value or the measurement value for the future eye to be examined. be able to. Further, the doctor or the like determines the above-described evaluation value by also referring to these measured values, and the arithmetic processing unit 832 uses the learned model to generate an evaluation value expected in the future. Therefore, in the case of glaucoma as an example, by referring to the measured value that can more appropriately determine the symptom, it is possible to provide more accurate diagnosis assistance data when making a diagnosis by a doctor or the like.

なお、計測値として、ここでは眼軸長や眼圧を例示した。しかし、本実施例において用いる計測値を得る計測パラメータはこれらに限らず、視野データや視力データ等を用いることもできる。また、ここでは、断層画像から得られた解析値と断層画像を解析する以外の手段によって得られた計測値との両方を入力データとする例について述べた。しかし、入力データあるいは入力されるデータはこれに限られない。例えば、演算処理部832が、断層画像から得た解析値を用いずに、計測値だけを用いて将来的に計測され得る計測値を生成することとしてもよい。   As the measured values, the axial length and the intraocular pressure are exemplified here. However, the measurement parameters for obtaining the measurement values used in this embodiment are not limited to these, and visual field data, visual acuity data, and the like can be used. Further, here, the example in which both the analysis value obtained from the tomographic image and the measurement value obtained by means other than the analysis of the tomographic image are used as the input data have been described. However, the input data or the input data is not limited to this. For example, the arithmetic processing unit 832 may generate a measurement value that can be measured in the future using only the measurement value without using the analysis value obtained from the tomographic image.

上述したように、本実施例に係る取得部301は、実施例1で述べた解析値等に加え、第一の時間に関連付いた被検眼の第一の計測値と、第二の時間に関連付いた被検眼の第二の計測値とをさらに取得する。演算処理部832は、第一の断層に関するデータと、第一の計測値と、第二の断層に関するデータと、第二の計測値とから、第三の時間における複数種類の解析値の少なくとも一つを生成する。なお、演算処理部832が少なくとも一つの計測値を生成することとしてもよい。また、実施例1と同様に、学習済モデルに入力するデータに評価情報を加え、演算処理部832が評価情報も併せて生成することとしてもよい。この場合、評価情報のみを生成、表示することもできる。   As described above, the acquisition unit 301 according to the present embodiment, in addition to the analysis value described in the first embodiment, the first measurement value of the eye to be examined associated with the first time, and the second time The second measurement value of the eye to be inspected is further acquired. The arithmetic processing unit 832 determines at least one of a plurality of types of analysis values at the third time from the data regarding the first fault, the first measurement value, the data regarding the second fault, and the second measurement value. Generate one. The arithmetic processing unit 832 may generate at least one measurement value. Further, as in the first embodiment, the evaluation information may be added to the data input to the learned model, and the arithmetic processing unit 832 may also generate the evaluation information. In this case, only the evaluation information can be generated and displayed.

あるいは、本実施例に係る取得部301は、第一の時間に関連付いた被検眼の第一の計測値と、第二の時間に関連付いた被検眼の第二の計測値とを取得する態様とすることもできる。この場合、演算処理部832は、計測値のみを用いた学習済モデルを予め得ておき、これに第一の計測値および第二の計測値を入力することで、第三の時間における複数種類の計測値の少なくとも一つを生成することもできる。この場合、さらに、入力するデータおよび生成されるデータとして評価情報を含めることもできる。また、ここでは入力するデータや学習済モデル生成のための入力データとして断層データ(断層画像)を用いる場合について述べているが、複数の解析値を用いることもできる。   Alternatively, the acquisition unit 301 according to the present embodiment acquires the first measurement value of the eye to be examined associated with the first time and the second measurement value of the eye to be examined associated with the second time. It can also be an aspect. In this case, the arithmetic processing unit 832 obtains a learned model that uses only the measured values in advance, and inputs the first measured value and the second measured value into the learned model, thereby obtaining a plurality of types in the third time period. It is also possible to generate at least one of the measured values of. In this case, the evaluation information can be further included as input data and generated data. Further, although the case where the tomographic data (tomographic image) is used as the input data or the input data for generating the learned model is described here, a plurality of analysis values can be used.

本実施例によれば、実施例1で用いた断層データやその解析値だけなく、眼軸長や眼圧等の被検眼のその他の計測値も用いて、学習済モデルにより被検眼から将来に得られる可能性の高い断層データ、その解析値、および計測値を得ることができる。従って、この被検眼の診断に際して、経過観察や治療方針等にたいして診断補助にさらに有効な情報を提示することができる。   According to the present embodiment, not only the tomographic data and the analysis value thereof used in the first embodiment but also other measured values of the eye to be inspected such as the axial length and the intraocular pressure are used, and the eye to be examined in the future by the learned model It is possible to obtain tomographic data that is highly likely to be obtained, its analysis value, and the measurement value. Therefore, in diagnosing the eye to be inspected, it is possible to present more effective information as a diagnostic aid for follow-up observation, treatment policy, and the like.

(実施例3)
実施例1および実施例2においては、被検眼を撮影することで得た断層画像、該断層画像から得た解析値、および被検眼を計測して得た計測値を用いて、被検眼の診断の補助となる情報を提示する例について示した。しかし、実際に被検眼に病変や異常が存在する場合、医師等がこれをそのまま放置して経過を観察することはまれであり、状況に応じて投薬、手術等の治療を被検眼に施す。実施例3においては、治療の有無も含めて、学習済モデルを用いることとし、治療も参照して各種解析値を生成する。また、例えば治療の効果を確認する目的で、将来的な被検眼の病状等の状態に関する評価値を生成する。
(Example 3)
In Example 1 and Example 2, diagnosis of the eye to be examined is performed using the tomographic image obtained by imaging the eye to be examined, the analysis value obtained from the tomographic image, and the measurement value obtained by measuring the eye to be examined. An example of presenting information to assist the above was shown. However, when there is a lesion or abnormality in the eye to be inspected, it is rare for a doctor or the like to leave it as it is and observe the progress, and treatment such as medication and surgery is given to the eye to be inspected depending on the situation. In the third embodiment, the learned model is used including the presence / absence of treatment, and various analysis values are generated with reference to the treatment. In addition, for example, for the purpose of confirming the effect of the treatment, an evaluation value relating to a future state of the eye to be examined such as a medical condition is generated.

以下、図9および図10を参照して、本実施例に係る画像処理システム9、および表示部に表示されるレポート画面について説明する。以下の説明においては、実施例1および実施例2に係る画像処理システムとの違いを中心として説明する。なお、実施例1および実施例2に係る画像処理システム1および8の構成および処理と同様である本実施例に係る画像処理システム9の構成および処理については、同一の参照符号を用いて示し、ここでの説明を省略する。   The image processing system 9 according to the present embodiment and the report screen displayed on the display unit will be described below with reference to FIGS. 9 and 10. In the following description, differences from the image processing systems according to the first and second embodiments will be mainly described. It should be noted that the configuration and processing of the image processing system 9 according to the present embodiment, which are similar to the configurations and processing of the image processing systems 1 and 8 according to the first and second embodiments, are denoted by the same reference numerals, The description here is omitted.

図9に、本実施例に係る画像処理システム9の概略的な構成の一例を示す。本実施例に係る画像処理システム9では、画像処理装置900の処理部903において、演算処理部332に変えた本実施例に係る演算処理部932と、新たに設けられた治療情報取得部935とが配される。   FIG. 9 shows an example of a schematic configuration of the image processing system 9 according to the present embodiment. In the image processing system 9 according to the present embodiment, in the processing unit 903 of the image processing apparatus 900, the arithmetic processing unit 932 according to the present embodiment, which is replaced with the arithmetic processing unit 332, and the newly provided treatment information acquisition unit 935. Are arranged.

治療情報取得部935は、被検眼の治療に関する情報を取得する。具体的には、治療情報取得部935は、例えばユーザーインターフェイスにより、ユーザが入力した計測値を取得するとよい。また、ネットワークを介して電子カルテシステムと連携し、電子カルテシステムに登録された数値データを取得してもよい。あるいは、バーコードリーダーやRFIDリーダー等、外部リーダーから情報を取得してもよい。   The treatment information acquisition unit 935 acquires information regarding treatment of the eye to be inspected. Specifically, the treatment information acquisition unit 935 may acquire the measurement value input by the user through, for example, the user interface. Further, the numerical data registered in the electronic medical chart system may be acquired by cooperating with the electronic medical chart system via a network. Alternatively, the information may be acquired from an external reader such as a barcode reader or an RFID reader.

本実施例においては、実施例1の図5および図6で示した入出力のパラメータベクトル(c、h、x)の中身が異なる。すなわち、演算処理部932に入出力されるデータが異なる。実施例1では、学習や解析値生成時に用いたベクトルの中身では、断層画像あるいは該断層画像から得られた解析値をParamsとして用いていた。これに対し、本実施例では、断層画像あるいは該断層画像から得られた解析値だけではなく、医師等が規定した被検眼の状態に関する評価値、および治療方法を入出力のパラメータベクトルに追加をして解析値の生成を行う。   In this embodiment, the contents of the input / output parameter vectors (c, h, x) shown in FIGS. 5 and 6 of the first embodiment are different. That is, the data input / output to / from the arithmetic processing unit 932 is different. In the first embodiment, a tomographic image or an analytical value obtained from the tomographic image is used as Params in the contents of the vector used during learning and generation of the analytical value. On the other hand, in the present embodiment, not only the tomographic image or the analysis value obtained from the tomographic image but also the evaluation value regarding the state of the eye to be inspected defined by the doctor and the treatment method should be added to the input / output parameter vector. Then, the analysis value is generated.

例えば、実施例1ではParams1〜ParamsNとして、N個の解析値を用いた例を示した。これに対し、本実施例では、治療情報取得部935が取得する情報が、手術の手法や、投薬の種類等の治療の内容に関する情報Sだとすると、Params1〜ParamsNの解析値とParamsSとを用いて学習を行うこととなる。演算処理部932は、これらN個の解析値と、治療に関する情報Sとから学習データを取得し、これら学習データを用いて得られた学習済モデルを用いる。   For example, in Example 1, an example in which N analysis values are used as Params1 to ParamsN is shown. On the other hand, in the present embodiment, if the information acquired by the treatment information acquisition unit 935 is the information S related to the content of the treatment such as the surgical technique and the type of medication, the analysis values of Params1 to ParamsN and ParamsS are used. You will be learning. The arithmetic processing unit 932 acquires learning data from these N analysis values and the information S regarding treatment, and uses a learned model obtained by using these learning data.

次に図10を参照して、本実施例に係る表示部600に表示する画面の一例を示す。本実施例において、表示画面1010には、第二のセレクタ1021がセレクタ721に併せて表示される。ここでは、Params1についての時系列のグラフ1020において、現時点で第二のセレクタ1021によって選択された治療1が被検眼に実施された場合の例を示している。グラフ720には、白丸1023に示される時点において治療1が被検眼に施された場合、将来の網膜厚の予測値は星印1024となることが示される。   Next, with reference to FIG. 10, an example of a screen displayed on the display unit 600 according to the present embodiment is shown. In this embodiment, the display screen 1010 displays the second selector 1021 together with the selector 721. Here, in the time-series graph 1020 for Params1, an example is shown in which the treatment 1 selected by the second selector 1021 at the present time is performed on the eye to be inspected. The graph 720 shows that when the treatment 1 is applied to the subject's eye at the time indicated by the white circle 1023, the predicted value of the retinal thickness in the future becomes an asterisk 1024.

本実施例において、例えば、被検眼に対してある治療(例えば投薬)を実施する場合、撮影によって得られた解析値に基づいて、選択している計測パラメータの将来的な解析値を得ることができる。さらに、第二のセレクタ1021を切り替えることで治療の種類が選択でき、選択した治療に応じて、星印1024として得られる解析値や進行予測値である確率1025が変化する。   In the present embodiment, for example, when performing a certain treatment (for example, medication) on the eye to be examined, it is possible to obtain a future analysis value of the selected measurement parameter based on the analysis value obtained by imaging. it can. Further, the type of treatment can be selected by switching the second selector 1021, and the analysis value obtained as an asterisk 1024 and the probability 1025 which is a predicted progress value change depending on the selected treatment.

本実施例において、演算処理部は、学習済モデルを用いて、第一の時間に被検眼を撮影することで得た断層データと、第一の時間の後の第二の時間に被検眼を撮影することで得た断層データとから、第二の時間より後の第三の時間で撮影される断層画像を生成する。その際、第一の時間および第二の時間の少なくともいずれかにおいて被検眼に治療が施された場合、断層データに併せてこの治療に関しても学習済モデルに入力される。生成された断層画像に対しては、画像処理部331において解析処理が行われ、該断層画像における複数種類の解析値が算出される。なお、この複数種類の解析値の算出は演算処理部332で行ってもよく、算出ではなく学習済モデルを用いて生成することとしてもよい。   In the present embodiment, the arithmetic processing unit uses the learned model to obtain the tomographic data obtained by imaging the eye to be inspected at the first time and the eye to be inspected at the second time after the first time. A tomographic image captured at a third time after the second time is generated from the tomographic data obtained by the imaging. At that time, when the subject's eye is treated at at least one of the first time and the second time, this treatment is also input to the learned model together with the tomographic data. The image processing unit 331 performs analysis processing on the generated tomographic image to calculate a plurality of types of analysis values in the tomographic image. The calculation of the plurality of types of analysis values may be performed by the arithmetic processing unit 332, and may be generated using a learned model instead of calculation.

さらに、第一の時間および第二の時間の少なくともいずれかにおける被検眼の評価値も学習済モデルに入力されるとよい。これにより、被検眼に施した治療がどのような効果を発現させるかが、生成された評価値により数値的に把握することができる。なお、治療の有無を表すデータは、例えば、治療していない時は0、治療をした時には1等として学習済モデルに入力するとよい。さらにこの場合、治療をしたかしないかというだけではなく、治療の種類(例えば、投薬治療、手術等)に応じて、入力値を2や3とするようにしてもよい。   Furthermore, the evaluation value of the subject's eye at at least one of the first time and the second time may be input to the learned model. With this, it is possible to numerically grasp what effect the treatment applied to the subject's eye has on the generated evaluation value. The data indicating the presence or absence of the treatment may be input to the learned model as 0 when the treatment is not performed and 1 when the treatment is performed. Furthermore, in this case, the input value may be set to 2 or 3 depending on the type of treatment (for example, medication treatment, surgery, etc.) as well as whether or not the treatment is performed.

ここで、本実施例における学習済モデルを得る際のトレーニングに用いる学習データについて説明する。実施例1では、入力データとして、第一の時間と該第一の時間より後の第二の時間の少なくとも二つの時間に、同一被検眼を同じ撮影条件で撮影して得た二つの断層画像およびその評価情報を用いることができる。あるいは、二つの断層画像に変えて、該断層画像から得た複数種類の解析値からなる二つの検査結果およびその評価情報を用いることもできる。本実施例では、さらに第一の時間および第二の時間の少なくともいずれかにおいて被検眼に施された治療の内容を、併せて入力データとする。また、教師データとして、第二の時間よりもさらに後の第三の時間に、同一被検眼を同じ撮影条件で撮影して得た断層画像あるいは該断層画像から得た複数種類の解析値からなる検査結果と、第三の時間における被検眼の評価情報とを用いる。   Here, the learning data used for training when obtaining the learned model in the present embodiment will be described. In the first embodiment, as input data, two tomographic images obtained by photographing the same eye under the same photographing condition at least two times of the first time and the second time after the first time. And its evaluation information can be used. Alternatively, instead of two tomographic images, it is also possible to use two inspection results consisting of a plurality of types of analysis values obtained from the tomographic images and their evaluation information. In the present embodiment, the content of the treatment performed on the subject's eye at least at either the first time or the second time is also used as input data. Further, as teacher data, it is composed of a tomographic image obtained by photographing the same eye under the same photographing condition at a third time after the second time or a plurality of types of analysis values obtained from the tomographic image. The inspection result and the evaluation information of the eye to be examined at the third time are used.

学習済モデルを得る際には、ここで述べたように、過去の少なくとも三つの時点で予め得られている検査結果およびその評価情報を学習データに用いて学習を行う。そして、この学習済モデルを用いる際には、学習済モデルの生成時に用いた入力データに対応する過去の第一の時間と第二の時間とで得られている二つの検査結果、およびいずれかの時間での被検眼の評価情報、および治療に関する情報を入力する。教師データは、学習済モデルから生成される解析値等および評価情報と対応する。すなわち、学習済モデルを用いることで、上述した第二の時間と第三の時間との時間間隔に対応する数か月から数年先において、この被検眼から得られる可能性の高い解析値とその際の被検眼の評価情報とを得ることができる。   When obtaining the learned model, as described here, learning is performed by using the inspection result and the evaluation information thereof obtained in advance at least at three points in the past as learning data. When using this learned model, two inspection results obtained at the past first time and second time corresponding to the input data used when the learned model is generated, and either Enter the evaluation information of the eye to be examined at the time and information on the treatment. The teacher data corresponds to analysis values and the like generated from the learned model and evaluation information. That is, by using the learned model, in the several months to several years ahead corresponding to the time interval between the second time and the third time described above, with an analysis value that is likely to be obtained from this eye, The evaluation information of the eye to be inspected at that time can be obtained.

より具体的には、例えば、上述した第一の時間にて緑内障を有する被検眼に対して特定の薬が与えられた場合、入力されるデータの一つはその際の被検眼の断層画像から得られる解析値と、その際の被検眼の評価情報と、投薬を示すフラグとなる。また、第二の時間では投薬がされなかった場合、入力されるデータのもう一つは、その際の被検眼の断層画像から得られる解析値と、その際の被検眼の評価情報となる。これに対し、学習済モデルを用いた結果、同一被検眼において、第二の時間の後の第三の時間に撮影された断層画像の解析値と、その際の被検眼の評価情報とが生成される。   More specifically, for example, when a specific drug is given to the eye to be inspected having glaucoma at the above-mentioned first time, one of the input data is from the tomographic image of the eye to be inspected at that time. The obtained analysis value, evaluation information of the eye to be inspected at that time, and a flag indicating medication are provided. Further, when the medication is not administered in the second time, another input data is an analysis value obtained from the tomographic image of the eye to be inspected at that time and evaluation information of the eye to be inspected at that time. On the other hand, as a result of using the learned model, the analysis value of the tomographic image captured at the third time after the second time and the evaluation information of the eye at that time are generated in the same eye. To be done.

この場合の学習済モデルの生成に用いる学習データには、上述した特定の薬が与えられたことがあり、且つ予め時系列の解析値が得られている被検眼についてのデータが用いられる。実際の入力データとしては、投薬時の解析値と評価情報が入力データの一つとなる。また入力データのもう一つには、投薬から、第一の時間と第二の時間との時間間隔と略等しい時間間隔を隔てて被検眼を撮影して得られた解析値、およびその際の評価情報となる。さらに、教師データには、第二の時間と第三の時間との時間間隔と略等しい時間間隔を隔てて被検眼を撮影して得られた解析値、およびその際の評価情報となる。なお、この時間間隔は厳密に一致する必要は無く、例えば病気の進行速度等に応じて、数日から数週間程度の誤差が有っても許容される場合がある。   In this case, as the learning data used to generate the learned model, the data of the eye to be inspected, to which the above-mentioned specific medicine has been given and whose time series analysis values have been obtained in advance, is used. As actual input data, the analysis value at the time of medication and the evaluation information are one of the input data. In addition, the other input data is an analysis value obtained by photographing the eye to be examined at a time interval substantially equal to the time interval between the first time and the second time from the administration, and at that time. It becomes evaluation information. Further, the teacher data is an analysis value obtained by photographing the eye to be examined at a time interval substantially equal to the time interval between the second time and the third time, and evaluation information at that time. Note that this time interval does not have to be exactly the same, and there may be an error of several days to several weeks depending on, for example, the rate of progress of the disease.

なお、ここでは第一の時間において投薬が行われた場合を例として本実施例に係る学習済モデルを得る際に用いた学習データ、および該学習済モデルに入力するデータと生成される結果について述べた。しかし、投薬等、治療のタイミングはここで述べた例に限られず、第二の時間に行われてもよく、第一の時間および第二の時間の両方で行われてもよい。この場合、対応する学習済モデルを予め得ておくことにより、治療の結果得られる可能性の高い解析値と評価情報とを得ることができる。   Note that, here, with respect to the learning data used when obtaining the learned model according to the present example and the data to be input to the learned model and the generated result, the case where the medication is performed in the first time is taken as an example. Stated. However, the timing of treatment such as medication is not limited to the example described here, and may be performed at the second time or both the first time and the second time. In this case, by obtaining the corresponding learned model in advance, it is possible to obtain the analysis value and the evaluation information that are likely to be obtained as a result of the treatment.

上述したように、本実施例に治療情報取得部935は、被検眼に対して第一の時間および第二の時間の少なくともいずれかで行われた治療に関する情報を取得する。この場合の治療は、第一の断層に関するデータおよび第二の断層に関するデータの少なくともいずれかと関連付けられている。本実施例において、演算処理部932は、第一の断層に関するデータと、第二の断層に関するデータと、少なくともこれらデータのいずれかと関連付けられた治療に関する情報とから、第三の時間における複数種類の解析値の少なくとも一つを生成する。なお、ここで述べた断層に関するデータは、断層画像から得た上述した複数の解析値であってもよく、断層データ(断層画像)であってもよい。   As described above, the treatment information acquisition unit 935 according to the present embodiment acquires information regarding the treatment performed on at least one of the first time and the second time for the eye to be inspected. The treatment in this case is associated with the data regarding the first slice and / or the data regarding the second slice. In the present embodiment, the arithmetic processing unit 932 determines a plurality of types at the third time from the data regarding the first slice, the data regarding the second slice, and the information regarding the treatment associated with at least one of these data. Generate at least one of the parsed values. The data relating to the tomography described here may be the above-described plurality of analysis values obtained from the tomographic image, or may be tomographic data (tomographic image).

なお、本実施例に係る画像処理装置900は、実施例1で述べた断層画像およびその解析値、並びに実施例2で述べた計測値を演算処理部に入力する態様に限られない。例えば、被検眼についての評価情報と、被検眼の状態を示す少なくとも一つの被検眼情報と、被検眼の治療に関する情報とを演算処理部932に入力する態様としてもよい。   The image processing apparatus 900 according to the present embodiment is not limited to the mode in which the tomographic image and the analysis value thereof described in the first embodiment and the measurement value described in the second embodiment are input to the arithmetic processing unit. For example, the aspect may be such that evaluation information about the eye to be examined, at least one piece of eye information indicating the state of the eye to be examined, and information regarding treatment of the eye to be examined are input to the arithmetic processing unit 932.

この場合、評価対象は、第一の時間および第一の時間よりも後の第二の時間の少なくともいずれかにおいて治療が施された被検眼となる。治療情報取得部935は、この治療に関する情報を取得する。演算処理部932は、第一の時間に関連付いた被検眼の第一の計測データと、第二の時間に関連付いた被検眼の第二の計測データと、を例えば断層画像から演算する。なお、ここでは、実施例1述べた被検眼の断層画像等の画像解析により得た解析値と、実施例2で述べた被検眼を計測することにより得た計測値とを含み、実際に被検眼から得たデータを計測データとする。演算処理部932は、第一の時間および第二の時間の少なくともいずれかに関連づいた評価情報を、これら第一および第二の計測データと、治療に関する情報とを、学習済モデルに入力する。学習済モデルは、これら入力された計測データ及び情報を用いて、被検眼の、第二の時間より後の第三の時間の評価情報を生成することもできる。   In this case, the subject to be evaluated is the eye to be inspected, which has been treated at at least one of the first time and the second time after the first time. The treatment information acquisition part 935 acquires the information regarding this treatment. The arithmetic processing unit 932 calculates first measurement data of the eye to be examined associated with the first time and second measurement data of the eye to be examined associated with the second time from, for example, a tomographic image. It should be noted that here, the analysis value obtained by the image analysis of the tomographic image of the eye to be examined described in Example 1 and the measurement value obtained by measuring the eye to be examined described in Example 2 are included and actually measured. The data obtained from the optometry is used as the measurement data. The arithmetic processing unit 932 inputs the evaluation information associated with at least one of the first time and the second time into the learned model, with the first and second measurement data and the information regarding the treatment. . The learned model can also generate the evaluation information of the eye to be inspected at the third time after the second time by using the input measurement data and information.

なお、この場合、表示制御部305は、演算処理部932は、学習済モデルを用いて生成した被検眼の第三の時間に得られるであろうと予測される計測データである、第三の時間における第三の計測データを生成する。表示制御部305は、この生成された第三の計測データと、第一の計測データおよび前記第二の計測データと、を用いてグラフ1020を生成する。表示制御部305はこのグラフ1020を表示部600における表示画面1010に表示させることができる。また、その際、表示制御部305は、この表示画面1010に生成された第三の時間の評価情報(確率1025)と、治療の種類(第二のセレクタ1021)と、を併せて表示させることができる。その際、治療の種類としては、手術および投薬の少なくともいずれかを含むことができる。また、被検眼の状態に関する評価情報は、断層画像、その解析値、上述した計測値、或いはその他の観察画像等に基づいて、医師等のユーザが被検眼の診断結果として提示する情報であって、ユーザによって入力される。   In this case, the display control unit 305, the arithmetic processing unit 932 is the measurement data predicted to be obtained at the third time of the subject's eye generated using the learned model, the third time Generate the third measurement data in. The display control unit 305 generates the graph 1020 using the generated third measurement data, the first measurement data, and the second measurement data. The display control unit 305 can display the graph 1020 on the display screen 1010 of the display unit 600. Further, at that time, the display control unit 305 also displays the evaluation information (probability 1025) of the third time generated on the display screen 1010 and the type of treatment (second selector 1021) together. You can At this time, the type of treatment may include surgery and / or medication. Further, the evaluation information regarding the state of the eye to be inspected is information presented by a user such as a doctor as a diagnosis result of the eye to be inspected, based on a tomographic image, its analysis value, the above-mentioned measured value, or other observation image. , Entered by the user.

本実施例によれば、実施例1で用いた断層データやその解析値だけでなく、被検眼に施した治療の有無も用いて、学習済モデルにより被検眼から将来に得られる可能性の高い断層データ、その解析値、および被検眼の状態を示す評価情報を得ることができる。従って、この被検眼の診断に際し、治療によって被検眼の状態がどのように推移するかについての可能性を医師等に提示できることとなり、経過観察や治療方針等に対して診断補助にさらに有効な情報を提示することができる。   According to the present embodiment, not only the tomographic data and the analysis value thereof used in the first embodiment but also the presence / absence of the treatment applied to the eye to be examined are used, and there is a high possibility that the learned model can be obtained from the eye to be examined in the future. It is possible to obtain the tomographic data, the analysis value thereof, and the evaluation information indicating the state of the eye to be inspected. Therefore, when diagnosing the eye to be inspected, it is possible to present the possibility of how the state of the eye to be inspected by treatment to a doctor, etc., and more effective information for assisting diagnosis for follow-up observation, treatment policy, etc. Can be presented.

(変形例1)
実施例1乃至3では、取得部301がOCT装置200で被検眼を撮影することで得た断層データを取得し、画像処理装置はこの断層データを用いて上述した解析値等の生成を行っている。しかし、取得部301がこれら断層データを取得する構成はこれに限られない。例えば、既に撮影がされており、外部記憶装置500等、画像処理装置とLAN、WAN、又はインターネット等を介して接続されるサーバに記憶されている断層データを取得部301が取得し、該断層データ用いて上述した一連の処理を行ってもよい。その場合、撮影に関する処理を省略し、その代わりに撮影済みの断層画像を取得する。そして、ステップS304で網膜層の検出と網膜厚の計測等を行う。これにより、撮影時に処理をしなくても、必要な時に網膜層の検出を実行することができ、撮影時には撮影だけに集中することができる。
(Modification 1)
In the first to third embodiments, the acquisition unit 301 acquires the tomographic data obtained by imaging the eye to be inspected by the OCT apparatus 200, and the image processing apparatus uses the tomographic data to generate the above-described analysis values and the like. There is. However, the configuration in which the acquisition unit 301 acquires these tomographic data is not limited to this. For example, the acquisition unit 301 acquires the tomographic data that has already been photographed and has been stored in a server that is connected to the image processing device such as the external storage device 500 via a LAN, WAN, or the Internet, and the tomographic data is acquired. You may perform the series of processes mentioned above using data. In that case, the processing relating to imaging is omitted, and instead, a tomographic image that has already been captured is acquired. Then, in step S304, the retinal layer is detected and the retinal thickness is measured. Accordingly, the detection of the retinal layer can be performed when necessary without performing processing at the time of shooting, and it is possible to concentrate only on shooting at the time of shooting.

(変形例2)
実施例1では、断層データあるいは該断層データから得られた解析値、さらには被検眼の評価情報を学習済モデルに入力することにより、将来得られる可能性の高い解析値および評価情報を得る画像処理装置について述べた。また、実施例2では、断層データあるいは該断層データから得られた解析値に併せて被検眼の計測値を学習済モデルに入力することにより、将来得られる可能性の高い解析値および計測値を得る画像処理装置について述べた。しかし、本発明の態様はこれら実施例に限定されず、例えば被検眼の計測値と該計測値を参照して得られた評価情報を学習済モデルに入力することにより、将来得られる可能性の高い計測値および評価情報を得ることとしてもよい。
(Modification 2)
In the first embodiment, by inputting the tomographic data, the analysis value obtained from the tomographic data, and the evaluation information of the eye to be examined into the learned model, an image for obtaining the analysis value and the evaluation information that are likely to be obtained in the future is obtained. The processor is described. Further, in the second embodiment, by inputting the measured value of the eye to be examined into the learned model together with the tomographic data or the analytical value obtained from the tomographic data, the analytical value and the measured value that are highly likely to be obtained in the future can be obtained. The image processing device to be obtained is described. However, the aspect of the present invention is not limited to these examples, and for example, by inputting the measured value of the eye to be inspected and the evaluation information obtained by referring to the measured value to the learned model, the possibility of being obtained in the future may be increased. It may be possible to obtain high measurement values and evaluation information.

さらに、実施例3において、治療に関するフラグと被検眼の計測値のみを学習済モデルに入力することにより、将来得られる可能性の高い計測値を得ることとしてもよい。また、さらに評価情報を併せて入力することにより、将来得られる可能性の高い評価情報を併せて得ることとしてもよい。また、上述した実施例では、入力するデータを第一の時間に関連付いたものと第二の時間に関連付いたものの2つの時間に得られたデータとし、これらデータから第三の時間に得られる可能性の高いデータ等を生成することとしている。しかし、入力するデータ、或いは学習済モデルの生成に際して用いる入力データの数は例示した2つに限られず、更に多くすることができる。入力するデータ及び入力データを増やすことにより、得られるであろうと予測するデータ(出力データ)の精度を高めることができる。また、学習済モデルの生成に際して用いた入力データの数より実際に入力するデータが少ない場合、例えば欠損するデータを適当な方法により補完することで、適切な出力データを得ることもできる。例えば実施例2において、時系列的に並ぶ5つの解析値及び計測値を入力データとして用いて得た学習済モデルを用いる場合、解析値が3つ或いは4つの場合であっても、足りない解析値を補完することで、データを出力することが可能となる。例えば、足りない解析値の前後の少なくとも2つの解析値を用いて足りない解析値を推定することが考えられる。このとき、少なくとも2つの解析値から求められる平均値や中央値等を足りない解析値として推定しても良い。また、少なくとも2つの解析値から求められる近似直線や近似曲線等を用いて足りない解析値を推定しても良い。また、第一の時間に関連付けられた複数種類の解析値と、第二の時間に関連付けられた複数種類の解析値とは、全く同じ種類である必要はなく、一部異なる種類があっても良いし、足りない種類があっても良い。また、上述した内容は、学習時においても、矛盾しない範囲で同様に適用することが可能である。   Further, in the third embodiment, only the flag relating to the treatment and the measured value of the eye to be examined may be input to the learned model to obtain a measured value that is likely to be obtained in the future. Further, by additionally inputting the evaluation information, the evaluation information that is highly likely to be obtained in the future may be obtained together. In the above-described embodiment, the input data is data obtained at two times, one associated with the first time and one associated with the second time, and obtained from these data at the third time. It is intended to generate data that is likely to be used. However, the number of input data or the number of input data used for generating the trained model is not limited to the illustrated two, and can be increased. By increasing the input data and the input data, the accuracy of the data (output data) predicted to be obtained can be increased. In addition, when the actual input data is less than the number of input data used in the generation of the learned model, for example, by complementing the missing data by an appropriate method, it is possible to obtain appropriate output data. For example, in Example 2, when a learned model obtained by using five analysis values and measurement values arranged in time series as input data is used, insufficient analysis is performed even when there are three or four analysis values. Data can be output by complementing the values. For example, it is conceivable to estimate the missing analysis value using at least two analysis values before and after the missing analysis value. At this time, the average value, the median value, etc. obtained from at least two analysis values may be estimated as the insufficient analysis value. Further, the insufficient analysis value may be estimated using an approximate straight line or an approximate curve obtained from at least two analysis values. Further, the plurality of types of analysis values associated with the first time and the plurality of types of analysis values associated with the second time do not have to be exactly the same type, and even if there are some different types. It's good, and there may be some missing types. Further, the above-described contents can be similarly applied to the range at the time of learning as long as there is no contradiction.

なお、学習済モデルは、上述したように、演算処理部332,832に設けられることができる。この場合、学習済モデルは、例えば、CPU等のプロセッサーによって実行されるソフトウェアモジュール等で構成されることができる。また、学習済モデルは、画像処理装置300,800と接続される別のサーバ等に設けられてもよい。この場合には、演算処理部332,832に接続できる、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバに接続することで、この学習済モデルを用いて解析値、計測値、評価情報等の生成を行うことができる。   The learned model can be provided in the arithmetic processing units 332 and 832 as described above. In this case, the learned model can be composed of, for example, a software module executed by a processor such as a CPU. The learned model may be provided in another server or the like connected to the image processing devices 300 and 800. In this case, by connecting to a server equipped with a learned model via an arbitrary network such as the Internet, which can be connected to the arithmetic processing units 332 and 832, the learned value is used to analyze, measure, and evaluate. It is possible to generate information and the like.

(その他の実施形態)
上述したそれぞれの実施例は、本発明を画像処理装置として実現したものである。しかしながら、本発明の実施例は画像処理装置或いは、実施例において述べた画像処理方法のみに限定されるものではない。本発明をコンピュータ上で動作するソフトウェアとして実現することも可能である。また、画像処理装置のCPUは、RAMやROMに格納されたコンピュータプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理装置の各部に対応するソフトウェアの実行を制御して、各部の機能を実現し、画像処理時に行われる各工程を実行することもできる。また、ボタン等のユーザーインターフェイスや表示のレイアウトは上述した態様に限定されるものではない。
(Other embodiments)
Each of the above-described embodiments implements the present invention as an image processing apparatus. However, the embodiment of the present invention is not limited to the image processing apparatus or the image processing method described in the embodiment. The present invention can also be realized as software that operates on a computer. Further, the CPU of the image processing apparatus controls the entire computer by using the computer programs and data stored in the RAM and ROM. It is also possible to control the execution of software corresponding to each unit of the image processing apparatus, realize the functions of each unit, and execute each process performed during image processing. Further, the user interface such as buttons and the layout of display are not limited to the above-described modes.

さらに、本発明は、上述した実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、システム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Furthermore, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、実施例および変形例を参照して本発明について説明したが、本発明は上記実施例および変形例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、および本発明と均等な発明も本発明に含まれる。また、上述の各実施例および変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。   Although the present invention has been described above with reference to the exemplary embodiments and modified examples, the present invention is not limited to the exemplary embodiments and modified examples. Inventions modified within a range not departing from the spirit of the present invention and inventions equivalent to the present invention are also included in the present invention. Further, the above-described respective embodiments and modified examples can be appropriately combined without departing from the spirit of the present invention.

1、8:画像処理システム、200:断層画像撮影装置、300、800:画像処理装置、301:画像取得部、303:処理部、305:表示制御部、311:断層画像生成部、332、832:演算処理部、333:撮影条件取得部、334:選択部、835:計測値取得部 1, 8: image processing system, 200: tomographic image capturing device, 300, 800: image processing device, 301: image acquisition unit, 303: processing unit, 305: display control unit, 311: tomographic image generation unit, 332, 832. : Arithmetic processing unit, 333: shooting condition acquisition unit, 334: selection unit, 835: measurement value acquisition unit

Claims (26)

被検眼の複数種類の解析値を含む断層に関するデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する取得手段と、
学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する生成手段と、
を備えることを特徴とする画像処理装置。
Data relating to a slice including multiple types of analysis values of the eye to be inspected, data relating to the first slice of the eye to be examined associated with a first time, and a second time after the first time. Data relating to the second cross-section of the associated eye to be inspected, and acquisition means,
Using a learned model, from the acquired data concerning the first tom and the acquired data concerning the second tom, a plurality of types of the eye to be examined at a third time after the second time. Generating means for generating at least one of the analyzed values of
An image processing apparatus comprising:
前記第一の断層に関するデータは、前記第一の時間に撮影して得た断層画像を解析して得た複数種類の解析値であり、
前記第二の断層に関するデータは、前記第二の時間に撮影して得た断層画像を解析して得た複数種類の解析値であることを特徴とする請求項1に記載の画像処理装置。
The data related to the first tomography is a plurality of types of analysis values obtained by analyzing a tomographic image obtained by photographing at the first time,
The image processing apparatus according to claim 1, wherein the data relating to the second tomographic image is a plurality of types of analysis values obtained by analyzing a tomographic image obtained by photographing at the second time.
前記学習済モデルは、前記第一の時間より前の第四の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値と、前記第一の時間より前で且つ前記第四の時間より後の第五の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値とを入力データとし、前記第一の時間より前で且つ前記第五の時間より後の第六の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値を教師データとする学習データを用いて得られることを特徴とする請求項1又は2に記載の画像処理装置。   The learned model is a plurality of types of analysis values obtained by analyzing a tomographic image obtained by imaging the eye to be examined at a fourth time before the first time, and before the first time. And and the plurality of types of analysis values obtained by analyzing the tomographic image obtained by photographing the eye to be examined at the fifth time after the fourth time and the input data, and before the first time. And, it can be obtained by using learning data in which a plurality of kinds of analysis values obtained by analyzing a tomographic image obtained by photographing the eye to be examined at a sixth time after the fifth time are used as teacher data. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 被検眼を撮影して得た断層画像を含む断層に関するデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する取得手段と、
学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する生成手段と、
を備えることを特徴とする画像処理装置。
Data relating to a tomographic image including a tomographic image obtained by photographing the eye to be inspected, data relating to a first tomographic region of the eye to be inspected associated with a first time, and second data after the first time. Acquisition means for acquiring data relating to a second cross section of the eye to be inspected, which is associated with time,
Using a learned model, from the acquired data concerning the first tom and the acquired data concerning the second tom, a plurality of types of the eye to be examined at a third time after the second time. Generating means for generating at least one of the analyzed values of
An image processing apparatus comprising:
前記生成手段は、前記被検眼を撮影して得た断層画像を含む断層に関するデータであって、前記被検眼の第三の断層に関するデータを、前記学習済モデルを用いて生成し、前記生成された第三の断層に関するデータを用いて前記複数種類の解析値の少なくとも一つを生成することを特徴とする請求項4に記載の画像処理装置。   The generation means generates data regarding a tomographic image including a tomographic image obtained by photographing the eye to be inspected, and data regarding a third tomographic image of the eye to be inspected, using the learned model, and is generated. The image processing apparatus according to claim 4, wherein at least one of the plurality of types of analysis values is generated using the data regarding the third tomographic image. 前記学習済モデルは、前記第一の時間より前の第四の時間に前記被検眼を撮影して得た断層画像と、前記第一の時間より前で且つ前記第四の時間より後の第五の時間に前記被検眼を撮影して得た断層画像とを入力データとし、前記第一の時間より前で且つ前記第五の時間より後の第六の時間に前記被検眼を撮影して得た断層画像を教師データとする学習データを用いて得られることを特徴とする請求項4又は5に記載の画像処理装置。   The learned model is a tomographic image obtained by photographing the eye to be inspected at a fourth time before the first time, and a tomographic image before the first time and after the fourth time. The tomographic image obtained by photographing the eye to be examined at five times is used as input data, and the eye to be examined is photographed at a sixth time before the first time and after the fifth time. The image processing device according to claim 4, wherein the image processing device is obtained by using learning data in which the obtained tomographic image is teacher data. 前記第二の時間と前記第三の時間との間の経過時間と、前記第五の時間と前記第六の時間との間の経過時間とは略等しいことを特徴とする請求項3又は6に記載の画像処理装置。   7. The elapsed time between the second time and the third time and the elapsed time between the fifth time and the sixth time are substantially equal. The image processing device according to item 1. 前記取得手段は、前記第一の時間に関連付いた前記被検眼の第一の計測値と、前記第二の時間に関連付いた前記被検眼の第二の計測値とをさらに取得し、
前記生成手段は、前記第一の断層に関するデータと、前記第一の計測値と、前記第二の断層に関するデータと、前記第二の計測値とから、前記第三の時間における前記複数種類の解析値の少なくとも一つを生成することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
The acquisition unit further acquires a first measurement value of the eye to be examined associated with the first time, and a second measurement value of the eye to be examined associated with the second time,
The generation means, based on the data regarding the first slice, the first measurement value, the data regarding the second slice, and the second measurement value, the plurality of types of the plurality of types at the third time. The image processing device according to claim 1, wherein at least one of the analysis values is generated.
前記取得手段は、前記第一の断層に関するデータおよび前記第二の断層に関するデータの少なくともいずれかと関連付けられた治療であって、前記被検眼に対して前記第一の時間又は前記第二の時間に行われた治療に関する情報を取得し、
前記生成手段は、前記第一の断層に関するデータと、前記第二の断層に関するデータと、前記治療に関する情報とから、前記第三の時間における前記複数種類の解析値の少なくとも一つを生成することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
The acquisition means is a treatment associated with at least one of the data regarding the first tomography and the data regarding the second tomography, at the first time or the second time for the eye to be examined. Get information about the treatments given,
The generating means may generate at least one of the plurality of types of analysis values at the third time from the data on the first slice, the data on the second slice, and the information on the treatment. The image processing apparatus according to any one of claims 1 to 8, characterized in that.
前記取得手段は、前記第一の時間および前記第二の時間における前記被検眼の状態に関する評価情報を取得し、
前記生成手段は、前記第三の時間における前記複数種類の解析値の少なくとも一つに併せて、前記第三の時間における評価情報を生成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The acquisition means acquires evaluation information regarding the state of the eye to be examined at the first time and the second time,
10. The generating unit generates the evaluation information at the third time in combination with at least one of the plurality of types of analysis values at the third time. The image processing device according to item.
前記生成された評価情報を表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, further comprising a display control unit that displays the generated evaluation information on a display unit. 前記第一の断層に関するデータおよび前記第二の断層に関するデータから得られる第一の解析値および第二の解析値であって、前記第三の時間における前記少なくとも一つの解析値と同じ種類の第一の解析値および第二の解析値、並びに前記第三の時間における前記少なくとも一つの解析値を用いて得られたグラフを表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。   A first analysis value and a second analysis value obtained from the data on the first fault and the data on the second fault, which are the same kind as the at least one analysis value at the third time. The display control means for displaying a graph obtained by using the one analysis value, the second analysis value, and the at least one analysis value at the third time on a display unit. The image processing device according to any one of 1 to 11. 前記被検眼から前記第一の断層に関するデータおよび前記第二の断層に関するデータを取得する取得条件に基づいて前記学習済モデルを選択する選択手段をさらに備えることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。   The selection means for selecting the learned model based on an acquisition condition for acquiring the data regarding the first slice and the data regarding the second slice from the eye to be inspected. The image processing apparatus according to any one of items. 前記取得条件は、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式の少なくともいずれかを含むことを特徴とする請求項13に記載の画像処理装置。   The image processing apparatus according to claim 13, wherein the acquisition condition includes at least one of a shooting date and time, a shooting region name, a shooting region, a shooting angle of view, and a shooting method. 前記複数種類の解析値は、前記被検眼の後眼部における、網膜全体の厚み、任意の層間の厚み、脈絡膜の厚み、および網膜の形状特徴と、視神経乳頭部における、網膜の厚み、およびCupとDiscと、前眼部における、角膜厚、角膜曲率、前房深度、水晶体全面曲率、および水晶体後面曲率と、を含むことを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。   The plurality of types of analysis values include the thickness of the entire retina, the thickness between arbitrary layers, the thickness of the choroid, and the shape characteristics of the retina in the posterior segment of the eye to be inspected, the retina thickness in the optic papilla, and the Cup. And Disc, and the corneal thickness, the corneal curvature, the anterior chamber depth, the entire lens curvature, and the posterior lens curvature in the anterior segment of the eye, and the image according to any one of claims 1 to 14. Processing equipment. 第一の時間および前記第一の時間よりも後の第二の時間の少なくともいずれかにおいて治療が施された被検眼であって、前記第一の時間に関連付いた前記被検眼の第一の計測データと、前記第二の時間に関連付いた前記被検眼の第二の計測データと、前記第一の時間および前記第二の時間の少なくともいずれかと関連付けられた、前記被検眼の状態に関する評価情報と、を取得する取得手段と、
学習済モデルを用いて、前記治療に関する情報、前記第一の計測データ、前記第二の計測データ、および前記評価情報から、前記第二の時間より後の第三の時間における前記被検眼の状態に関する評価情報を生成する生成手段と、
を備えることを特徴とする画像処理装置。
A subject eye that has been treated at at least one of a first time and a second time later than the first time, the first eye of the eye being associated with the first time. Measurement data, second measurement data of the eye to be examined associated with the second time, and an evaluation regarding the state of the eye to be examined, which is associated with at least one of the first time and the second time. Acquisition means for acquiring information and
Using a learned model, from the information about the treatment, the first measurement data, the second measurement data, and the evaluation information, the state of the eye to be examined at a third time after the second time Generating means for generating evaluation information regarding
An image processing apparatus comprising:
前記生成手段は、学習済モデルを用いて前記第三の時間における前記被検眼の第三の計測データを生成し、
前記生成された第三の計測データ、前記第一の計測データおよび前記第二の計測データを用いて得られたグラフと、前記生成された第三の時間における評価情報と、前記治療の種類と、を表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項16に記載の画像処理装置。
The generation unit generates a third measurement data of the eye to be examined at the third time using a learned model,
The generated third measurement data, the graph obtained using the first measurement data and the second measurement data, the evaluation information at the generated third time, and the type of treatment 17. The image processing apparatus according to claim 16, further comprising a display control unit that displays, on the display unit.
前記被検眼の状態に関する評価情報は、前記被検眼の診断結果としてユーザが入力する情報であることを特徴とする請求項16又は17に記載の画像処理装置。   The image processing device according to claim 16, wherein the evaluation information regarding the state of the eye to be inspected is information input by a user as a diagnosis result of the eye to be inspected. 前記治療は、手術および投薬の少なくともいずれかを含むことを特徴とする請求項16乃至18のいずれか1項に記載の画像処理装置。   19. The image processing apparatus according to claim 16, wherein the treatment includes at least one of surgery and medication. 前記第一の計測データは、前記第一の時間に前記被検眼を撮影して得た断層画像から得られ、
前記第二の計測データは、前記第二の時間に前記被検眼を撮影して得た断層画像から得られることを特徴とする請求項16乃至19のいずれか1項に記載の画像処理装置。
The first measurement data is obtained from a tomographic image obtained by imaging the eye to be examined at the first time,
20. The image processing apparatus according to claim 16, wherein the second measurement data is obtained from a tomographic image obtained by photographing the eye to be inspected at the second time.
第一の時間に被検眼を撮影して得た断層画像を解析して得た複数種類の解析値と、前記第一の時間より後の第二の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値とを入力データとし、前記第二の時間より後の第三の時間に前記被検眼を撮影して得た断層画像を解析して得た複数種類の解析値を教師データとする学習データを用いて得られる学習済モデル。   Multiple types of analysis values obtained by analyzing a tomographic image obtained by photographing the eye to be examined at the first time, and obtained by photographing the eye to be examined at the second time after the first time Multiple types of analysis values obtained by analyzing the tomographic image are used as input data, and a plurality of images obtained by analyzing the tomographic image obtained by photographing the eye to be examined at a third time after the second time. A learned model that is obtained by using learning data that uses analysis values of various types as teacher data. 第一の時間に被検眼を撮影して得た断層画像と、前記第一の時間より後の第二の時間に前記被検眼を撮影して得た断層画像とを入力データとし、前記第二の時間より後の第三の時間に前記被検眼を撮影して得た断層画像を教師データとする学習データを用いて得られる学習済モデル。   A tomographic image obtained by photographing the eye to be inspected at a first time and a tomographic image obtained by photographing the eye to be inspected at a second time after the first time are input data, and the second A learned model obtained by using learning data in which a tomographic image obtained by photographing the eye to be inspected is used as teacher data in a third time after the time. 被検眼の複数種類の解析値を含む断層に関するデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する工程と、
学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する工程と、
を含むことを特徴とする画像処理方法。
Data relating to a slice including multiple types of analysis values of the eye to be inspected, data relating to the first slice of the eye to be examined associated with a first time, and a second time after the first time. Acquiring data related to the second tomographic image of the eye to be inspected,
Using a learned model, from the acquired data concerning the first tom and the acquired data concerning the second tom, a plurality of types of the eye to be examined at a third time after the second time. Generating at least one of the parsed values of
An image processing method comprising:
被検眼を撮影して得た断層画像を含む断層に関するデータであって、第一の時間に関連付いた前記被検眼の第一の断層に関するデータと、前記第一の時間より後の第二の時間に関連付いた前記被検眼の第二の断層に関するデータと、を取得する工程と、
学習済モデルを用いて、前記取得された第一の断層に関するデータと前記取得された第二の断層に関するデータとから、前記第二の時間より後の第三の時間における前記被検眼の複数種類の解析値の少なくとも一つを生成する工程と、
を含むことを特徴とする画像処理方法。
Data relating to a tomographic image including a tomographic image obtained by photographing the eye to be inspected, data relating to a first tomographic region of the eye to be inspected associated with a first time, and second data after the first time. Obtaining data relating to a second slice of the eye to be examined in relation to time, and
Using a learned model, from the acquired data concerning the first tom and the acquired data concerning the second tom, a plurality of types of the eye to be examined at a third time after the second time. Generating at least one of the parsed values of
An image processing method comprising:
第一の時間および前記第一の時間よりも後の第二の時間の少なくともいずれかにおいて治療が施された被検眼であって、前記第一の時間に関連付いた前記被検眼の第一の計測データと、前記第二の時間に関連付いた前記被検眼の第二の計測データと、前記第一の時間および前記第二の時間の少なくともいずれかと関連付けられた、前記被検眼の状態に関する評価情報と、を取得する工程と、
学習済モデルを用いて、前記治療に関する情報、前記第一の計測データ、前記第二の計測データ、および前記評価情報から、前記第二の時間より後の第三の時間における前記被検眼の状態に関する評価情報を生成する工程と、
含むことを特徴とする画像処理方法。
A subject eye that has been treated at at least one of a first time and a second time later than the first time, the first eye of the eye being associated with the first time. Measurement data, second measurement data of the eye to be examined associated with the second time, and an evaluation regarding the state of the eye to be examined, which is associated with at least one of the first time and the second time. The step of obtaining the information and
Using a learned model, from the information about the treatment, the first measurement data, the second measurement data, and the evaluation information, the state of the eye to be examined at a third time after the second time Generating evaluation information about
An image processing method comprising:
プロセッサーによって実行されると、該プロセッサーに請求項23乃至25のいずれか1項に記載の画像処理方法の各工程を実行させる、プログラム。   A program that, when executed by a processor, causes the processor to execute each step of the image processing method according to claim 23.
JP2018191936A 2018-10-10 2018-10-10 Image processing device, learned model, image processing method, and program Pending JP2020058615A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018191936A JP2020058615A (en) 2018-10-10 2018-10-10 Image processing device, learned model, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191936A JP2020058615A (en) 2018-10-10 2018-10-10 Image processing device, learned model, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2020058615A true JP2020058615A (en) 2020-04-16

Family

ID=70219748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191936A Pending JP2020058615A (en) 2018-10-10 2018-10-10 Image processing device, learned model, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020058615A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097620A1 (en) * 2020-11-04 2022-05-12 株式会社トプコン Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
CN116403717A (en) * 2023-06-08 2023-07-07 广州视景医疗软件有限公司 Myopia prediction method and device based on deep learning, terminal equipment and medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302222A (en) * 2005-04-15 2006-11-02 Toshihiro Handa Cancer onset risk prediction system and method, and cancer derivative method
JP2013027439A (en) * 2011-07-26 2013-02-07 Nidek Co Ltd Apparatus and program for creating retina treatment schedule
JP2017153873A (en) * 2016-03-04 2017-09-07 株式会社トプコン Eye drop container monitoring system
JP2017170193A (en) * 2017-06-12 2017-09-28 株式会社ニデック Ophthalmological analysis device and ophthalmological analysis program
WO2018035473A2 (en) * 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models
US20180132725A1 (en) * 2015-05-05 2018-05-17 Medizinische Universität Wien Computerized Device and Method for Processing Image Data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302222A (en) * 2005-04-15 2006-11-02 Toshihiro Handa Cancer onset risk prediction system and method, and cancer derivative method
JP2013027439A (en) * 2011-07-26 2013-02-07 Nidek Co Ltd Apparatus and program for creating retina treatment schedule
US20180132725A1 (en) * 2015-05-05 2018-05-17 Medizinische Universität Wien Computerized Device and Method for Processing Image Data
JP2017153873A (en) * 2016-03-04 2017-09-07 株式会社トプコン Eye drop container monitoring system
WO2018035473A2 (en) * 2016-08-18 2018-02-22 Google Llc Processing fundus images using machine learning models
JP2017170193A (en) * 2017-06-12 2017-09-28 株式会社ニデック Ophthalmological analysis device and ophthalmological analysis program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097620A1 (en) * 2020-11-04 2022-05-12 株式会社トプコン Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
CN116403717A (en) * 2023-06-08 2023-07-07 广州视景医疗软件有限公司 Myopia prediction method and device based on deep learning, terminal equipment and medium
CN116403717B (en) * 2023-06-08 2023-09-05 广州视景医疗软件有限公司 Myopia prediction method and device based on deep learning, terminal equipment and medium

Similar Documents

Publication Publication Date Title
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
US20210304363A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
US20210183019A1 (en) Image processing apparatus, image processing method and computer-readable medium
JP2018038611A (en) Ophthalmologic analyzer and ophthalmologic analysis program
WO2020183791A1 (en) Image processing device and image processing method
JP7362403B2 (en) Image processing device and image processing method
JP7220509B2 (en) OPHTHALMIC DEVICE AND OPHTHALMIC IMAGE PROCESSING METHOD
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
JP2020103579A (en) Image processing device, image processing method, and program
WO2020138128A1 (en) Image processing device, image processing method, and program
WO2020050308A1 (en) Image processing device, image processing method and program
JP2018046959A (en) Ophthalmologic photographing apparatus
JP2020058615A (en) Image processing device, learned model, image processing method, and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP7111874B2 (en) ophthalmic imaging equipment
JP7297133B2 (en) Ophthalmic information processing device and ophthalmic photographing device
JP7228647B2 (en) Ophthalmic information processing device and ophthalmic photographing device
WO2020049828A1 (en) Image processing apparatus, image processing method, and program
JP2022127783A (en) Blood flow analysis apparatus, ophthalmologic apparatus, blood flow analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231127

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240202