JP7269413B2 - MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM - Google Patents

MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM Download PDF

Info

Publication number
JP7269413B2
JP7269413B2 JP2022074057A JP2022074057A JP7269413B2 JP 7269413 B2 JP7269413 B2 JP 7269413B2 JP 2022074057 A JP2022074057 A JP 2022074057A JP 2022074057 A JP2022074057 A JP 2022074057A JP 7269413 B2 JP7269413 B2 JP 7269413B2
Authority
JP
Japan
Prior art keywords
image
layer
processing
unit
tomographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022074057A
Other languages
Japanese (ja)
Other versions
JP2022103221A (en
Inventor
好彦 岩瀬
秀謙 溝部
律也 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019147739A external-priority patent/JP7229881B2/en
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2022103221A publication Critical patent/JP2022103221A/en
Priority to JP2023024953A priority Critical patent/JP2023054179A/en
Application granted granted Critical
Publication of JP7269413B2 publication Critical patent/JP7269413B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Description

本発明は、医用画像処理装置、医用画像処理システム、医用画像処理方法及びプログラムに関する。 The present invention relates to a medical image processing apparatus, a medical image processing system , a medical image processing method, and a program.

光干渉断層撮影法(OCT:Optical Coherence Tomography)を用いた装置(OCT装置)などの眼部の断層画像撮影装置は、網膜層内部の状態を三次元的に観察することが可能である。この断層画像撮影装置は、疾病の診断をより的確に行うのに有用であることから近年注目を集めている。 An eye tomography apparatus such as an apparatus using optical coherence tomography (OCT) (OCT apparatus) is capable of three-dimensionally observing the state inside the retinal layers. In recent years, this tomographic imaging apparatus has been attracting attention because it is useful for more accurately diagnosing diseases.

OCTの形態として、例えば、広帯域な光源とマイケルソン干渉計を組み合わせたTD-OCT(Time domain OCT)がある。これは、参照アームの遅延を走査することで、信号アームの後方散乱光との干渉光を計測し、深さ分解の情報を得るように構成されている。しかしながら、このようなTD-OCTでは高速な画像取得は難しい。 As a form of OCT, for example, there is TD-OCT (Time domain OCT) combining a broadband light source and a Michelson interferometer. This is configured to obtain depth-resolved information by scanning the delay of the reference arm to measure interference light with the backscattered light of the signal arm. However, high-speed image acquisition is difficult with such TD-OCT.

そのため、より高速に画像を取得する方法としては、広帯域光源を用い、分光器でインターフェログラムを取得する手法によるSD-OCT(Spectral domain OCT)が知られている。また、光源として、高速波長掃引光源を用い、単一チャネル光検出器でスペクトル干渉を計測する手法によるSS-OCT(Swept Source OCT)が知られている。 Therefore, SD-OCT (Spectral domain OCT), which uses a broadband light source and acquires an interferogram with a spectroscope, is known as a method for acquiring images at a higher speed. Also known is SS-OCT (Swept Source OCT), which uses a fast wavelength swept light source as a light source and measures spectral interference with a single-channel photodetector.

OCTで撮影された断層画像が取得された場合には、神経線維層の厚みを計測できれば、緑内障などの疾病の進行度や治療後の回復具合を定量的に診断することができる。これらの層の厚みを定量的に計測するために、コンピュータを用いて断層画像から網膜の各層の境界を検出し、各層の厚みを計測する技術が、特許文献1に開示されている。 When a tomographic image obtained by OCT is acquired, if the thickness of the nerve fiber layer can be measured, the degree of progression of diseases such as glaucoma and the degree of recovery after treatment can be quantitatively diagnosed. In order to quantitatively measure the thickness of these layers, Patent Literature 1 discloses a technique of detecting boundaries between layers of the retina from a tomographic image using a computer and measuring the thickness of each layer.

特開2008-73099号公報JP-A-2008-73099

しかしながら、従来の技術では以下の問題があった。疾患眼においては、層の消失、出血、及び白斑や新生血管の発生などがあるため、網膜の形状が不規則となる。そのため、画像特徴抽出の結果を、網膜の形状の規則性を利用して判断し、網膜層の境界検出を行う従来の画像処理方法では、網膜層の境界検出を自動で行う際に誤検出などが発生するという限界があった。 However, the conventional technique has the following problems. In diseased eyes, the shape of the retina becomes irregular due to layer loss, hemorrhage, vitiligo, and neovascularization. For this reason, conventional image processing methods, in which the results of image feature extraction are judged using the regularity of the shape of the retina and the boundaries of the retinal layers are detected, may cause errors such as false detections when automatically detecting the boundaries of the retinal layers. There was a limit to the occurrence of

そこで、本発明は、疾患や部位等によらず網膜層の境界検出を行うことができる医用画像処理装置、医用画像処理システム、医用画像処理方法及びプログラムを提供することを目的の一つとする。 Accordingly, it is an object of the present invention to provide a medical image processing apparatus, a medical image processing system , a medical image processing method, and a program capable of detecting retinal layer boundaries irrespective of disease, site, or the like.

本発明の一実施態様による医用画像処理装置は、被検眼の断層画像を取得する取得部と、被検眼の断層画像と該断層画像における少なくとも一つの層に関する位置情報を含む画像とを含む学習データを用いて学習して得た学習済モデルであって、該学習済モデルの入力データとして前記取得された断層画像を用いることで、該学習済モデルの出力データとして前記取得された断層画像における少なくとも一つの層に関する位置情報を含む画像を出力することにより、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する検出部と、被検眼の三次元の断層画像における少なくとも一部の深度範囲であって、前記検出された少なくとも一つの層に関する位置情報を用いて決定された深度範囲に対応する正面画像を生成し、前記学習済モデルとは異なる学習済モデルの入力データとして前記正面画像を用いることにより、前記正面画像よりも高画質な正面画像を生成する生成部と、前記正面画像と前記高画質な正面画像との少なくとも一方を表示部に表示させる表示制御部とを備える。 A medical image processing apparatus according to an embodiment of the present invention includes an acquisition unit that acquires a tomographic image of an eye to be inspected, and learning data including a tomographic image of the eye to be inspected and an image containing position information about at least one layer in the tomographic image. wherein at least a detection unit that detects position information about at least one layer in the acquired tomographic image by outputting an image containing position information about one layer; generating a front image corresponding to a depth range determined using position information about the detected at least one layer , and using the front image as input data for a trained model different from the trained model; and a display control unit configured to display at least one of the front image and the high-quality front image on a display unit .

また、本発明の他の実施態様に係る医用画像処理方法は、被検眼の断層画像を取得する工程と、被検眼の断層画像と該断層画像における少なくとも一つの層に関する位置情報を含む画像とを含む学習データを用いて学習して得た学習済モデルであって、該学習済モデルの入力データとして前記取得された断層画像を用いることで該学習済モデルの出力データとして前記取得された断層画像における少なくとも一つの層に関する位置情報を含む画像を出力することにより、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する工程と、被検眼の三次元の断層画像における少なくとも一部の深度範囲であって、前記検出された少なくとも一つの層に関する位置情報を用いて決定された深度範囲に対応する正面画像を生成し、前記学習済モデルとは異なる学習済モデルの入力データとして前記正面画像を用いることにより、前記正面画像よりも高画質な正面画像を生成する工程と、前記正面画像と前記高画質な正面画像との少なくとも一方を表示部に表示させる工程とを含む。


In addition, a medical image processing method according to another embodiment of the present invention includes the steps of obtaining a tomographic image of an eye to be inspected, and a tomographic image of the eye to be inspected and an image containing position information about at least one layer in the tomographic image. a learned model obtained by learning using learning data including a step of detecting position information about at least one layer in the acquired tomographic image by outputting an image containing position information about at least one layer in the eye; generating a front image corresponding to a depth range determined using position information about the detected at least one layer; The method includes a step of generating a front image with higher image quality than the front image by using an image , and a step of displaying at least one of the front image and the front image with high image quality on a display unit .


本発明の一実施形態によれば、疾患や部位等によらず網膜層の境界検出を行うことができる。 According to one embodiment of the present invention, boundary detection of retinal layers can be performed regardless of disease, site, or the like.

本発明のさらなる特徴が、添付の図面を参照して以下の例示的な実施例の説明から明らかになる。 Further features of the invention will become apparent from the following description of exemplary embodiments with reference to the accompanying drawings.

実施例1に係る画像処理システムの概略的な構成の一例を示す。1 shows an example of a schematic configuration of an image processing system according to a first embodiment; 眼部の構造と断層画像と眼底画像を説明するための図である。FIG. 2 is a diagram for explaining the structure of an eye, a tomographic image, and a fundus image; 実施例1に係る一連の処理のフローチャートである。4 is a flowchart of a series of processes according to the first embodiment; 学習画像の例を説明するための図である。FIG. 4 is a diagram for explaining an example of a learning image; FIG. 学習画像のサイズの例を説明するための図である。FIG. 4 is a diagram for explaining an example of the size of a learning image; FIG. 実施例1に係る機械学習モデルの例を説明するための図である。FIG. 4 is a diagram for explaining an example of a machine learning model according to the first embodiment; FIG. 表示画面の一例を示す。An example of a display screen is shown. 実施例2に係る画像処理システムの概略的な構成の一例を示す。FIG. 11 shows an example of a schematic configuration of an image processing system according to a second embodiment; FIG. 実施例2に係る一連の処理のフローチャートである。9 is a flowchart of a series of processes according to Example 2; 網膜領域の検出を説明するための図である。FIG. 4 is a diagram for explaining detection of a retinal region; 学習画像のサイズの例を説明するための図である。FIG. 4 is a diagram for explaining an example of the size of a learning image; FIG. 実施例2に係る機械学習モデルの例を説明するための図である。FIG. 11 is a diagram for explaining an example of a machine learning model according to Example 2; 実施例2に係る網膜層検出を説明するための図である。FIG. 11 is a diagram for explaining retinal layer detection according to the second embodiment; 学習済モデルにおける入力と出力画像の例を説明するための図である。FIG. 4 is a diagram for explaining an example of input and output images in a trained model; 実施例4に係る画像処理システムの概略的な構成の一例を示す。FIG. 11 shows an example of a schematic configuration of an image processing system according to a fourth embodiment; FIG. 実施例4に係る一連の処理のフローチャートである。10 is a flowchart of a series of processes according to Example 4; 実施例5に係る画像処理システムの概略的な構成の一例を示す。FIG. 11 shows an example of a schematic configuration of an image processing system according to a fifth embodiment; FIG. 実施例5に係る一連の処理のフローチャートである。10 is a flowchart of a series of processes according to Example 5; 網膜領域の補正処理を説明するための図である。FIG. 10 is a diagram for explaining correction processing of a retinal area; 実施例6に係る学習画像の例を説明するための図である。FIG. 14 is a diagram for explaining an example of a learning image according to Example 6; 複数のOCTAのEn-Face画像及び輝度の断層画像の一例を示す。An example of a plurality of OCTA En-Face images and luminance tomographic images is shown. 実施例7に係るユーザーインターフェースの一例を示す。11 shows an example of a user interface according to Example 7. FIG. 実施例7に係るユーザーインターフェースの一例を示す。11 shows an example of a user interface according to Example 7. FIG. 用語の説明に係る領域ラベル画像の一例を示す。An example of an area label image related to explanation of terms is shown. 用語の説明に係るニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network related to the explanation of terms is shown. 用語の説明に係るニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network related to the explanation of terms is shown. 用語の説明に係る領域ラベル画像の一例を示す。An example of an area label image related to explanation of terms is shown. 実施例8に係る画像処理装置の構成の一例を示す。FIG. 11 shows an example of the configuration of an image processing apparatus according to an eighth embodiment; FIG. 実施例8に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 12 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the eighth embodiment; FIG. 実施例8に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 12 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the eighth embodiment; FIG. 実施例8に係る撮影装置が備えるユーザーインターフェースの一例を示す図である。FIG. 21 is a diagram showing an example of a user interface provided in an imaging device according to Example 8; 実施例8に係る撮影装置が備えるユーザーインターフェースの一例を示す図である。FIG. 21 is a diagram showing an example of a user interface provided in an imaging device according to Example 8; 実施例9に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 16 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the ninth embodiment; FIG. 実施例11に係る画像処理を示す。11 shows image processing according to the eleventh embodiment. 実施例11に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 22 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the eleventh embodiment; FIG. 実施例12に係る画像処理を示す。12 shows image processing according to the twelfth embodiment. 実施例13に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 22 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the thirteenth embodiment; FIG. 実施例13に係る画像処理を示す。13 shows image processing according to the thirteenth embodiment. 実施例13に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 22 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the thirteenth embodiment; FIG. 実施例13に係る画像処理を示す。13 shows image processing according to the thirteenth embodiment. 実施例14に係る画像処理装置の処理の流れの一例を示すフローチャートである。FIG. 16 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the fourteenth embodiment; FIG. 実施例15に係る撮影装置が備えるユーザーインターフェースの一例を示す図である。FIG. 20 is a diagram showing an example of a user interface provided in an imaging device according to Example 15; 実施例18に係る画像処理装置の構成の一例を示す。FIG. 12 illustrates an example of the configuration of an image processing apparatus according to an eighteenth embodiment; FIG. 実施例19に係る画像処理装置の構成の一例を示す。FIG. 11 shows an example of the configuration of an image processing apparatus according to a nineteenth embodiment; FIG. 実施例19に係る画像処理装置の処理の流れの一例を示すフローチャートである。19 is a flow chart showing an example of the flow of processing of the image processing apparatus according to the nineteenth embodiment; 変形例9に係る機械学習モデルとして用いられるニューラルネットワークの構成の一例を示す。11 shows an example of the configuration of a neural network used as a machine learning model according to Modification 9. FIG. 変形例9に係る機械学習モデルとして用いられるニューラルネットワークの構成の一例を示す。11 shows an example of the configuration of a neural network used as a machine learning model according to Modification 9. FIG.

以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。 Exemplary embodiments for carrying out the invention will now be described in detail with reference to the drawings.

ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。 However, the dimensions, materials, shapes, relative positions of components, etc. described in the following examples are arbitrary and can be changed according to the configuration of the device to which the present invention is applied or various conditions. Also, the same reference numbers are used in the drawings to indicate identical or functionally similar elements.

(実施例1)
以下、図1乃至7を参照して、本発明の実施例1に係る、眼部の断層画像を用いた画像処理装置を備える画像処理システムについて説明する。本実施例では、機械学習モデルに関する学習済モデルを用いて対象となる全ての網膜層の検出を行う。なお、以下において、機械学習モデルとは、ディープラーニング等の機械学習アルゴリズムによる学習モデルをいう。また、学習済モデルとは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な教師データを用いてトレーニングした(学習を行った)モデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。なお、以下において、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、正解データとは、学習データ(教師データ)の出力データのことをいう。
(Example 1)
An image processing system including an image processing apparatus using a tomographic image of an eye according to a first embodiment of the present invention will be described below with reference to FIGS. 1 to 7. FIG. In this embodiment, all target retinal layers are detected using a trained model related to the machine learning model. In the following description, a machine learning model refers to a learning model based on a machine learning algorithm such as deep learning. A trained model is a machine learning model based on an arbitrary machine learning algorithm that has been trained (learned) in advance using appropriate teacher data. However, it is assumed that the trained model is not one that does not perform further learning, and that additional learning can be performed. Note that, hereinafter, teacher data means learning data, and is composed of a pair of input data and output data. Further, correct data means output data of learning data (teaching data).

図1は、本実施例に係る画像処理装置20(医用画像処理装置)を備える画像処理システム1の概略的な構成の一例を示す。図1に示すように、画像処理システム1には、断層画像撮影装置の一例であるOCT装置10、画像処理装置20、眼底画像撮影装置30、外部記憶装置40、表示部50、及び入力部60が設けられている。 FIG. 1 shows an example of a schematic configuration of an image processing system 1 including an image processing apparatus 20 (medical image processing apparatus) according to this embodiment. As shown in FIG. 1, the image processing system 1 includes an OCT apparatus 10 as an example of a tomography apparatus, an image processing apparatus 20, a fundus imaging apparatus 30, an external storage device 40, a display unit 50, and an input unit 60. is provided.

OCT装置10は、被検眼の断層画像を撮影するための装置である断層画像撮影装置の一例である。OCT装置としては、任意の種類のOCT装置を用いることができ、例えばSD-OCTやSS-OCTを用いることができる。 The OCT apparatus 10 is an example of a tomographic image capturing apparatus for capturing a tomographic image of an eye to be examined. Any type of OCT apparatus can be used as the OCT apparatus, such as SD-OCT and SS-OCT.

画像処理装置20は、インターフェースを介してOCT装置10、眼底画像撮影装置30、外部記憶装置40、表示部50、及び入力部60と接続されており、これらを制御することができる。画像処理装置20は、OCT装置10、眼底画像撮影装置30、及び外部記憶装置40から取得する各種信号に基づいて、被検眼の断層画像やEn-Face画像(正面画像)等の各種画像を生成することができる。また、画像処理装置20は、これら画像について画像処理を施すことができる。なお、画像処理装置20は、汎用のコンピュータによって構成されてもよいし、画像処理システム1の専用のコンピュータによって構成されてもよい。 The image processing device 20 is connected to the OCT device 10, the fundus imaging device 30, the external storage device 40, the display section 50, and the input section 60 via interfaces, and can control these. The image processing device 20 generates various images such as a tomographic image and an En-Face image (frontal image) of the subject's eye based on various signals acquired from the OCT device 10, the fundus imaging device 30, and the external storage device 40. can do. Further, the image processing device 20 can perform image processing on these images. Note that the image processing apparatus 20 may be configured by a general-purpose computer, or may be configured by a computer dedicated to the image processing system 1 .

眼底画像撮影装置30は、被検眼の眼底画像を撮影するための装置であり、当該装置としては、例えば、眼底カメラやSLO(Scanning Laser Ophothalmoscope)等を用いることができる。なお、OCT装置10と眼底画像撮影装置30の装置構成は、一体型でもよいし別体型でもよい。 The fundus image capturing device 30 is a device for capturing a fundus image of the subject's eye, and for example, a fundus camera, an SLO (Scanning Laser Ophthalmoscope), or the like can be used as the device. The device configuration of the OCT device 10 and the fundus imaging device 30 may be an integrated type or a separate type.

外部記憶装置40は、被検眼に関する情報(患者の氏名、年齢、性別等)と、撮影した各種画像データ、撮影パラメータ、画像解析パラメータ、及び操作者によって設定されたパラメータをそれぞれ関連付けて保持している。外部記憶装置40は、任意の記憶装置によって構成されてよく、例えば、光学ディスクやメモリ等の記憶媒体によって構成されてよい。 The external storage device 40 holds information about the eye to be examined (patient's name, age, sex, etc.), various captured image data, imaging parameters, image analysis parameters, and parameters set by the operator in association with each other. there is The external storage device 40 may be configured by any storage device, and may be configured by, for example, a storage medium such as an optical disk or memory.

表示部50は、任意のディスプレイによって構成され、画像処理装置20による制御に従い、被検眼に関する情報や各種画像を表示することができる。 The display unit 50 is configured by an arbitrary display, and can display information and various images related to the subject's eye under the control of the image processing device 20 .

入力部60は、例えば、マウス、キーボード、又はタッチ操作画面などであり、操作者は、入力部60を介して、画像処理装置20やOCT装置10、眼底画像撮影装置30への指示を画像処理装置20に入力することができる。なお、入力部60をタッチ操作画面とする場合には、入力部60を表示部50と一体として構成することができる。 The input unit 60 is, for example, a mouse, a keyboard, or a touch operation screen. can be input to device 20; When the input unit 60 is a touch operation screen, the input unit 60 can be integrated with the display unit 50 .

なお、これら構成要素は、図1では別体として示されているが、これら構成要素の一部又は全部を一体として構成してもよい。 In addition, although these components are shown as separate bodies in FIG. 1, some or all of these components may be integrated.

次にOCT装置10について説明する。OCT装置10には、光源11、ガルバノミラー12、フォーカスレンズステージ13、コヒーレンスゲートステージ14、ディテクタ15、及び内部固視灯16が設けられている。なお、OCT装置10は既知の装置であるため詳細な説明は省略し、ここでは、画像処理装置20からの指示により行われる断層画像の撮影について説明を行う。 Next, the OCT apparatus 10 will be explained. The OCT apparatus 10 is provided with a light source 11 , a galvanomirror 12 , a focus lens stage 13 , a coherence gate stage 14 , a detector 15 and an internal fixation lamp 16 . Since the OCT apparatus 10 is a well-known apparatus, a detailed description thereof is omitted. Here, the imaging of a tomographic image performed according to an instruction from the image processing apparatus 20 will be described.

画像処理装置20から撮影の指示が伝えられると、光源11が光を出射する。光源11からの光は不図示の分割部を用いて測定光と参照光に分割される。OCT装置10では、測定光を被検体(被検眼)に照射し、被検体からの戻り光と、参照光との干渉光を検出することで、被検体の断層情報を含む干渉信号を生成することができる。 When the image processing device 20 gives an instruction for photographing, the light source 11 emits light. Light from the light source 11 is split into measurement light and reference light using a splitter (not shown). The OCT apparatus 10 irradiates a subject (eye to be examined) with measurement light and detects interference light between the return light from the subject and the reference light to generate an interference signal including tomographic information of the subject. be able to.

ガルバノミラー12は、測定光を被検眼の眼底において走査するために用いられ、ガルバノミラー12による測定光の走査範囲により、OCT撮影による眼底の撮影範囲を規定することができる。画像処理装置20は、ガルバノミラー12の駆動範囲及び速度を制御することで、眼底における平面方向の撮影範囲及び走査線数(平面方向の走査速度)を規定することができる。図1では、説明を簡略化するため、ガルバノミラー12を1つのユニットとして示したが、ガルバノミラー12は、実際にはXスキャン用のミラーとYスキャン用の2枚のミラーで構成され、眼底上における所望の範囲を測定光で走査できる。なお、測定光を走査するための走査部の構成はガルバノミラーに限られず、他の任意の偏向ミラーを用いることができる。また、走査部として、例えば、MEMSミラーなどの1枚で二次元方向に測定光を走査することができる偏向ミラーを用いてもよい。 The galvanometer mirror 12 is used to scan the fundus of the subject's eye with measurement light, and the scanning range of the measurement light by the galvanometer mirror 12 can define the imaging range of the fundus in OCT imaging. By controlling the drive range and speed of the galvanomirror 12, the image processing apparatus 20 can define the planar imaging range and the number of scanning lines (scanning speed in the planar direction) on the fundus. In FIG. 1, the galvanomirror 12 is shown as one unit for the sake of simplification of explanation, but the galvanomirror 12 is actually composed of two mirrors for X scanning and Y scanning. A desired range on the above can be scanned with the measuring light. Note that the configuration of the scanning unit for scanning the measurement light is not limited to the galvanomirror, and any other deflection mirror can be used. Further, as the scanning unit, for example, a single deflecting mirror such as a MEMS mirror that can scan the measurement light in two-dimensional directions may be used.

フォーカスレンズステージ13には不図示のフォーカスレンズが設けられている。フォーカスレンズステージ13を移動させることで、フォーカスレンズを測定光の光軸に沿って移動させることができる。このため、フォーカスレンズによって、被検眼の前眼部を介し、眼底の網膜層に測定光をフォーカスすることができる。眼底を照射した測定光は各網膜層で反射・散乱して戻り光として、光路を戻る。 A focus lens (not shown) is provided on the focus lens stage 13 . By moving the focus lens stage 13, the focus lens can be moved along the optical axis of the measurement light. Therefore, the focus lens can focus the measurement light on the retinal layer of the fundus via the anterior segment of the eye to be examined. The measurement light that irradiates the fundus is reflected and scattered by each retinal layer and returns along the optical path as return light.

コヒーレンスゲートステージ14は、被検眼の眼軸長の相違等に対応するため、参照光又は測定光の光路の長さを調整するために用いられる。本実施例では、コヒーレンスゲートステージ14は、ミラーが設けられたステージによって構成され、参照光の光路において光軸方向に移動することで参照光の光路長を測定光の光路長に対応させることができる。ここで、コヒーレンスゲートは、OCTにおける測定光と参照光の光学距離が等しい位置を表す。コヒーレンスゲートステージ14は、画像処理装置20により制御されることができる。画像処理装置20は、コヒーレンスゲートステージ14によりコヒーレンスゲートの位置を制御することによって、被検眼の深さ方向の撮影範囲を制御することができ、網膜層側の撮影、又は網膜層より深部側の撮影等を制御することができる。 The coherence gate stage 14 is used to adjust the length of the optical path of the reference light or measurement light in order to cope with the difference in axial length of the eye to be examined. In this embodiment, the coherence gate stage 14 is composed of a stage provided with a mirror, and by moving along the optical path of the reference light in the optical axis direction, the optical path length of the reference light can correspond to the optical path length of the measurement light. can. Here, the coherence gate represents a position in OCT where the optical distances of the measurement light and the reference light are equal. Coherence gate stage 14 may be controlled by image processor 20 . The image processing apparatus 20 can control the imaging range in the depth direction of the subject's eye by controlling the position of the coherence gate by the coherence gate stage 14, and can perform imaging on the retinal layer side or on the deeper side than the retinal layer. Shooting and the like can be controlled.

ディテクタ15は、不図示の干渉部において生じた、被検眼からの測定光の戻り光と参照光との干渉光を検出し、干渉信号を生成する。画像処理装置20は、ディテクタ15からの干渉信号を取得し、干渉信号に対してフーリエ変換等を行うことで被検眼の断層画像を生成することができる。 The detector 15 detects interference light between the return light of the measurement light from the eye to be inspected and the reference light, which is generated in an interference portion (not shown), and generates an interference signal. The image processing device 20 can generate a tomographic image of the subject's eye by acquiring an interference signal from the detector 15 and performing Fourier transform or the like on the interference signal.

内部固視灯16には、表示部161、及びレンズ162が設けられている。本実施例では、表示部161の一例として複数の発光ダイオード(LD)がマトリックス状に配置されたものを用いる。発光ダイオードの点灯位置は、画像処理装置20の制御により撮影したい部位に応じて変更される。表示部161からの光は、レンズ162を介し、被検眼に導かれる。表示部161から出射される光は、例えば520nmの波長を有し、画像処理装置20による制御により所望のパターンで表示される。 The internal fixation lamp 16 is provided with a display section 161 and a lens 162 . In this embodiment, as an example of the display unit 161, a display unit in which a plurality of light emitting diodes (LD) are arranged in a matrix is used. The lighting position of the light-emitting diode is changed according to the part to be photographed under the control of the image processing device 20 . Light from the display unit 161 is guided to the subject's eye via the lens 162 . The light emitted from the display unit 161 has a wavelength of 520 nm, for example, and is displayed in a desired pattern under the control of the image processing device 20 .

なお、OCT装置10には、画像処理装置20による制御に基づいて、各構成要素の駆動を制御するOCT装置10用の駆動制御部が設けられてもよい。 Note that the OCT apparatus 10 may be provided with a drive control unit for the OCT apparatus 10 that controls driving of each component based on control by the image processing apparatus 20 .

次に、図2(a)乃至2(c)を参照して、画像処理システム1で取得する眼の構造と画像について説明する。図2(a)は眼球の模式図である。図2(a)には、角膜C、水晶体CL、硝子体V、黄斑部M(黄斑の中心部は中心窩を表す)、及び視神経乳頭部Dが表されている。本実施例では、主に、硝子体V、黄斑部M、視神経乳頭部Dを含む網膜の後極部を撮影する場合について説明を行う。なお、以下では説明をしないが、OCT装置10は、角膜や水晶体等の前眼部を撮影することも可能である。 Next, the structure and images of the eye acquired by the image processing system 1 will be described with reference to FIGS. 2(a) to 2(c). FIG. 2(a) is a schematic diagram of an eyeball. FIG. 2(a) shows the cornea C, lens CL, vitreous body V, macula M (the center of the macula represents the fovea), and optic papilla D. FIG. In this embodiment, a case of photographing the posterior pole of the retina including the vitreous body V, the macula M, and the optic papilla D will be mainly described. Although not described below, the OCT apparatus 10 can also photograph the anterior segment of the eye such as the cornea and the lens.

図2(b)は、OCT装置10を用いて網膜を撮影することで取得した断層画像の一例を示す。図2(b)において、ASは一回のAスキャンにより取得される画像単位を示す。ここで、Aスキャンとは、OCT装置10の上記一連の動作により、被検眼の一点における深さ方向の断層情報を取得することをいう。また、Aスキャンを任意の横断方向(主走査方向)において複数回行うことで被検眼の当該横断方向と深さ方向の二次元の断層情報を取得することをBスキャンという。Aスキャンによって取得されたAスキャン画像を複数集めることで、1つのBスキャン画像を構成することができる。以下、このBスキャン画像のことを、断層画像と呼ぶ。 FIG. 2B shows an example of a tomographic image obtained by imaging the retina using the OCT apparatus 10. As shown in FIG. In FIG. 2B, AS indicates an image unit obtained by one A-scan. Here, the A-scan means acquisition of tomographic information in the depth direction at one point of the subject's eye through the series of operations of the OCT apparatus 10 . Acquiring two-dimensional tomographic information of the subject's eye in the transverse direction (main scanning direction) by performing A-scans multiple times in the transverse direction (main scanning direction) is called B-scanning. A single B-scan image can be configured by collecting a plurality of A-scan images acquired by A-scan. This B-scan image is hereinafter referred to as a tomographic image.

図2(b)には、血管Ve、硝子体V、黄斑部M、及び視神経乳頭部Dが表されている。また、境界線L1は内境界膜(ILM)と神経線維層(NFL)との境界、境界線L2は神経線維層と神経節細胞層(GCL)との境界、境界線L3は視細胞内節外節接合部(ISOS)を表す。さらに、境界線L4は網膜色素上皮層(RPE)、境界線L5はブルッフ膜(BM)、境界線L6は脈絡膜を表す。断層画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(深さ方向)をz軸とする。 In FIG. 2(b), a blood vessel Ve, a vitreous body V, a macula M, and an optic papilla D are shown. In addition, the boundary line L1 is the boundary between the inner limiting membrane (ILM) and the nerve fiber layer (NFL), the boundary line L2 is the boundary between the nerve fiber layer and the ganglion cell layer (GCL), and the boundary line L3 is the photoreceptor inner segment. Represents outer segment junction (ISOS). Furthermore, the boundary line L4 represents the retinal pigment epithelium layer (RPE), the boundary line L5 represents the Bruch's membrane (BM), and the boundary line L6 represents the choroid. In a tomographic image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (depth direction) is the z-axis.

図2(c)は、眼底画像撮影装置30を用いて被検眼の眼底を撮影することで取得した眼底画像の一例を示す。図2(c)には、黄斑部M、及び視神経乳頭部Dが表されており、網膜の血管が太い曲線で表されている。眼底画像において、横軸(OCTの主走査方向)をx軸とし、縦軸(OCTの副走査方向)をy軸とする。 FIG. 2C shows an example of a fundus image obtained by photographing the fundus of the subject's eye using the fundus imaging device 30 . FIG. 2(c) shows the macula M and the optic papilla D, and the blood vessels of the retina are indicated by thick curves. In the fundus image, the horizontal axis (main scanning direction of OCT) is the x-axis, and the vertical axis (sub-scanning direction of OCT) is the y-axis.

次に、画像処理装置20について説明する。画像処理装置20には、取得部21、画像処理部22、駆動制御部23、記憶部24、及び表示制御部25が設けられている。 Next, the image processing device 20 will be described. The image processing device 20 is provided with an acquisition section 21 , an image processing section 22 , a drive control section 23 , a storage section 24 and a display control section 25 .

取得部21は、OCT装置10から被検眼の干渉信号のデータを取得することができる。なお、取得部21が取得する干渉信号のデータは、アナログ信号でもデジタル信号でもよい。取得部21がアナログ信号を取得する場合には、画像処理装置20でアナログ信号をデジタル信号に変換することができる。また、取得部21は、画像処理部22で生成された断層データや断層画像及びEn-Face画像等の各種画像を取得することができる。ここで、断層データとは、被検体の断層に関する情報を含むデータであり、OCTによる干渉信号に基づくデータ、及びこれに高速フーリエ変換(FFT:Fast Fourier Transform)や任意の信号処理を行ったデータを含むものをいう。 The acquisition unit 21 can acquire the data of the interference signal of the eye to be examined from the OCT apparatus 10 . Note that the interference signal data acquired by the acquisition unit 21 may be an analog signal or a digital signal. When the acquisition unit 21 acquires an analog signal, the image processing device 20 can convert the analog signal into a digital signal. Further, the acquisition unit 21 can acquire various images such as tomographic data, tomographic images, and En-Face images generated by the image processing unit 22 . Here, the tomographic data is data including information about the tomography of the subject, and data based on interference signals by OCT, and data obtained by subjecting this to fast Fourier transform (FFT) and arbitrary signal processing. includes

さらに、取得部21は、画像処理すべき断層画像の撮影条件群(例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像の画素サイズ、画像フィルタ、及び画像のデータ形式に関する情報など)を取得する。なお、撮影条件群については、例示したものに限られない。また、撮影条件群は、例示したもの全てを含む必要はなく、これらのうちの一部を含んでもよい。 Furthermore, the acquisition unit 21 acquires a group of imaging conditions for a tomographic image to be image-processed (for example, imaging date and time, imaging site name, imaging region, imaging angle of view, imaging method, image resolution and gradation, image pixel size, image filter, and information about the data format of the image). Note that the imaging condition group is not limited to the examples. Also, the imaging condition group does not need to include all of the exemplified ones, and may include some of them.

また、取得部21は、眼底画像撮影装置30で取得した眼底情報を含むデータ等を取得することができる。さらに、取得部21は、被検者識別番号等の被検眼を同定するための情報を入力部60等から取得することができる。取得部21は、取得した各種データや画像を記憶部24に記憶させることができる。 The acquisition unit 21 can also acquire data including fundus information acquired by the fundus imaging device 30 . Furthermore, the acquisition unit 21 can acquire information for identifying the eye to be examined, such as the subject's identification number, from the input unit 60 or the like. The acquisition unit 21 can store the acquired various data and images in the storage unit 24 .

画像処理部22は、取得部21で取得されたデータや記憶部24に記憶されたデータから、断層画像やEn-Face画像等を生成し、生成又は取得した画像に画像処理を施すことができる。このため、画像処理部22は、En-Face画像や後述するモーションコントラスト正面画像を生成する生成部の一例として機能することができる。画像処理部22には、断層画像生成部221及び処理部222(第一の処理部)が設けられている。 The image processing unit 22 can generate a tomographic image, an En-Face image, or the like from the data acquired by the acquisition unit 21 or the data stored in the storage unit 24, and can apply image processing to the generated or acquired image. . Therefore, the image processing unit 22 can function as an example of a generating unit that generates an En-Face image or a motion contrast front image described later. The image processing unit 22 is provided with a tomographic image generating unit 221 and a processing unit 222 (first processing unit).

断層画像生成部221は、取得部21で取得された干渉信号に対してフーリエ変換等の処理を施して断層データを生成し、断層データに基づいて断層画像を生成することができる。なお、断層画像の生成方法としては既知の任意の方法を採用してよく、詳細な説明は省略する。 The tomographic image generation unit 221 can generate tomographic data by performing processing such as Fourier transform on the interference signal acquired by the acquisition unit 21, and can generate a tomographic image based on the tomographic data. Note that any known method may be employed as a method for generating a tomographic image, and detailed description thereof will be omitted.

処理部222は、ディープラーニング等の機械学習アルゴリズムによる機械学習モデルに関する学習済モデルを含むことができる。具体的な機械学習モデルに関しては後述する。処理部222は、学習済モデルを用いて、断層画像において被検眼の網膜層を検出するための検出処理を実行し、各網膜層を検出する。 The processing unit 222 can include trained models for machine learning models by machine learning algorithms such as deep learning. A specific machine learning model will be described later. The processing unit 222 uses the learned model to execute detection processing for detecting the retinal layers of the subject's eye in the tomographic image, and detects each retinal layer.

駆動制御部23は、画像処理装置20に接続されている、OCT装置10や眼底画像撮影装置30の各構成要素の駆動を制御することができる。記憶部24は、取得部21で取得された断層データ、及び画像処理部22で生成・処理された断層画像等の各種画像やデータ等を記憶することができる。また、記憶部24は、プロセッサーによって実行されることで画像処理装置20の各構成要素の機能を果たすためのプログラム等を記憶することもできる。 The drive control unit 23 can control driving of each component of the OCT device 10 and the fundus imaging device 30 connected to the image processing device 20 . The storage unit 24 can store tomographic data acquired by the acquiring unit 21 and various images such as tomographic images generated and processed by the image processing unit 22, data, and the like. The storage unit 24 can also store a program or the like for performing the function of each component of the image processing apparatus 20 by being executed by the processor.

表示制御部25は、取得部21で取得された各種情報や画像処理部22で生成・処理された断層画像、及び操作者によって入力された情報等の表示部50における表示を制御することができる。 The display control unit 25 can control display on the display unit 50 of various information acquired by the acquisition unit 21, tomographic images generated and processed by the image processing unit 22, and information input by the operator. .

画像処理装置20の記憶部24以外の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。なお、プロセッサーは、例えば、GPU(Graphical Processing Unit)やFPGA(Field-Programmable Gate Array)等であってもよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。記憶部24は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。 Each component of the image processing apparatus 20 other than the storage unit 24 may be configured by a software module executed by a processor such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit). Note that the processor may be, for example, a GPU (Graphical Processing Unit), an FPGA (Field-Programmable Gate Array), or the like. Also, each component may be configured by a circuit or the like that performs a specific function, such as an ASIC. The storage unit 24 may be composed of, for example, an arbitrary storage medium such as an optical disk or memory.

次に、図3を参照して、本実施例に係る一連の処理について説明する。図3は、本実施例に係る一連の処理のフローチャートである。本実施例に係る一連の処理が開始されると、処理はステップS301に移行する。 Next, a series of processes according to this embodiment will be described with reference to FIG. FIG. 3 is a flowchart of a series of processes according to this embodiment. When a series of processes according to this embodiment is started, the process proceeds to step S301.

ステップS301では、取得部21が、被検眼を同定する情報の一例である被検者識別番号を入力部60等の画像処理装置20の外部から取得する。取得部21は、被検者識別番号に基づいて、外部記憶装置40が保持している当該被検眼に関する情報を取得して記憶部24に記憶する。 In step S<b>301 , the acquisition unit 21 acquires a subject identification number, which is an example of information for identifying an eye to be examined, from outside the image processing apparatus 20 such as the input unit 60 . The acquisition unit 21 acquires information about the subject's eye held in the external storage device 40 based on the subject identification number, and stores the information in the storage unit 24 .

ステップS302では、駆動制御部23がOCT装置10を制御して被検眼をスキャンすることで撮影を行い、取得部21がOCT装置10から被検眼の断層情報を含む干渉信号を取得する。被検眼のスキャンは、操作者によるスキャン開始の指示に応じて、駆動制御部23がOCT装置10を制御し、光源11やガルバノミラー12等を動作させることで行われる。 In step S<b>302 , the drive control unit 23 controls the OCT apparatus 10 to scan the subject's eye for imaging, and the acquisition unit 21 acquires an interference signal including tomographic information of the subject's eye from the OCT apparatus 10 . The eye to be inspected is scanned by the drive control unit 23 controlling the OCT apparatus 10 and operating the light source 11, the galvanomirror 12, etc. in response to an operator's instruction to start scanning.

ガルバノミラー12は、水平方向用のXスキャナと垂直方向用のYスキャナを含む。そのため、駆動制御部23は、これらのスキャナの向きをそれぞれ変更することで、装置座標系における水平方向(X)及び垂直方向(Y)のそれぞれの方向に測定光を走査することができる。なお、駆動制御部23は、これらのスキャナの向きを同時に変更させることで、水平方向と垂直方向とを合成した方向にも測定光を走査することができる。そのため、駆動制御部23は、眼底平面上の任意の方向に測定光を走査することができる。 The galvanomirror 12 includes a horizontal X scanner and a vertical Y scanner. Therefore, the drive control unit 23 can scan the measurement light in each of the horizontal (X) and vertical (Y) directions in the device coordinate system by changing the directions of these scanners. By simultaneously changing the directions of these scanners, the drive control unit 23 can also scan the measurement light in a direction that combines the horizontal direction and the vertical direction. Therefore, the drive control unit 23 can scan the measurement light in any direction on the fundus plane.

駆動制御部23は、撮影を行うにあたり各種撮影パラメータの調整を行う。具体的には、駆動制御部23は、内部固視灯16で表示するパターンの位置、ガルバノミラー12によるスキャン範囲やスキャンパターン、コヒーレンスゲート位置、及びフォーカスを少なくとも設定する。 The drive control unit 23 adjusts various photographing parameters when photographing. Specifically, the drive control unit 23 sets at least the position of the pattern displayed by the internal fixation lamp 16, the scan range and scan pattern by the galvanomirror 12, the coherence gate position, and the focus.

駆動制御部23は、表示部161の発光ダイオードを制御して、被検眼の黄斑部中心や視神経乳頭の撮影を行うように内部固視灯16で表示するパターンの位置を制御する。また、駆動制御部23は、ガルバノミラー12のスキャンパターンとして、三次元ボリュームを撮影するラスタスキャンや放射状スキャン、クロススキャンなどのスキャンパターンを設定する。なお、どのスキャンパターンを選択したとしても、一つのライン上を繰り返し複数枚(繰り返し回数は2枚以上)撮影する。本実施例においては、スキャンパターンはクロススキャン、同一箇所を150枚繰り返し撮影する場合について説明する。これら撮影パラメータの調整終了後、操作者による撮影開始の指示に応じて、駆動制御部23がOCT装置10を制御して被検眼の撮影を行う。なお、本実施例に係る繰り返し回数は一例であり、所望の構成に応じて任意の回数に設定されてよい。 The drive control unit 23 controls the light emitting diodes of the display unit 161 to control the position of the pattern displayed by the internal fixation lamp 16 so as to image the center of the macular region and the optic papilla of the subject's eye. Further, the drive control unit 23 sets, as the scan pattern of the galvanomirror 12, a scan pattern such as a raster scan, a radial scan, or a cross scan for imaging a three-dimensional volume. Note that regardless of which scan pattern is selected, a plurality of images (the number of repetitions is two or more) are repeatedly taken on one line. In this embodiment, a cross scan is used as the scan pattern, and 150 images of the same location are repeatedly photographed. After the adjustment of these imaging parameters is completed, the drive control unit 23 controls the OCT apparatus 10 to perform imaging of the subject's eye in response to an operator's instruction to start imaging. Note that the number of repetitions according to this embodiment is an example, and may be set to an arbitrary number according to a desired configuration.

本開示においては詳細な説明を省略するが、OCT装置10は、加算平均用に同じ箇所を撮影するために、被検眼のトラッキングを行うことができる。これにより、OCT装置10は、固視微動の影響を少なくして被検眼のスキャンを行うことができる。 Although detailed description is omitted in the present disclosure, the OCT apparatus 10 can perform tracking of the subject's eye in order to photograph the same location for averaging. As a result, the OCT apparatus 10 can scan the subject's eye with less influence of involuntary eye movement.

ステップS303では、断層画像生成部221が、取得部21によって取得された干渉信号に基づいて断層画像の生成を行う。断層画像生成部221は、それぞれの干渉信号に対して、一般的な再構成処理を行うことで、断層画像を生成することができる。 In step S<b>303 , the tomographic image generation unit 221 generates a tomographic image based on the interference signal acquired by the acquisition unit 21 . The tomographic image generator 221 can generate a tomographic image by performing general reconstruction processing on each interference signal.

まず、断層画像生成部221は、干渉信号から固定パターンノイズ除去を行う。固定パターンノイズ除去は、取得した複数のAスキャンの信号を平均することで固定パターンノイズを抽出し、これを入力した干渉信号から減算することで行われる。その後、断層画像生成部221は、有限区間で干渉信号をフーリエ変換した場合にトレードオフの関係となる深さ分解能とダイナミックレンジを最適化するために、所望の窓関数処理を行う。断層画像生成部221は、窓関数処理を行った干渉信号に対して高速フーリエ変換(FFT)処理を行うことによって断層データを生成する。 First, the tomographic image generator 221 removes fixed pattern noise from the interference signal. Fixed pattern noise removal is performed by averaging a plurality of acquired A-scan signals to extract fixed pattern noise and subtracting it from the input interference signal. After that, the tomographic image generator 221 performs desired window function processing in order to optimize the depth resolution and the dynamic range, which are in a trade-off relationship when the interference signal is Fourier transformed in a finite interval. The tomographic image generating unit 221 generates tomographic data by performing fast Fourier transform (FFT) processing on the window function-processed interference signal.

断層画像生成部221は、生成した断層データに基づいて断層画像の各画素値を求め、断層画像を生成する。なお、断層画像の生成方法はこれに限られず、既知の任意の方法で行われてよい。 The tomographic image generation unit 221 obtains each pixel value of the tomographic image based on the generated tomographic data, and generates a tomographic image. Note that the method for generating the tomographic image is not limited to this, and any known method may be used.

ステップS304では、画像処理部22の処理部222が網膜層の検出処理を行う。図4(a)及び(b)を参照して、処理部222の処理について説明する。 In step S304, the processing unit 222 of the image processing unit 22 performs retinal layer detection processing. Processing of the processing unit 222 will be described with reference to FIGS.

処理部222は、OCT装置10を用いて取得した複数の断層画像において網膜層の境界を検出する。処理部222は、予め機械学習が行われた機械学習モデルに関する学習済モデルを用いて各網膜層を検出する。 The processing unit 222 detects boundaries between retinal layers in a plurality of tomographic images acquired using the OCT apparatus 10 . The processing unit 222 detects each retinal layer using a learned model related to a machine learning model in which machine learning has been performed in advance.

ここで、図4(a)乃至6を参照して、本実施例に係る機械学習アルゴリズムについて説明する。本実施例に係る機械学習モデルの学習データ(教師データ)は、1つ以上の入力データと出力データとのペア群で構成される。具体的には、入力データとして、OCTにより取得された断層画像401が挙げられ、出力データとして、当該断層画像について網膜層の境界が特定された境界画像402が挙げられる。本実施例では、境界画像402として、ILMとNFLとの境界403、NFLとGCLとの境界404、ISOS405、RPE406、及びBM407が示された画像を用いる。なお、図示はしないが、その他の境界として、外網状層(OPL)と外顆粒層(ONL)との境界、内網状層(IPL)と内顆粒層(INL)との境界、INLとOPLとの境界、GCLとIPLとの境界等が示された画像を用いてもよい。 Here, the machine learning algorithm according to this embodiment will be described with reference to FIGS. The learning data (teacher data) of the machine learning model according to this embodiment is composed of one or more pairs of input data and output data. Specifically, the input data includes a tomographic image 401 acquired by OCT, and the output data includes a boundary image 402 in which the boundaries of the retinal layers are specified for the tomographic image. In this embodiment, as the boundary image 402, an image showing a boundary 403 between the ILM and the NFL, a boundary 404 between the NFL and the GCL, the ISOS 405, the RPE 406, and the BM 407 is used. Although not shown, other boundaries include the boundary between the outer plexiform layer (OPL) and the outer nuclear layer (ONL), the boundary between the inner plexiform layer (IPL) and the inner nuclear layer (INL), and the boundary between the INL and the OPL. , a boundary between GCL and IPL, and the like may be used.

なお、出力データとして用いられる境界画像402は、医師等により断層画像において境界が示された画像であってもよいし、ルールベースの境界検出処理により境界が検出された画像であってもよい。ただし、適切に境界検出が行われていない境界画像を教師データの出力データとして用いて機械学習を行うと、当該教師データを用いて学習した学習済モデルを用いて得た画像も適切に境界検出が行われていない境界画像となってしまう可能性がある。そのため、そのような境界画像を含むペアを教師データから取り除くことで、学習済モデルを用いて適切でない境界画像が生成される可能性を低減させることができる。ここで、ルールベースの処理とは既知の規則性を利用した処理をいい、ルールベースの境界検出とは、例えば網膜の形状の規則性等の既知の規則性を利用した境界検出処理をいう。 Note that the boundary image 402 used as the output data may be an image in which the boundary is indicated in the tomographic image by a doctor or the like, or may be an image in which the boundary is detected by rule-based boundary detection processing. However, if machine learning is performed using boundary images for which boundary detection has not been properly performed as output data for training data, images obtained using a trained model that has been trained using the training data will also detect boundaries appropriately. There is a possibility that it will become a boundary image that has not been processed. Therefore, by removing pairs including such boundary images from the training data, it is possible to reduce the possibility of generating inappropriate boundary images using the trained model. Here, rule-based processing refers to processing that uses known regularity, and rule-based boundary detection refers to boundary detection processing that uses known regularity such as the regularity of the shape of the retina.

また、図4(a)及び(b)においては、網膜のXY面内におけるある一つのXZ断面の例を示しているが、断面はこれに限らない。図示しないが、XY面内における任意の複数のXZ断面についての断層画像及び境界画像を事前に学習しておき、ラスタスキャンやラジアルスキャン等、異なる様々なスキャンパターンで撮影された断面に対して対応できるようにしておくことができる。例えば、ラスタスキャンで三次元的に網膜を撮影した断層画像等のデータを用いる場合には、隣接する複数の断層画像間の位置合わせをしたボリュームデータを教師データに用いることができる。この場合には、1つのボリュームデータ(三次元の断層画像)とこれに対応する1つの三次元の境界データ(三次元の境界画像)とから、任意の角度のペア画像群を生成することが可能である。また、機械学習モデルは、実際に様々なスキャンパターンで撮影した画像を教師データとして用いて学習してもよい。 Also, FIGS. 4A and 4B show an example of one XZ cross section in the XY plane of the retina, but the cross section is not limited to this. Although not shown, tomographic images and boundary images for arbitrary multiple XZ cross-sections in the XY plane are learned in advance, and cross-sections taken with various different scan patterns such as raster scan and radial scan can be handled. You can make it possible. For example, when using data such as tomographic images obtained by three-dimensionally photographing the retina by raster scanning, volume data obtained by aligning a plurality of adjacent tomographic images can be used as teacher data. In this case, from one volume data (three-dimensional tomographic image) and one corresponding three-dimensional boundary data (three-dimensional boundary image), it is possible to generate a group of paired images at arbitrary angles. It is possible. In addition, the machine learning model may be learned using images actually captured with various scan patterns as teacher data.

次に、学習時の画像について説明する。機械学習モデルの教師データを構成する、断層画像401と境界画像402とのペア群を構成する画像群を、位置関係が対応する一定の画像サイズの矩形領域画像によって作成する。当該画像の作成について、図5(a)乃至5(c)を参照して説明する。 Next, images during learning will be described. An image group forming a pair group of a tomographic image 401 and a boundary image 402, which constitutes teacher data of a machine learning model, is created by rectangular area images of a fixed image size corresponding to a positional relationship. Creation of the image will be described with reference to FIGS. 5(a) to 5(c).

まず、教師データを構成するペア群の1つを、断層画像401と境界画像402とした場合について説明する。この場合には、図5(a)に示すように、断層画像401の全体である矩形領域画像501を入力データ、境界画像402の全体である矩形領域画像502を出力データとして、ペアを構成する。なお、図5(a)に示す例では各画像の全体により入力データと出力データのペアを構成しているが、ペアはこれに限らない。 First, a case will be described in which a tomographic image 401 and a boundary image 402 are used as one of pairs constituting teacher data. In this case, as shown in FIG. 5A, a rectangular area image 501 that is the entire tomographic image 401 is input data, and a rectangular area image 502 that is the entire boundary image 402 is output data to form a pair. . In the example shown in FIG. 5A, the entire image constitutes a pair of input data and output data, but the pair is not limited to this.

例えば、図5(b)に示すように、断層画像401のうちの矩形領域画像511を入力データ、境界画像402における対応する撮影領域である矩形領域画像513を出力データとして、ペアを構成してもよい。矩形領域画像511,513の矩形領域は、Aスキャン単位を基本としている。Aスキャン単位とは、1本のAスキャン単位でもよいし、数本のAスキャン単位でもよい。 For example, as shown in FIG. 5B, a rectangular area image 511 in the tomographic image 401 is used as input data, and a rectangular area image 513 corresponding to the imaging area in the boundary image 402 is used as output data to form a pair. good too. The rectangular areas of the rectangular area images 511 and 513 are based on the A-scan unit. The A-scan unit may be one A-scan unit or several A-scan units.

なお、図5(b)ではAスキャン単位を基本としているが、画像に対して深さ方向の全てを領域とするのではなく、上下に矩形領域外の部分を設けてもよい。すなわち、矩形領域の横方向のサイズはAスキャン数本分、矩形領域の深さ方向のサイズは、画像の深さ方向のサイズよりも小さく設定してもよい。 In FIG. 5B, the A-scan unit is used as a basis, but instead of defining the entire area in the depth direction of the image, portions outside the rectangular area may be provided above and below. That is, the horizontal size of the rectangular area may be set to several A scans, and the depthwise size of the rectangular area may be set smaller than the size of the image in the depthwise direction.

また、図5(c)に示すように、断層画像401のうちの矩形領域画像521を入力データ、境界画像402における対応する撮影領域である矩形領域画像523を出力データとして、ペアを構成してもよい。 Also, as shown in FIG. 5C, a pair is formed by using a rectangular area image 521 in the tomographic image 401 as input data and a rectangular area image 523 corresponding to the imaging area in the boundary image 402 as output data. good too.

なお、学習時には、スキャン範囲(撮影画角)、スキャン密度(Aスキャン数)を正規化して画像サイズを揃えて、学習時の矩形領域サイズを一定に揃えることができる。また、図5(a)乃至(c)に示した矩形領域画像は、それぞれ別々に学習する際の矩形領域サイズの一例である。 During learning, the scan range (shooting angle of view) and scan density (the number of A scans) can be normalized to uniform the image size, and the size of the rectangular area during learning can be uniformed. Also, the rectangular area images shown in FIGS. 5A to 5C are examples of rectangular area sizes when each is learned separately.

矩形領域の数は、図5(a)に示す例では1つ、図5(b)及び(c)に示す例では複数設定可能である。例えば、図5(b)に示す例において、断層画像401のうちの矩形領域画像512を入力データ、境界画像402における対応する撮影領域である矩形領域画像514を出力データとしてペアを構成することもできる。また、例えば、図5(c)に示す例において、断層画像401のうちの矩形領域画像522を入力データ、境界画像402における対応する撮影領域である矩形領域画像524を出力データとしてペアを構成することもできる。このように、1枚ずつの断層画像及び境界画像のペアから、互いに異なる矩形領域画像のペアを作成できる。なお、元となる断層画像及び境界画像において、領域の位置を異なる座標に変えながら多数の矩形領域画像のペアを作成することで、教師データを構成するペア群を充実させることができる。 The number of rectangular areas can be set to one in the example shown in FIG. 5(a), and multiple in the examples shown in FIGS. 5(b) and 5(c). For example, in the example shown in FIG. 5B, a pair may be formed by using the rectangular area image 512 of the tomographic image 401 as input data and the rectangular area image 514, which is the corresponding imaging area in the boundary image 402, as output data. can. Further, for example, in the example shown in FIG. 5C, a pair is formed by using the rectangular area image 522 of the tomographic image 401 as input data and the rectangular area image 524 corresponding to the imaging area in the boundary image 402 as output data. can also In this manner, a pair of rectangular area images different from each other can be created from each pair of tomographic image and boundary image. By creating a large number of pairs of rectangular area images while changing the position of the area to different coordinates in the original tomographic image and boundary image, it is possible to enrich the pair group that constitutes the teacher data.

図5(b)及び(c)に示す例では、離散的に矩形領域を示しているが、実際には、元となる断層画像及び境界画像を、隙間なく連続する一定の画像サイズの矩形領域画像群に分割することができる。また、元となる断層画像及び境界画像について、互いに対応する、ランダムな位置の矩形領域画像群に分割してもよい。このように、矩形領域(又は、短冊領域)として、より小さな領域の画像を入力データ及び出力データのペアとして選択することで、もともとのペアを構成する断層画像401及び境界画像402から多くのペアデータを生成できる。そのため、機械学習モデルのトレーニングにかかる時間を短縮することができる。一方で、完成した機械学習モデルの学習済モデルでは、実行する画像セグメンテーション処理の時間が長くなる傾向にある。ここで、画像セグメンテーション処理とは、画像内の領域や境界を識別したり、区別したりする処理をいう。 Although the examples shown in FIGS. 5B and 5C show discrete rectangular regions, in reality, the original tomographic image and the boundary image are continuously formed into rectangular regions of a constant image size without gaps. It can be divided into groups of images. Also, the original tomographic image and boundary image may be divided into rectangular area image groups at random positions corresponding to each other. In this way, by selecting an image of a smaller area as a rectangular area (or strip area) as a pair of input data and output data, many pairs can be obtained from the tomographic image 401 and the boundary image 402 that form the original pair. Can generate data. This reduces the time it takes to train machine learning models. On the other hand, the trained model of the completed machine learning model tends to take a long time to perform image segmentation processing. Here, image segmentation processing refers to processing for identifying and distinguishing regions and boundaries within an image.

次に、本実施例に係る機械学習モデルの一例として、入力された断層画像に対して、画像セグメンテーション処理を行う畳み込みニューラルネットワーク(CNN)に関して、図6を参照して説明する。図6は、処理部222における機械学習モデルの構成601の一例を示している。なお、本実施例に係る機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、所望の構成に応じて領域単位で物体認識を行う機械学習モデルを用いてもよい。物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Look Only Onse)、又はSSD(Single Shot MultiBox Detector)を用いることもできる。 Next, as an example of the machine learning model according to the present embodiment, a convolutional neural network (CNN) that performs image segmentation processing on input tomographic images will be described with reference to FIG. FIG. 6 shows an example of a machine learning model configuration 601 in the processing unit 222 . As the machine learning model according to the present embodiment, for example, FCN (Fully Convolutional Network), SegNet, or the like can also be used. Also, a machine learning model that performs object recognition on a region-by-region basis according to a desired configuration may be used. As a machine learning model for object recognition, RCNN (Region CNN), fastRCNN, or fasterRCNN, for example, can be used. Furthermore, YOLO (You Look Only Once) or SSD (Single Shot MultiBox Detector) can also be used as a machine learning model that performs object recognition in units of regions.

図6に示す機械学習モデルは、入力値群を加工して出力する処理を担う複数の層群によって構成される。なお、当該機械学習モデルの構成601に含まれる層の種類としては、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。 The machine learning model shown in FIG. 6 is composed of a plurality of layer groups that process and output a group of input values. The types of layers included in the configuration 601 of the machine learning model include a convolution layer, a downsampling layer, an upsampling layer, and a merger layer.

畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、フィルタのカーネルサイズの次元数も変更してもよい。 The convolution layer is a layer that performs convolution processing on an input value group according to set parameters such as the kernel size of filters, the number of filters, the stride value, and the dilation value. Note that the number of dimensions of the kernel size of the filter may also be changed according to the number of dimensions of the input image.

ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。具体的には、このような処理として、例えば、Max Pooling処理がある。 The down-sampling layer is a layer that performs processing to make the number of output value groups smaller than the number of input value groups by thinning out or synthesizing input value groups. Specifically, such processing includes, for example, Max Pooling processing.

アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。具体的には、このような処理として、例えば、線形補間処理がある。 The upsampling layer is a layer that performs processing to make the number of output value groups larger than the number of input value groups by duplicating the input value group or adding values interpolated from the input value group. Specifically, such processing includes, for example, linear interpolation processing.

合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The synthesizing layer is a layer that performs a process of synthesizing a group of values such as a group of output values of a certain layer and a group of pixel values forming an image from a plurality of sources and connecting or adding them.

なお、図6に示す構成601に含まれる畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の画像セグメンテーション処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施する際の形態に応じて適切なパラメータは異なるので、必要に応じて好ましい値に変更することができる。 As parameters to be set in the convolutional layer group included in the configuration 601 shown in FIG. image segmentation processing is possible. However, if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendencies trained from the teacher data can be reproduced in the output data may differ. In other words, in many cases, appropriate parameters differ depending on the mode of implementation, and can be changed to preferred values as necessary.

また、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、画像セグメンテーション処理の精度が高かったり、画像セグメンテーション処理の時間が短かったり、機械学習モデルのトレーニングにかかる時間が短かったりする等である。 In addition to the method of changing the parameters as described above, there are cases where the CNN can obtain better characteristics by changing the configuration of the CNN. Better characteristics are, for example, higher accuracy of image segmentation processing, shorter time for image segmentation processing, shorter time for machine learning model training, and the like.

なお、本実施例で用いるCNNの構成601は、複数のダウンサンプリング層を含む複数の階層からなるエンコーダーの機能と、複数のアップサンプリング層を含む複数の階層からなるデコーダーの機能とを有するU-net型の機械学習モデルである。U-net型の機械学習モデルでは、エンコーダーとして構成される複数の階層において曖昧にされた位置情報(空間情報)を、デコーダーとして構成される複数の階層において、同次元の階層(互いに対応する階層)で用いることができるように(例えば、スキップコネクションを用いて)構成される。 The configuration 601 of the CNN used in this embodiment has the function of an encoder consisting of a plurality of layers including a plurality of downsampling layers and the function of a decoder consisting of a plurality of layers including a plurality of upsampling layers. It is a net-type machine learning model. In the U-net type machine learning model, position information (spatial information) obscured in multiple layers configured as encoders is converted to the same dimensional layers (mutually corresponding layers) in multiple layers configured as decoders. ) (eg, using a skip connection).

図示しないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしてもよい。 Although not shown, as an example of changing the configuration of the CNN, for example, a batch normalization layer after the convolution layer or an activation layer using a rectifier linear unit may be incorporated. good.

このような機械学習モデルの学習済モデルにデータを入力すると、機械学習モデルの設計に従ったデータが出力される。例えば、教師データを用いてトレーニングされた傾向に従って入力データに対応する可能性の高い出力データが出力される。 When data is input to a trained model of such a machine learning model, data according to the design of the machine learning model is output. For example, output data that is highly likely to correspond to input data is output according to a tendency trained using teacher data.

本実施例に係る処理部222の学習済モデルでは、断層画像401が入力されると、教師データを用いてトレーニングされた傾向に従って、境界画像402を出力する。処理部222は、境界画像402に基づいて断層画像401における網膜層及びその境界を検出することができる。 In the trained model of the processing unit 222 according to this embodiment, when the tomographic image 401 is input, the boundary image 402 is output according to the tendency trained using the teacher data. The processing unit 222 can detect the retinal layers and their boundaries in the tomographic image 401 based on the boundary image 402 .

なお、図5(b)及び(c)に示すように、画像の領域を分割して学習している場合、処理部222は学習済モデルを用いて、それぞれの矩形領域に対応する境界画像である矩形領域画像を得る。そのため、処理部222は、各矩形領域において網膜層を検出することができる。この場合、処理部222は、学習済モデルを用いて得た境界画像である矩形領域画像群のそれぞれを、矩形領域画像群のぞれぞれと同様の位置関係に配置して結合することで、入力された断層画像401に対応する境界画像402を生成することができる。この場合にも、処理部222は、生成された境界画像402に基づいて断層画像401における網膜層及びその境界を検出することができる。 As shown in FIGS. 5(b) and 5(c), when the image area is divided and learned, the processing unit 222 uses the learned model to obtain a boundary image corresponding to each rectangular area. Get a rectangular area image. Therefore, the processing unit 222 can detect the retinal layer in each rectangular area. In this case, the processing unit 222 arranges each of the rectangular area image groups, which are boundary images obtained using the trained model, in the same positional relationship as each of the rectangular area image groups and combines them. , a boundary image 402 corresponding to the input tomographic image 401 can be generated. Also in this case, the processing unit 222 can detect the retinal layers and their boundaries in the tomographic image 401 based on the generated boundary image 402 .

ステップS304において、処理部222が網膜層の検出処理を行うと、処理はステップS305に移行する。ステップS305では、表示制御部25が、処理部222によって検出した境界と断層画像とを表示部50に表示する。ここで、図7に表示部50に表示する画面の一例を示す。 In step S304, when the processing unit 222 performs the retinal layer detection process, the process proceeds to step S305. In step S<b>305 , the display control unit 25 displays the boundary detected by the processing unit 222 and the tomographic image on the display unit 50 . Here, an example of a screen displayed on the display unit 50 is shown in FIG.

図7には表示画面700が示されており、表示画面700には、SLO画像701、SLO画像701に重畳表示される厚みマップ702、En-Face画像703、断層画像711、及び網膜の厚みグラフ712が示されている。断層画像711には、網膜の境界715,716が重畳表示されている。 FIG. 7 shows a display screen 700, which includes an SLO image 701, a thickness map 702 superimposed on the SLO image 701, an En-Face image 703, a tomographic image 711, and a retinal thickness graph. 712 is shown. Boundaries 715 and 716 of the retina are superimposed on the tomographic image 711 .

なお、本実施例では網膜の範囲を、内境界膜と神経線維層との境界L1~網膜色素上皮層L4としており、境界715,716はそれぞれ境界L1及び網膜色素上皮層L4に対応する。網膜の範囲はこれに限られず、例えば、内境界膜と神経線維層との境界L1~脈絡膜L6の範囲としてもよく、この場合、境界715,716はそれぞれ境界L1及び脈絡膜L6に対応することができる。 In this embodiment, the range of the retina is from the boundary L1 between the inner limiting membrane and the nerve fiber layer to the retinal pigment epithelium layer L4, and the boundaries 715 and 716 correspond to the boundary L1 and the retinal pigment epithelium layer L4, respectively. The range of the retina is not limited to this, and may be, for example, the range from the boundary L1 between the inner limiting membrane and the nerve fiber layer to the choroid L6. In this case, the boundaries 715 and 716 may correspond to the boundary L1 and the choroid L6, respectively. can.

網膜の厚みグラフ712は、境界715,716から求められる網膜の厚みを示すグラフである。また、厚みマップ702は境界715,716から求められる網膜の厚みをカラーマップで表現したものである。なお、図7では、説明のため、厚みマップ702に対応する色情報は示されていないが、実際には、厚みマップ702は、SLO画像701における各座標に対応する網膜の厚みを対応するカラーマップに従って表示することができる。 A retinal thickness graph 712 is a graph showing the retinal thickness obtained from the boundaries 715 and 716 . A thickness map 702 is a color map representing the thickness of the retina obtained from the boundaries 715 and 716 . Note that although FIG. 7 does not show color information corresponding to the thickness map 702 for the sake of explanation, the thickness map 702 actually indicates the thickness of the retina corresponding to each coordinate in the SLO image 701 in a corresponding color. Can be displayed according to the map.

En-Face画像703は、境界715,716の間の範囲のデータをXY方向に投影して生成した正面画像である。正面画像は、光干渉を用いて得たボリュームデータ(三次元の断層画像)の少なくとも一部の深度範囲であって、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影又は積算して生成される。本実施例に係るEn-Face画像703は、ボリュームデータのうちの、検出された網膜層に基づいて決定された深度範囲(境界715,716の間の深度範囲)に対応するデータを二次元平面に投影して生成された正面画像である。なお、2つの基準面に基づいて定められた深度範囲に対応するデータを二次元平面に投影する手法としては、例えば、当該深度範囲内のデータの代表値を二次元平面上の画素値とする手法を用いることができる。ここで、代表値は、2つの基準面に囲まれた領域の深さ方向の範囲内における画素値の平均値、中央値又は最大値などの値を含むことができる。 The En-Face image 703 is a front image generated by projecting the data of the range between the boundaries 715 and 716 in the XY directions. The front image is at least a partial depth range of volume data (three-dimensional tomographic image) obtained using optical interference, and is two-dimensional data corresponding to a depth range determined based on two reference planes. It is generated by projecting or integrating onto a plane. The En-Face image 703 according to the present embodiment is a two-dimensional plane image of data corresponding to the depth range (the depth range between the boundaries 715 and 716) determined based on the detected retinal layers in the volume data. It is a front image generated by projecting to . As a method of projecting data corresponding to a depth range determined based on two reference planes onto a two-dimensional plane, for example, a representative value of data within the depth range is used as a pixel value on the two-dimensional plane. method can be used. Here, the representative value can include a value such as an average value, a median value, or a maximum value of pixel values within the range in the depth direction of the area surrounded by the two reference planes.

また、表示画面700に示されるEn-Face画像703に係る深度範囲は、境界715,716の間の深度範囲に限られない。En-Face画像703に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界715,716の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、En-Face画像703に係る深度範囲は、例えば、検出された網膜層に関する2つの層境界715,716の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 Also, the depth range related to the En-Face image 703 displayed on the display screen 700 is not limited to the depth range between the boundaries 715 and 716 . The depth range of the En-Face image 703 is, for example, a range including a predetermined number of pixels in a deeper direction or a shallower direction with respect to one of the two layer boundaries 715 and 716 regarding the detected retinal layers. There may be. In addition, the depth range of the En-Face image 703 is changed (offset) from the range between the two layer boundaries 715 and 716 of the detected retinal layers according to the operator's instruction. may be

なお、表示画面700に示される正面画像は、輝度値に基づくEn-Face画像(輝度のEn-Face画像)に限られない。表示画面700に示される正面画像は、例えば、複数のボリュームデータ間のモーションコントラストデータについて、上述の深度範囲に対応するデータを二次元平面に投影又は積算して生成したモーションコントラスト正面画像であってもよい。ここで、モーションコントラストデータとは、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得た複数のボリュームデータ間での変化を示すデータである。このとき、ボリュームデータは、異なる位置で得た複数の断層画像により構成される。そして、異なる位置それぞれにおいて、略同一位置で得た複数の断層画像の間での変化を示すデータを得ることで、モーションコントラストデータをボリュームデータとして得ることができる。なお、モーションコントラスト正面画像は、血流の動きを測定するOCTアンギオグラフィ(OCTA)に関するOCTA正面画像(OCTAのEn-Face画像)とも呼ばれ、モーションコントラストデータはOCTAデータとも呼ばれる。モーションコントラストデータは、例えば、2枚の断層画像又はこれに対応する干渉信号間の脱相関値、分散値、又は最大値を最小値で割った値(最大値/最小値)として求めることができ、公知の任意の方法により求められてよい。このとき、2枚の断層画像は、例えば、被検眼の同一領域(同一位置)において測定光が複数回走査されるように制御して得ることができる。 Note that the front image displayed on the display screen 700 is not limited to the En-Face image based on the luminance value (En-Face image of luminance). The front image shown on the display screen 700 is, for example, a motion contrast front image generated by projecting or accumulating data corresponding to the above depth range on a two-dimensional plane for motion contrast data among a plurality of volume data. good too. Here, the motion contrast data is data indicating changes between a plurality of volume data obtained by controlling the measurement light to scan the same region (same position) of the subject's eye a plurality of times. At this time, the volume data is composed of a plurality of tomographic images obtained at different positions. Then, motion contrast data can be obtained as volume data by obtaining data indicating changes between a plurality of tomographic images obtained at approximately the same position at each different position. Note that the motion contrast frontal image is also called an OCTA frontal image (OCTA En-Face image) related to OCT angiography (OCTA) for measuring the movement of blood flow, and the motion contrast data is also called OCTA data. Motion contrast data can be obtained, for example, as a decorrelation value between two tomographic images or their corresponding interference signals, a variance value, or a value obtained by dividing the maximum value by the minimum value (maximum value/minimum value). , may be determined by any known method. At this time, the two tomographic images can be obtained, for example, by controlling the measurement light to scan the same region (same position) of the subject's eye a plurality of times.

また、OCTA正面画像を生成する際に用いられる三次元のOCTAデータ(OCTボリュームデータ)は、網膜層を検出するための断層画像を含むボリュームデータと共通の干渉信号の少なくとも一部を用いて生成されてもよい。この場合には、ボリュームデータ(三次元の断層画像)と三次元のOCTAデータとが互いに対応することができる。そのため、ボリュームデータに対応する三次元のモーションコントラストデータを用いて、例えば、検出された網膜層に基づいて決定された深度範囲に対応するモーションコントラスト正面画像が生成されることができる。 In addition, the three-dimensional OCTA data (OCT volume data) used to generate the OCTA front image is generated using at least part of the volume data including the tomographic image for detecting the retinal layer and the common interference signal. may be In this case, volume data (three-dimensional tomographic image) and three-dimensional OCTA data can correspond to each other. As such, the three-dimensional motion contrast data corresponding to the volume data can be used to generate, for example, a motion contrast frontal image corresponding to a depth range determined based on the detected retinal layers.

ここで、厚みマップ702、En-Face画像703、厚みグラフ712、及び境界715,716の表示は、処理部222で検出した境界や網膜層に基づいて、画像処理装置20によって生成されることができるものの例である。なお、これらを生成する生成方法は公知の任意の方法を採用してよい。 The display of the thickness map 702, the En-Face image 703, the thickness graph 712, and the boundaries 715 and 716 may be generated by the image processing device 20 based on the boundaries and retinal layers detected by the processing unit 222. This is an example of what can be done. Any known method may be adopted as a method for generating these.

なお、表示部50の表示画面700には、これらに加えて患者タブ、撮影タブ、レポートタブ、及び設定タブ等を設けてもよい。この場合、図7の表示画面700に示されている内容は、レポートタブに表示されることとなる。また、表示画面700には、患者情報表示部、検査ソートタブ、及び検査リスト等を表示することもできる。検査リストには、眼底画像や断層画像、OCTA画像のサムネイルを表示してもよい。 In addition to these, the display screen 700 of the display unit 50 may be provided with a patient tab, an imaging tab, a report tab, a setting tab, and the like. In this case, the contents shown on the display screen 700 of FIG. 7 are displayed on the report tab. The display screen 700 can also display a patient information display section, examination sort tabs, an examination list, and the like. Thumbnails of fundus images, tomographic images, and OCTA images may be displayed in the examination list.

次に、ステップS306において、取得部21は、画像処理システム1による断層画像の撮影に係る一連の処理を終了するか否かの指示を外部から取得する。この指示は、入力部60を用いて、操作者によって入力されることができる。取得部21が、処理を終了する指示を取得した場合には、画像処理システム1は本実施例に係る一連の処理を終了する。一方、取得部21が、処理を終了しない指示を取得した場合には、ステップS302に処理を戻して撮影を続行する。 Next, in step S<b>306 , the acquisition unit 21 acquires from the outside an instruction as to whether or not to end the series of processes related to the imaging of the tomographic image by the image processing system 1 . This instruction can be input by the operator using the input unit 60 . When the acquisition unit 21 acquires the instruction to end the process, the image processing system 1 ends the series of processes according to this embodiment. On the other hand, when the acquiring unit 21 acquires an instruction not to end the process, the process returns to step S302 to continue shooting.

上記のように、本実施例に係る画像処理装置20は、取得部21と、処理部222(第一の処理部)とを備える。取得部21は、被検眼の断層画像を取得する。処理部222は、学習済モデルを用いて、断層画像において被検眼の複数の網膜層のうち少なくとも一つの網膜層を検出するための第一の検出処理を実行する。 As described above, the image processing apparatus 20 according to this embodiment includes the acquisition unit 21 and the processing unit 222 (first processing unit). Acquisition unit 21 acquires a tomographic image of an eye to be examined. The processing unit 222 uses the learned model to perform a first detection process for detecting at least one retinal layer among the plurality of retinal layers of the subject's eye in the tomographic image.

学習済モデルを用いて画像セグメンテーション処理を行う場合、例えば、疾病眼における病変による層構造の変化についても、学習した傾向に応じて適切に境界検出を行うことができる。このため、本実施例に係る画像処理装置20では、学習済モデルを用いて画像セグメンテーション処理を行うことで、疾患や部位等によらず境界検出を行うことができ、境界検出の精度を向上させることができる。 When image segmentation processing is performed using a trained model, boundary detection can be performed appropriately according to the learned tendency, for example, even with respect to changes in layer structure due to lesions in diseased eyes. Therefore, in the image processing apparatus 20 according to the present embodiment, by performing image segmentation processing using a trained model, boundary detection can be performed regardless of disease, site, etc., and the accuracy of boundary detection can be improved. be able to.

また、画像処理装置20は、被検眼の三次元の断層画像における少なくとも一部の深度範囲であって、検出された少なくとも一つの網膜層に基づいて決定された深度範囲に対応する正面画像を生成する画像処理部22を更に備える。画像処理部22は、三次元の断層画像に対応する三次元のモーションコントラストデータを用いて、決定された深度範囲に対応するモーションコントラスト正面画像を生成することができる。 In addition, the image processing device 20 generates a front image corresponding to at least a partial depth range in the three-dimensional tomographic image of the subject's eye, which is determined based on the detected at least one retinal layer. The image processing unit 22 is further provided. The image processing unit 22 can generate a motion contrast front image corresponding to the determined depth range using the three-dimensional motion contrast data corresponding to the three-dimensional tomographic image.

なお、本実施例では、1つの学習済モデルを用いて画像セグメンテーション処理を行う構成について説明したが、複数の学習済モデルを用いて画像セグメンテーション処理を行ってもよい。 In this embodiment, the configuration for performing image segmentation processing using one trained model has been described, but image segmentation processing may be performed using a plurality of trained models.

学習済モデルは、上述のように教師データを用いた学習の傾向に従って出力データを生成するため、特徴について似た傾向を有する教師データを用いて学習を行うことで、出力データに対する学習の傾向の再現性を高めることができる。このため、例えば、撮影部位毎に学習を行った複数の学習済モデルを用いて、対応する撮影部位の断層画像について画像セグメンテーション処理を行うことで、より精度の良い境界画像を生成することができる。この場合には、画像処理システムはより精度よく網膜層を検出することができる。また、この場合には、追加で学習モデルを増やしていくことも可能であるため、性能が徐々に向上するようなバージョンアップを行うことも期待できる。 Since the trained model generates output data according to the tendency of learning using teacher data as described above, learning is performed using teacher data with similar tendencies in features, so that the tendency of learning for output data is obtained. Reproducibility can be improved. Therefore, for example, by performing image segmentation processing on tomographic images of corresponding imaging regions using a plurality of trained models that have been trained for each imaging region, it is possible to generate more accurate boundary images. . In this case, the image processing system can detect the retinal layers more accurately. In this case, it is also possible to increase the number of additional learning models, so it is possible to expect a version upgrade that gradually improves the performance.

さらに、処理部222は、断層画像における硝子体側の領域、網膜領域、及び強膜側の領域等の領域毎に学習を行った複数の学習モデルを用い、それぞれの学習モデルの出力を合わせて処理部222の最終的な出力を生成してもよい。この場合には、領域毎により精度の高い境界画像を生成することができるため、より精度よく網膜層を検出することができる。 Furthermore, the processing unit 222 uses a plurality of learning models that have been trained for each region such as the vitreous side region, the retinal region, and the sclera side region in the tomographic image, and processes the outputs of the respective learning models together. A final output of section 222 may be generated. In this case, a more accurate boundary image can be generated for each area, so that the retinal layer can be detected more accurately.

また、本実施例では、機械学習モデルとして画像セグメンテーション処理を行うものについて説明したが、例えば、断層画像の撮影部位を推定するような機械学習モデルを用いることもできる。 Also, in the present embodiment, a machine learning model that performs image segmentation processing has been described.

一般に、機械学習モデルの構成は、入力データである画像に対応する画像を出力する構成に限られない。例えば、入力データに対して、教師データを用いてトレーニングされた出力データの種類を出力したり、当該種類のそれぞれについて可能性を数値として出力したりするように機械学習モデルが構成されてもよい。このため、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、利用形態に適したものとすることができる。 In general, the configuration of a machine learning model is not limited to the configuration that outputs an image corresponding to an image that is input data. For example, for input data, a machine learning model may be configured to output the types of output data trained using teacher data, or to output the probabilities for each of the types as numerical values. . For this reason, the format and combination of the input data and the output data of the pair group that constitutes the training data may be one of which is an image and the other of which is a numerical value, or one which is composed of a plurality of image groups and which is a character string, Both of them can be images, and can be made suitable for the form of use.

撮影部位を推定する機械学習モデルの教師データの例として、具体的には、OCTによって取得された断層画像と、断層画像に対応する撮影部位ラベルとのペア群によって構成された教師データが挙げられる。ここで、撮影部位ラベルは部位を表すユニークな数値や文字列である。このような教師データを用いてトレーニングされた学習済モデルに、OCTを用いて取得された断層画像を入力すると、画像に撮影されている部位の撮影部位ラベルが出力されたり、設計によっては、撮影部位ラベル毎の確率が出力されたりする。 A specific example of teacher data for a machine learning model that estimates an imaging region is teacher data composed of pairs of a tomographic image acquired by OCT and an imaging region label corresponding to the tomographic image. . Here, the imaging region label is a unique numerical value or character string representing the region. When a tomographic image acquired using OCT is input to a trained model trained using such teacher data, the imaging region label of the region imaged in the image is output. A probability for each part label is output.

処理部222は、このような撮影部位を推定する学習済モデルを更に用いて断層画像の撮影部位を推定し、推定された撮影部位や最も確率の高い撮影部位に応じた学習済モデルを用いて画像セグメンテーション処理を行ってもよい。このような構成では、断層画像の撮影部位に関する撮影条件を取得部21が取得できない場合であっても、断層画像から撮影部位を推定し、撮影部位に対応する画像セグメンテーション処理を行うことで、より精度良く網膜層を検出することができる。 The processing unit 222 further uses such a trained model for estimating the imaging region to estimate the imaging region of the tomographic image, and uses the learned model corresponding to the estimated imaging region or the most probable imaging region. An image segmentation process may be performed. With such a configuration, even if the acquisition unit 21 cannot acquire the imaging conditions related to the imaging region of the tomographic image, the imaging region is estimated from the tomographic image, and the image segmentation process corresponding to the imaging region is performed. The retinal layer can be detected with high accuracy.

(実施例2)
実施例1においては、学習済モデルを用いて、断層画像から対象となる全ての網膜層を検出する画像セグメンテーション処理を行った。これに対し、実施例2では、学習済モデルによる網膜領域の検出結果に基づいて、ルールベースの画像特徴による境界検出を行う。
(Example 2)
In Example 1, an image segmentation process for detecting all target retinal layers from a tomographic image was performed using a trained model. On the other hand, in the second embodiment, boundary detection is performed using rule-based image features based on the detection result of the retinal area by the trained model.

従来、視神経乳頭部においては、OCT画像を用いてCup(視神経乳頭陥凹)とDisc(視神経乳頭)の検出を行う際にブルッフ膜の開口端の検出を行うことが通例であるが、乳頭周囲網脈絡膜萎縮などの場合、その検出が困難な場合があった。 Conventionally, in the optic papilla, it is customary to detect the open end of Bruch's membrane when detecting Cup (optic disc recession) and Disc (optic disc) using OCT images. In some cases, such as retinochoroidal atrophy, its detection was difficult.

また、従来のルールベースの画像セグメンテーション処理では、被検眼の個体差や病変に対するロバスト性が低く初めに網膜領域を誤検出してしまうことがあった。この場合には、その後の網膜内層境界の検出が適切に行えなかった。 In addition, in the conventional rule-based image segmentation processing, the robustness against individual differences and lesions of the eye to be examined is low, and the retinal region may be erroneously detected at first. In this case, subsequent detection of the inner retinal layer boundary could not be performed appropriately.

これに対し、機械学習モデルを用いて画像セグメンテーション処理を行うことで、境界検出の精度を向上させることができる。しかしながら、ディープラーニング等の機械学習アルゴリズムによる機械学習モデルを用いて撮像部位の認識や網膜層の境界検出を行う場合、医療画像分野であることから、正解付きの正常及び病変画像の症例数を集めるのが大変困難であるのが一般的である。さらに、学習のための正解データを作成するのにも時間を要する。 On the other hand, the accuracy of boundary detection can be improved by performing image segmentation processing using a machine learning model. However, when using a machine learning model based on a machine learning algorithm such as deep learning to recognize the imaged part and detect the boundary of the retinal layer, since this is a medical imaging field, the number of cases of normal and lesion images with correct answers is collected. It is generally very difficult to Furthermore, it takes time to create correct answer data for learning.

そこで、本実施例では、学習済モデルを用いて網膜領域を検出し、検出した網膜領域に対して、画像特徴による境界検出を併用する。これにより、網膜領域の誤検出を抑制し、網膜内層境界の検出精度を向上させるとともに、機械学習の過程において、学習時には網膜層かそれ以外の正解データを作成するだけで済むため、学習を効率的に行うことができる。 Therefore, in this embodiment, a trained model is used to detect a retinal region, and boundary detection based on image features is also used for the detected retinal region. As a result, erroneous detection of the retinal region is suppressed, and the detection accuracy of the inner retinal layer boundary is improved. can be done systematically.

以下、図8乃至13(d)を参照して、本実施例に係る画像処理システム8について説明する。以下、本実施例に係る画像処理システムによる画像処理について、実施例1に係る画像処理との違いを中心として説明する。なお、実施例1に係る画像処理システム1の構成及び処理と同様である本実施例による画像処理システムの構成及び処理については、同一の参照符号を用いて示し、説明を省略する。 The image processing system 8 according to the present embodiment will be described below with reference to FIGS. 8 to 13(d). Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the first embodiment. The configuration and processing of the image processing system according to the present embodiment, which are the same as those of the image processing system 1 according to the first embodiment, are denoted by the same reference numerals, and description thereof will be omitted.

図8は、本実施例に係る画像処理システム8の概略的な構成の一例を示す。画像処理システム8では、画像処理装置80の画像処理部82において、処理部222に代えて、第一の処理部822及び第二の処理部823が設けられている。 FIG. 8 shows an example of a schematic configuration of the image processing system 8 according to this embodiment. In the image processing system 8 , a first processing section 822 and a second processing section 823 are provided instead of the processing section 222 in the image processing section 82 of the image processing device 80 .

第一の処理部822は、ディープラーニング等の機械学習アルゴリズムによる機械学習モデルに関する学習済モデルを有し、学習済モデルを用いて断層画像における網膜領域を検出する。第二の処理部823は、第一の処理部822によって検出された網膜領域について、画像特徴抽出の結果をルールベースで判断して網膜層の境界検出を行う。 The first processing unit 822 has a learned model related to a machine learning model based on a machine learning algorithm such as deep learning, and uses the learned model to detect the retinal region in the tomographic image. The second processing unit 823 performs rule-based determination of the result of image feature extraction for the retinal region detected by the first processing unit 822 to detect the boundary of the retinal layer.

次に、図9(a)及び(b)を参照して、本実施例に係る一連の処理について説明する。図9(a)は本実施例に係る一連の処理のフローチャートであり、図9(b)は本実施例における境界検出処理のフローチャートである。なお、境界検出処理以外の処理については実施例1の処理と同様であるため、説明を省略する。ステップS303において断層画像が生成されると、処理はステップS904に移行する。 Next, a series of processes according to this embodiment will be described with reference to FIGS. FIG. 9A is a flow chart of a series of processes according to this embodiment, and FIG. 9B is a flow chart of boundary detection processing in this embodiment. Note that the processing other than the boundary detection processing is the same as the processing in the first embodiment, so the description is omitted. After the tomographic image is generated in step S303, the process proceeds to step S904.

ステップS904における境界検出処理が開始されると、処理はステップS941に移行する。ステップS941では、第一の処理部822が、第一の境界検出処理として、学習済モデルを用いて断層画像における網膜領域を検出する。 When the boundary detection process in step S904 is started, the process proceeds to step S941. In step S941, the first processing unit 822 detects the retinal region in the tomographic image using the learned model as first boundary detection processing.

ここで、図10(a)乃至12を参照して、本実施例に係る機械学習モデルについて説明する。本実施例に係る機械学習モデルの学習データ(教師データ)は、1つ以上の入力データと出力データとのペア群で構成される。教師データの例として、図10(a)に示すOCTの撮影によって取得された断層画像1001と、図10(b)に示す断層画像1001から任意の層にラベルを与えたラベル画像1002とのペア群によって構成されている教師データ等が挙げられる。 Here, a machine learning model according to this embodiment will be described with reference to FIGS. The learning data (teacher data) of the machine learning model according to this embodiment is composed of one or more pairs of input data and output data. As an example of training data, a pair of a tomographic image 1001 obtained by OCT imaging shown in FIG. 10A and a label image 1002 obtained by labeling an arbitrary layer from the tomographic image 1001 shown in FIG. 10B. Teacher data or the like composed of groups can be mentioned.

ここで、ラベル画像とは画素毎にラベル付けがなされた画像(アノテーションして得た画像)であり、本実施例では、画素毎に当該画素に現れている(撮影されている)像に関するラベルが与えられた画像をいう。ラベル画像1002においては、ラベルの例として網膜よりも浅層側(硝子体側)のラベル1003、網膜内層のラベル1004、及び網膜よりも深層側(脈絡膜側)のラベル1005が与えられている。本実施例における第一の処理部822は、このようなラベル画像に基づいて網膜内層を検出する。なお、本実施例では網膜の範囲(網膜内層の範囲)を内境界膜と神経線維層との境界L1~網膜色素上皮層L4としたが、これに限らない。例えば、網膜の範囲を内境界膜と神経線維層との境界L1~視細胞内節外節接合部L3の範囲、内境界膜と神経線維層との境界L1~ブルッフ膜L5の範囲、又は内境界膜と神経線維層との境界L1~脈絡膜L6の範囲等と定義してもよい。 Here, the labeled image is an image (image obtained by annotation) in which each pixel is labeled. is an image given In the label image 1002, a label 1003 on the superficial layer side (vitreous body side) of the retina, a label 1004 on the inner layer of the retina, and a label 1005 on the deep layer side (choroidal side) of the retina are provided. The first processing unit 822 in this embodiment detects the inner retina based on such label images. In this embodiment, the range of the retina (the range of the inner layer of the retina) is defined as the boundary L1 between the inner limiting membrane and the nerve fiber layer to the retinal pigment epithelium layer L4, but it is not limited to this. For example, the range of the retina is the range from the boundary L1 between the inner limiting membrane and the nerve fiber layer to the junction of the inner segment and outer segment of the photoreceptor L3, the range from the boundary L1 between the inner limiting membrane and the nerve fiber layer to the Bruch's membrane L5, or the inner It may be defined as the range from the boundary L1 to the choroid L6 between the limiting membrane and the nerve fiber layer.

さらに、図10(a)及び(b)においては、網膜のXY面内においてある一つのXZ断面の例を示しているが、断面はこれに限らない。図示しないが、XY面内における任意の複数のXZ断面を事前に学習しておき、ラスタスキャンやラジアルスキャン等、異なる様々なスキャンパターンで撮影された断面に対して対応できるようにしておくことができる。例えば、ラスタスキャンで三次元的に網膜を撮影した断層画像等のデータを用いる場合には、隣接する複数の断層画像間の位置合わせをしたボリュームデータを教師データに用いることができる。この場合には、1つのボリュームデータとこれに対応する1つの三次元ラベルデータ(三次元のラベル画像)とから、任意の角度のペア画像群を生成することが可能である。また、機械学習モデルは、実際に様々なスキャンパターンで撮影した画像を教師画像として用いて学習してもよい。 Furthermore, although FIGS. 10A and 10B show an example of one XZ section within the XY plane of the retina, the section is not limited to this. Although not shown, arbitrary multiple XZ cross sections in the XY plane can be learned in advance so that cross sections photographed with various different scan patterns such as raster scan and radial scan can be handled. can. For example, when using data such as tomographic images obtained by three-dimensionally photographing the retina by raster scanning, volume data obtained by aligning a plurality of adjacent tomographic images can be used as teacher data. In this case, it is possible to generate a group of paired images at arbitrary angles from one volume data and one corresponding three-dimensional label data (three-dimensional label image). In addition, the machine learning model may be learned using images actually captured with various scan patterns as teacher images.

次に、学習時の画像について説明する。機械学習モデルの教師データを構成する、断層画像1001とラベル画像1002とのペア群を構成する画像群を、位置関係が対応する一定の画素サイズの矩形領域画像によって作成する。当該画像の作成について、図11(a)乃至(c)を参照して説明する。 Next, images during learning will be described. A group of images forming a group of pairs of a tomographic image 1001 and a label image 1002, which constitute teacher data of a machine learning model, are created from rectangular area images of a fixed pixel size corresponding in positional relationship. Creation of the image will be described with reference to FIGS.

まず、教師データを構成するペア群の1つを、断層画像1001とラベル画像1002とした場合について説明する。この場合には、図11(a)に示すように、断層画像1001の全体である矩形領域画像1101を入力データ、ラベル画像1002の全体である矩形領域画像1102を出力データとして、ペアを構成する。なお、図11(a)に示す例では各画像の全体により入力データと出力データのペアを構成しているが、ペアはこれに限らない。 First, a case will be described in which a tomographic image 1001 and a label image 1002 are used as one of pairs constituting teacher data. In this case, as shown in FIG. 11A, a rectangular area image 1101 that is the entire tomographic image 1001 is used as input data, and a rectangular area image 1102 that is the entire label image 1002 is used as output data to form a pair. . In the example shown in FIG. 11(a), the entire image constitutes a pair of input data and output data, but the pair is not limited to this.

例えば、図11(b)に示すように、断層画像1001のうちの矩形領域画像1111を入力データ、ラベル画像1002における対応する撮影領域である矩形領域画像1113を出力データとして、ペアを構成してもよい。矩形領域画像1111,1113は、Aスキャン単位を基本としている。Aスキャン単位とは、1本のAスキャン単位でもよいし、数本のAスキャン単位でもよい。 For example, as shown in FIG. 11B, a rectangular area image 1111 in the tomographic image 1001 is used as input data, and a rectangular area image 1113 corresponding to the imaging area in the label image 1002 is used as output data to form a pair. good too. Rectangular area images 1111 and 1113 are based on A-scan units. The A-scan unit may be one A-scan unit or several A-scan units.

なお、図11(b)ではAスキャン単位を基本としているが、画像に対して深さ方向の全てを領域とするのではなく、上下に矩形領域外の部分を設けてもよい。すなわち、矩形領域の横方向のサイズはAスキャン数本分、矩形領域の深さ方向のサイズは、画像の深さ方向のサイズよりも小さく設定してもよい。 Note that although FIG. 11B is based on the A-scan unit, it is also possible to provide portions outside the rectangular area above and below the image instead of making the entire area in the depth direction of the image. That is, the horizontal size of the rectangular area may be set to several A scans, and the depthwise size of the rectangular area may be set smaller than the size of the image in the depthwise direction.

また、図11(c)に示すように、断層画像1001のうちの矩形領域画像1121を入力データ、ラベル画像1002における対応する撮影領域である矩形領域画像1123を出力データとして、ペアを構成してもよい。この場合、矩形領域のサイズは、1つの矩形領域内に複数のラベルを含むサイズとする。 Also, as shown in FIG. 11C, a rectangular area image 1121 in the tomographic image 1001 is used as input data, and a rectangular area image 1123 corresponding to the imaging area in the label image 1002 is used as output data to form a pair. good too. In this case, the size of the rectangular area is set to include a plurality of labels within one rectangular area.

なお、学習時には、スキャン範囲(撮影画角)、スキャン密度(Aスキャン数)を正規化して画像サイズを揃えて、学習時の矩形領域サイズを一定に揃えることができる。また、図11(a)乃至(c)に示した矩形領域画像は、それぞれ別々に学習する際の矩形領域サイズの一例である。 During learning, the scan range (shooting angle of view) and scan density (the number of A scans) can be normalized to uniform the image size, and the size of the rectangular area during learning can be uniformed. Also, the rectangular area images shown in FIGS. 11A to 11C are examples of rectangular area sizes when each is learned separately.

矩形領域の数は、図11(a)に示す例では1つ、図11(b)及び(c)に示す例では複数設定可能である。例えば、図11(b)に示す例において、断層画像1001のうちの矩形領域画像1112を入力データ、ラベル画像1002における対応する撮影領域である矩形領域画像1114を出力データとしてペアを構成することもできる。また、例えば、図11(c)に示す例において、断層画像1001のうちの矩形領域画像1122を入力データ、ラベル画像1002における対応する撮影領域である矩形領域画像1124を出力データとしてペアを構成することもできる。このように、1枚ずつの断層画像及びラベル画像のペアから、互いに異なる矩形領域画像のペアを作成できる。なお、元となる断層画像及びラベル画像において、領域の位置を異なる座標に変えながら多数の矩形領域画像のペアを作成することで、教師データを構成するペア群を充実させることができる。 The number of rectangular regions can be set to one in the example shown in FIG. 11(a), and multiple in the examples shown in FIGS. 11(b) and 11(c). For example, in the example shown in FIG. 11B, a pair may be formed by using the rectangular area image 1112 of the tomographic image 1001 as input data and the rectangular area image 1114, which is the corresponding imaging area in the label image 1002, as output data. can. Further, in the example shown in FIG. 11C, for example, a rectangular area image 1122 in the tomographic image 1001 is used as input data, and a rectangular area image 1124 corresponding to the imaging area in the label image 1002 is used as output data to form a pair. can also In this way, a pair of rectangular area images different from each other can be created from each pair of tomographic image and label image. Note that by creating a large number of pairs of rectangular area images while changing the position of the area to different coordinates in the original tomographic image and label image, it is possible to enrich the pair group that constitutes the teacher data.

図11(b)及び(c)に示す例では、離散的に矩形領域を示しているが、実際には、元となる断層画像及びラベル画像を、隙間なく連続する一定の画像サイズの矩形領域画像群に分割することができる。また、元となる断層画像及びラベル画像について、互いに対応する、ランダムな位置の矩形領域画像群に分割してもよい。このように、矩形領域(又は、短冊領域)として、より小さな領域の画像を入力データ及び出力データのペアとして選択することで、もともとのペアを構成する断層画像1001及びラベル画像1002から多くのペアデータを生成できる。そのため、機械学習モデルのトレーニングにかかる時間を短縮することができる。一方で、完成した機械学習モデルの学習済モデルでは、実行する画像セグメンテーション処理の時間が長くなる傾向にある。 Although the examples shown in FIGS. 11B and 11C show discrete rectangular regions, in reality, the original tomographic images and label images are continuously formed into rectangular regions of a constant image size without gaps. It can be divided into groups of images. Also, the original tomographic image and label image may be divided into rectangular area image groups at random positions corresponding to each other. In this way, by selecting an image of a smaller area as a rectangular area (or strip area) as a pair of input data and output data, many pairs can be obtained from the tomographic image 1001 and the label image 1002 that constitute the original pair. Can generate data. This reduces the time it takes to train machine learning models. On the other hand, the trained model of the completed machine learning model tends to take a long time to perform image segmentation processing.

次に、本実施例に係る機械学習モデルの一例として、入力された断層画像に対して、セグメンテーション処理を行う畳み込みニューラルネットワーク(CNN)の構成を、図12を参照して説明する。図12は、第一の処理部822における機械学習モデルの構成1201の一例を示している。なお、本実施例に係る機械学習モデルとしては、実施例1と同様に、例えば、FCN、又はSegNet等を用いることもできる。また、所望の構成に応じて、実施例1で述べたような領域単位で物体認識を行う機械学習モデルを用いてもよい。 Next, as an example of the machine learning model according to the present embodiment, the configuration of a convolutional neural network (CNN) that performs segmentation processing on an input tomographic image will be described with reference to FIG. FIG. 12 shows an example of a machine learning model configuration 1201 in the first processing unit 822 . As the machine learning model according to the present embodiment, for example, FCN, SegNet, or the like can be used as in the first embodiment. Also, depending on the desired configuration, a machine learning model that performs object recognition on a region-by-region basis as described in the first embodiment may be used.

図12に示す機械学習モデルは、図6に示す実施例1に係る機械学習モデルの例と同様に、入力値群を加工して出力する処理を担う、複数の層群によって構成される。当該機械学習モデルの構成1201に含まれる層の種類としては、畳み込み層、ダウンサンプリング層、アップサンプリング層、及び合成層がある。なお、これら層の構成や、CNNの構成の変形例については、実施例1に係る機械学習モデルと同様であるため詳細な説明については省略する。なお、本実施例で用いるCNNの構成1201は、実施例1で述べたCNNの構成601と同様に、U-net型の機械学習モデルである。 The machine learning model shown in FIG. 12 is composed of a plurality of layer groups that process and output a group of input values, similarly to the example of the machine learning model according to the first embodiment shown in FIG. The types of layers included in the configuration 1201 of the machine learning model include convolutional layers, downsampling layers, upsampling layers, and synthetic layers. Note that the configuration of these layers and the modification of the configuration of the CNN are the same as those of the machine learning model according to the first embodiment, so detailed descriptions thereof will be omitted. The CNN configuration 1201 used in this embodiment is a U-net machine learning model, like the CNN configuration 601 described in the first embodiment.

本実施例に係る第一の処理部822の学習済モデルでは、断層画像1001が入力されると、教師データを用いてトレーニングされた傾向に従って、ラベル画像1002を出力する。第一の処理部822は、ラベル画像1002に基づいて断層画像1001における網膜領域を検出することができる。 In the trained model of the first processing unit 822 according to this embodiment, when the tomographic image 1001 is input, the label image 1002 is output according to the tendency trained using the teacher data. The first processing unit 822 can detect the retinal region in the tomographic image 1001 based on the label image 1002 .

なお、図11(b)及び(c)に示すように、画像の領域を分割して学習している場合、第一の処理部822は学習済モデルを用いて、それぞれの矩形領域に対応するラベル画像である矩形領域画像を得る。そのため、第一の処理部822は、各矩形領域において網膜層を検出することができる。この場合、第一の処理部822は、学習済モデルを用いて得たラベル画像である矩形領域画像群のそれぞれを、矩形領域画像群のぞれぞれと同様の位置関係に配置して結合する。これにより、第一の処理部822は、入力された断層画像1001に対応するラベル画像1002を生成することができる。この場合も、第一の処理部822は、生成されたラベル画像1002に基づいて断層画像1001における網膜領域を検出することができる。 Note that, as shown in FIGS. 11B and 11C, when an image region is divided for learning, the first processing unit 822 uses a trained model to correspond to each rectangular region. Obtain a rectangular area image that is a label image. Therefore, the first processing unit 822 can detect the retinal layer in each rectangular area. In this case, the first processing unit 822 arranges and combines each of the rectangular area image groups, which are label images obtained using the trained model, in the same positional relationship as each of the rectangular area image groups. do. Thereby, the first processing unit 822 can generate the label image 1002 corresponding to the input tomographic image 1001 . Also in this case, the first processing unit 822 can detect the retinal region in the tomographic image 1001 based on the generated label image 1002 .

ステップS941において、第一の処理部822によって網膜領域が検出されると、処理はステップS942に移行する。ステップS942では、第二の処理部823が、第二の検出処理として、図10(a)に示す断層画像1001において第一の処理部822が検出した網膜領域に基づいて、ルールベースの画像セグメンテーション処理により網膜内層での残りの境界を検出する。 In step S941, when the retinal area is detected by the first processing unit 822, the process proceeds to step S942. In step S942, the second processing unit 823 performs rule-based image segmentation based on the retinal region detected by the first processing unit 822 in the tomographic image 1001 shown in FIG. 10A as second detection processing. The processing detects remaining boundaries in the inner retina.

図13(a)乃至(d)を参照して、第二の処理部823による第二の境界検出処理について説明する。図13(a)は入力となる断層画像の一例である断層画像1001を示す。図13(b)は第一の処理部822が出力したラベル画像1002であり、網膜領域のラベル1004とそれ以外に対応するラベル1003,1005を付与した画像である。本実施例に係る第二の処理部823は、ラベル画像1002におけるラベル1004で示される網膜領域の範囲を層検出の対象領域とする。 Second boundary detection processing by the second processing unit 823 will be described with reference to FIGS. FIG. 13A shows a tomographic image 1001, which is an example of a tomographic image to be input. FIG. 13B shows a label image 1002 output by the first processing unit 822, which is an image to which a label 1004 for the retina area and labels 1003 and 1005 corresponding to other areas are added. The second processing unit 823 according to the present embodiment sets the range of the retina area indicated by the label 1004 in the label image 1002 as the target area for layer detection.

第二の処理部823は、ラベル画像1002におけるラベル1004で示される網膜領域内の輪郭を検出することで、対象となる境界を検出することができる。図13(c)は第二の処理部823が、処理を行ったエッジ強調処理画像1303を示す。当該第二の処理部823による処理について、以下で説明する。なお、図13(c)及び(d)に示すように、視神経乳頭部については、網膜層が途切れるため、第二の処理部823による境界検出を行わないこととする。 The second processing unit 823 can detect the boundary of interest by detecting the contour within the retinal region indicated by the label 1004 in the label image 1002 . FIG. 13C shows an edge-enhanced image 1303 processed by the second processing unit 823 . Processing by the second processing unit 823 will be described below. As shown in FIGS. 13(c) and 13(d), the second processing unit 823 does not perform boundary detection for the optic papilla because the retinal layer is interrupted.

第二の処理部823は、処理の対象とする断層画像1001において、ラベル1004に対応する領域に対して、ノイズ除去とエッジ強調処理を行う。第二の処理部823は、ノイズ除去処理としては、例えばメディアンフィルタやガウシアンフィルタを適用する。また、第二の処理部823は、エッジ強調処理としては、SobelフィルタやHessianフィルタを適用する。 The second processing unit 823 performs noise removal and edge enhancement processing on the region corresponding to the label 1004 in the tomographic image 1001 to be processed. The second processing unit 823 applies, for example, a median filter or a Gaussian filter as noise removal processing. Also, the second processing unit 823 applies a Sobel filter or a Hessian filter as edge enhancement processing.

ここで、二次元のHessianフィルタを用いた、二次元断層画像に対するエッジ強調処理について説明する。Hessianフィルタは、ヘッセ行列の2つの固有値(λ、λ)の関係に基づいて、二次元濃淡分布の二次局所構造を強調することができる。そのため、本実施例では、ヘッセ行列の固有値と固有ベクトル(e、e)の関係を用いて、二次元の線構造を強調する。被検眼についての二次元断層画像における線構造は網膜層の構造に相当するため、当該Hessianフィルタの適用により、網膜層の構造を強調することができる。 Edge enhancement processing for a two-dimensional tomographic image using a two-dimensional Hessian filter will now be described. The Hessian filter can emphasize the second-order local structure of the two-dimensional gray distribution based on the relationship between the two eigenvalues (λ 1 , λ 2 ) of the Hessian matrix. Therefore, in this embodiment, the relationship between the eigenvalues of the Hessian matrix and the eigenvectors (e 1 , e 2 ) is used to emphasize the two-dimensional line structure. Since the line structure in the two-dimensional tomographic image of the eye to be examined corresponds to the structure of the retinal layers, the application of the Hessian filter can emphasize the structure of the retinal layers.

なお、厚みの異なる網膜層を検出するには、ヘッセ行列を計算する際に行うガウス関数による平滑化の解像度を変更すればよい。また、二次元のHessianフィルタを適用する際には、画像のXZの物理サイズを合わせるようにデータを変形した後に適用することができる。一般的なOCTの場合、XY方向とZ方向の物理サイズが異なる。そのため、画素毎の網膜層の物理サイズを合わせてフィルタを適用する。なお、XY方向とZ方向の物理サイズは、OCT装置10の設計/構成から把握できるため、当該物理サイズに基づいて、断層画像のデータを変形させることができる。また、物理サイズを正規化しない場合には、ガウス関数による平滑化の解像度を変更することでも近似的に対応できる。 In order to detect retinal layers with different thicknesses, it is sufficient to change the resolution of smoothing by the Gaussian function performed when calculating the Hessian matrix. When applying the two-dimensional Hessian filter, it can be applied after transforming the data so as to match the XZ physical size of the image. In general OCT, the physical sizes in the XY direction and the Z direction are different. Therefore, the filter is applied according to the physical size of the retinal layer for each pixel. Since the physical sizes in the XY and Z directions can be grasped from the design/configuration of the OCT apparatus 10, it is possible to transform the tomographic image data based on the physical sizes. Also, if the physical size is not normalized, it can be approximated by changing the smoothing resolution using the Gaussian function.

上記では、二次元断層画像での処理について説明したが、Hessianフィルタを適用する対象はこれに限らない。断層画像を撮影した際のデータ構造がラスタスキャンによる三次元断層画像である場合、三次元のHessianフィルタを適用することも可能である。この場合、画像処理部82によって、隣接する断層画像間においてXZ方向の位置合わせ処理を行った後に、第二の処理部823がヘッセ行列の3つの固有値(λ、λ、λ)の関係に基づいて、三次元濃淡分布の二次局所構造を強調することができる。そのため、ヘッセ行列の固有値と固有ベクトル(e、e、e)の関係を用いて三次元の層構造を強調することで、三次元的にエッジを強調することも可能である。 Although processing with a two-dimensional tomographic image has been described above, the object to which the Hessian filter is applied is not limited to this. If the data structure for capturing a tomographic image is a three-dimensional tomographic image obtained by raster scanning, it is possible to apply a three-dimensional Hessian filter. In this case, after the image processing unit 82 performs registration processing in the XZ direction between adjacent tomographic images, the second processing unit 823 calculates three eigenvalues (λ 1 , λ 2 , λ 3 ) of the Hessian matrix. Based on the relationship, the secondary local structure of the three-dimensional gray distribution can be emphasized. Therefore, by emphasizing the three-dimensional layered structure using the relationship between the eigenvalues of the Hessian matrix and the eigenvectors (e 1 , e 2 , e 3 ), it is also possible to enhance the edge three-dimensionally.

エッジ強調処理画像1303においては、エッジを強調した部分が白線1304として現れる。なお、断層画像1001における、ラベル1004に対応しない領域については、エッジ検出されない領域として扱うことができる。また、ここでは、Hessianフィルタを用いてエッジ強調処理を行う構成について説明したが、エッジ強調処理の処理方法はこれに限られず、既存の任意の方法によって行われてよい。 In the edge-enhanced image 1303 , the edge-enhanced portion appears as a white line 1304 . Note that an area in the tomographic image 1001 that does not correspond to the label 1004 can be treated as an area in which edge detection is not performed. Also, here, a configuration for performing edge enhancement processing using a Hessian filter has been described, but the processing method for edge enhancement processing is not limited to this, and any existing method may be used.

図13(d)は、第二の処理部823が、ラベル画像1002とエッジ強調処理画像1303を用いて検出した網膜層の境界を示す境界画像1305を示す。境界画像1305においては、黒線1306が境界の例を示す。第二の処理部823が、ラベル画像1002とエッジ強調処理画像1303から網膜層の境界を検出する処理について、以下で説明する。 FIG. 13D shows a boundary image 1305 indicating the boundary of the retinal layers detected by the second processing unit 823 using the label image 1002 and the edge-enhanced image 1303. FIG. In the boundary image 1305, a black line 1306 indicates an example of the boundary. Processing for detecting the boundary of the retinal layers from the label image 1002 and the edge-enhanced image 1303 by the second processing unit 823 will be described below.

第二の処理部823は、エッジ強調処理画像1303からエッジ強調された境界を検出する。本実施例では、第一の処理部822が既にILMとNFLとの境界とRPEについて検出しているので、第二の処理部823は、続けて、ISOS、NFLとGCL境界を検出する。なお、図示しないが、その他の境界として、外網状層(OPL)と外顆粒層(ONL)との境界、内網状層(IPL)と内顆粒層(INL)との境界、INLとOPLとの境界、GCLとIPLとの境界等を検出してもよい。 A second processing unit 823 detects an edge-enhanced boundary from the edge-enhanced image 1303 . In this embodiment, since the first processing unit 822 has already detected the boundary between the ILM and NFL and the RPE, the second processing unit 823 continues to detect the ISOS, NFL and GCL boundaries. Although not shown, other boundaries include the boundary between the outer plexiform layer (OPL) and the outer nuclear layer (ONL), the boundary between the inner plexiform layer (IPL) and the inner nuclear layer (INL), and the boundary between the INL and the OPL. A boundary, a boundary between GCL and IPL, and the like may be detected.

境界の検出方法としては、各Aスキャンにおいてエッジ強度が強い箇所を境界候補として複数検出し、隣接するAスキャンにおいて境界候補同士の連続性を基に、点(エッジ強度が強い箇所)を線としてつなげる処理を行う。また、第二の処理部823は、点を線としてつなげた場合に、線の滑らかさを評価することで、外れ値を除去することができる。より具体的には、例えば、つなげた点同士のZ方向の位置を比較し、所定の閾値よりもZ方向の位置の差が大きい場合には、新しくつなげられた点を外れ値として判断し、つなげる処理から除外することができる。また、外れ値を除去した場合、除外した点のAスキャン位置に隣接するAスキャンにおける境界候補を線としてつなげてもよい。なお、外れ値の除去方法はこれに限られず、既存の任意の方法によって行われてよい。 As a boundary detection method, a plurality of locations with strong edge strength are detected as boundary candidates in each A-scan, and points (locations with strong edge strength) are drawn as lines based on the continuity between boundary candidates in adjacent A-scans. Perform the process of connecting. Further, the second processing unit 823 can remove outliers by evaluating the smoothness of the line when the points are connected as a line. More specifically, for example, the Z-direction positions of the connected points are compared, and if the difference in Z-direction position is greater than a predetermined threshold value, the newly connected point is determined as an outlier, It can be excluded from the connecting process. Further, when outliers are removed, boundary candidates in A-scans adjacent to the A-scan position of the excluded point may be connected as a line. Note that the method of removing outliers is not limited to this, and any existing method may be used.

第二の処理部823は、点をつなげて形成した各線について、網膜層の境界のZ方向の上下の距離や位置関係に基づいて、対応する境界を決定する。なお、各Aスキャンにおいて外れ値を除去した結果として検出された境界がない場合には、周囲の境界から補間で求めてもよい。また、周囲の境界からエッジを頼りに水平方向(X又はY方向)に境界候補を探索していき、周囲の境界から探索した境界候補を基にして再度、境界を決定するようにしてもよい。 The second processing unit 823 determines a corresponding boundary for each line formed by connecting points based on the vertical distance in the Z direction and the positional relationship of the boundary of the retinal layers. If there is no boundary detected as a result of removing outliers in each A-scan, interpolation may be performed from surrounding boundaries. Alternatively, a boundary candidate may be searched for in the horizontal direction (X or Y direction) by relying on edges from the surrounding boundary, and the boundary may be determined again based on the boundary candidate searched for from the surrounding boundary. .

その後、第二の処理部823は、検出した境界に対して、境界の形状を滑らかに補正する処理を実行する。例えば、SnakesやLevel Set法等の動的輪郭モデル等により、画像特徴と形状特徴とを用いて境界の形状を滑らかにしてもよい。また、境界形状の座標値を信号による時系列データとみなして、Savitzky-Golayフィルタや、単純移動平均、加重移動平均、指数移動平均等の平滑化処理で形状を滑らかにしてもよい。 After that, the second processing unit 823 executes a process of smoothly correcting the shape of the detected boundary. For example, an active contour model such as Snakes or Level Set method may be used to smooth the shape of the boundary using image features and shape features. Alternatively, the coordinate values of the boundary shape may be regarded as time-series data by a signal, and the shape may be smoothed by smoothing processing such as a Savitzky-Golay filter, simple moving average, weighted moving average, or exponential moving average.

このような処理により、第二の処理部823は、第一の処理部822が検出した網膜領域内の網膜層を検出することができる。なお、前述した第二の処理部823による網膜層の検出処理は一例であり、既存の任意のセグメンテーション処理を用いて網膜層を検出することもできる。第二の処理部823が網膜層を検出すると、処理はステップS305に移行する。以降の処理は実施例1と同様であるため説明を省略する。 Through such processing, the second processing unit 823 can detect the retinal layers within the retinal region detected by the first processing unit 822 . Note that the detection processing of the retinal layers by the second processing unit 823 described above is an example, and the retinal layers can also be detected using any existing segmentation processing. When the second processing unit 823 detects the retinal layer, the process proceeds to step S305. Since subsequent processing is the same as that of the first embodiment, description thereof is omitted.

上記のように、本実施例に係る画像処理装置80は、取得部21と、第一の処理部822と、第二の処理部823とを備える。取得部21は、被検眼の断層画像を取得する。第一の処理部822は、学習済モデルを用いて、断層画像において被検眼の複数の網膜層のうち少なくとも一つの網膜層を検出するための第一の検出処理を実行する。第二の処理部823は、学習済モデルを用いずに、断層画像において複数の網膜層のうち少なくとも一つの網膜層を検出するための第二の検出処理を実行する。 As described above, the image processing apparatus 80 according to this embodiment includes the acquisition unit 21 , the first processing unit 822 and the second processing unit 823 . Acquisition unit 21 acquires a tomographic image of an eye to be examined. The first processing unit 822 uses the learned model to perform a first detection process for detecting at least one retinal layer among the plurality of retinal layers of the subject's eye in the tomographic image. The second processing unit 823 executes second detection processing for detecting at least one retinal layer among the plurality of retinal layers in the tomographic image without using the trained model.

具体的には、第二の処理部823は、第二の検出処理によって、第一の検出処理により検出された少なくとも一つの網膜層以外の少なくとも一つの網膜層を検出する。特に本実施例では、第一の検出処理は、被検眼の内境界膜と神経線維層との境界から視細胞内節外節接合部、網膜色素上皮層、及びブルッフ膜のいずれかまでの層を検出する処理である。また、第二の検出処理は、第一の検出処理の後に行われ、第一の検出処理により検出した層に含まれる、すなわち検出した層の間の少なくとも一つの網膜層を検出する処理である。 Specifically, the second processing unit 823 uses the second detection process to detect at least one retinal layer other than the at least one retinal layer detected by the first detection process. In particular, in this embodiment, the first detection processing is the layer from the boundary between the inner limiting membrane and the nerve fiber layer of the eye to be examined to the junction of the inner segment and outer segment of the photoreceptor, the retinal pigment epithelium layer, and any one of Bruch's membrane. This is a process for detecting Also, the second detection process is performed after the first detection process and is included in the layers detected by the first detection process, that is, the process of detecting at least one retinal layer between the detected layers. .

本実施例に係る画像処理装置80では、疾患や部位等によらず境界検出を行うことができる。また、機械学習モデルが出力した領域に対して、画像特徴による境界検出を併用することで境界検出の精度を向上させることができる。さらに、機械学習の過程において、学習時には網膜層かそれ以外の正解データを作成するだけで済むため、学習も効率的に行うことができる。 The image processing apparatus 80 according to the present embodiment can perform boundary detection regardless of disease, body part, or the like. In addition, the accuracy of boundary detection can be improved by also using boundary detection based on image features for the area output by the machine learning model. Furthermore, in the process of machine learning, it is only necessary to create correct data for the retinal layer or other layers at the time of learning, so learning can also be performed efficiently.

また、機械学習モデルによって検出する境界が多くなると、出力されるラベル画像や境界画像において誤検出が生じる可能性が増加する場合がある。これに対して、本実施例による機械学習モデルを用いた網膜領域の検出では、検出するべき境界が少ないため、出力されるラベル画像や境界画像における誤検出を抑制することができる。 In addition, as the number of boundaries detected by the machine learning model increases, the possibility of false detection occurring in the output label image and boundary image may increase. On the other hand, in the detection of the retinal region using the machine learning model according to the present embodiment, since the number of boundaries to be detected is small, erroneous detection in the output label image and boundary image can be suppressed.

なお、本実施例においても、実施例1と同様に、第一の処理部822において、複数の機械学習モデルを用いて網膜領域の検出を行うように構成されてもよい。この場合には、網膜領域の検出の精度を向上させることができる。また、追加で学習モデルを増やしていくことも可能であるため、性能が徐々に向上するようなバージョンアップを行うことも期待できる。 Also in this embodiment, as in the first embodiment, the first processing unit 822 may be configured to detect the retinal region using a plurality of machine learning models. In this case, the accuracy of detection of the retinal area can be improved. In addition, since it is also possible to increase the number of additional learning models, it is also possible to expect version upgrades that gradually improve performance.

(実施例2の変形例)
上述の実施例2では、ルールベースに基づく第二の処理部823による網膜の境界の検出に先立って、前段階として学習済モデルを用いた第一の処理部822による網膜領域の検出を行う例を示した。しかしながら、第一の処理部822による処理及び第二の処理部823による処理の順序はこれに限らない。例えば、第一の処理部822による網膜領域の検出に非常に時間がかかる場合、当該網膜領域の検出処理を第二の処理部823でルールベースにより、先に実行させることも可能である。
(Modification of Example 2)
In the second embodiment described above, prior to detection of the retinal boundary by the second processing unit 823 based on the rule base, the first processing unit 822 detects the retinal area using the learned model as a preliminary step. showed that. However, the order of the processing by the first processing unit 822 and the processing by the second processing unit 823 is not limited to this. For example, if the first processing unit 822 takes a long time to detect the retinal area, the second processing unit 823 can first execute the retinal area detection processing based on a rule.

このような場合、第二の処理部823は、実施例2で示した第二の処理部823による方法と同様の方法を用いてILMとNFLとの境界と、RPE又はISOSとを最初に検出する。これは、これら境界が、網膜において輝度値が高い場所であり網膜の浅層部と深層部に位置している境界だからである。ILMとNFLとの境界と、RPE又はISOSを検出する場合、他の境界よりも特徴が出やすいため、ノイズ処理を何度か行ったボケの大きな画像に基づいてこれら境界を検出してもよい。この場合には、大局的な特徴だけを検出することができるので、その他の境界の誤検出を防ぐことができる。また、断層画像に対して、動的閾値による二値化処理を行って網膜領域を限定し、その中からILMとNFLとの境界と、RPE又はISOSとを検出するようにしてもよい。なお、第二の処理部823は、ILMとNFLとの境界と、BMとを検出してもよい。 In such a case, the second processing unit 823 first detects the boundary between the ILM and the NFL and the RPE or ISOS using a method similar to the method by the second processing unit 823 shown in the second embodiment. do. This is because these boundaries are located in the superficial and deep layers of the retina where the luminance values are high. When detecting the boundary between the ILM and NFL and the RPE or ISOS, features are more likely to appear than other boundaries, so these boundaries may be detected based on an image with large blur that has been subjected to noise processing several times. . In this case, since only global features can be detected, erroneous detection of other boundaries can be prevented. Alternatively, the tomographic image may be binarized using a dynamic threshold to limit the retinal region, and the boundary between the ILM and NFL and the RPE or ISOS may be detected from the region. Note that the second processing unit 823 may detect the boundary between the ILM and the NFL and the BM.

ただし、このようなルールベースで第一の検出対象である網膜領域を検出する場合、前述のように、被検眼の個体差や病変に対するロバスト性が低く初めに網膜領域を誤検出してしまうことがある。この場合には、その後の網膜内層境界の検出が適切に行えないことがある。 However, when detecting the retinal region, which is the primary detection target, using such a rule base, as described above, the robustness against individual differences in the eye to be examined and lesions is low, and the retinal region is initially misdetected. There is In this case, subsequent detection of the inner retinal layer boundary may not be performed appropriately.

その対策として本変形例では、画像処理部82が、網膜領域の誤検出をチェックするパラメータ、例えば、網膜領域境界の不連続性や局所曲率又は局所領域における境界座標の分散等を所定の閾値と比較する。これらパラメータが所定の閾値を超える場合には、画像処理部82が、第二の処理部823における網膜領域の検出が誤検出であると判断する。そして、画像処理部82により、第二の処理部823による網膜領域の検出が誤検出と判断された場合に、第一の処理部822が網膜領域の検出を行うように構成される。 As a countermeasure, in this modified example, the image processing unit 82 sets parameters for checking retinal region erroneous detection, such as the discontinuity of the retinal region boundary, the local curvature, or the variance of the boundary coordinates in the local region, as a predetermined threshold value. compare. If these parameters exceed predetermined thresholds, the image processing unit 82 determines that the detection of the retina area in the second processing unit 823 is an erroneous detection. Then, when the image processing unit 82 determines that the detection of the retina area by the second processing unit 823 is an erroneous detection, the first processing unit 822 is configured to detect the retina area.

本変形例に従えば、第一の処理部822による網膜領域の検出に非常に時間がかかる場合であっても、多数の検査を行う検者(操作者)の実質的な処理待ち時間を軽減しつつ被検眼の個体差や病変に対するロバスト性を確保することができる。 According to this modification, even if it takes a long time to detect the retinal region by the first processing unit 822, the substantial processing waiting time of the examiner (operator) who performs many examinations can be reduced. Robustness against individual differences and lesions of the eye to be examined can be ensured.

また、本変形例では、第二の処理部823の処理を第一の処理部822の処理より先に行う構成について述べたが、これらの処理は同時に開始されてもよい。この場合、画像処理部82により、第二の処理部823による網膜領域の検出が誤検出と判断された場合に、第一の処理部822による網膜領域の検出を待って、第二の処理部823が網膜内層の境界検出を行う。なお、第二の処理部823による網膜領域の検出が適切に行われた場合には、第一の処理部822による処理を中断したり、第一の処理部822による処理結果を破棄したりすることができる。 Also, in this modified example, the configuration in which the processing of the second processing unit 823 is performed prior to the processing of the first processing unit 822 has been described, but these processes may be started at the same time. In this case, when the image processing unit 82 determines that the detection of the retina area by the second processing unit 823 is an erroneous detection, the second processing unit waits for the detection of the retina area by the first processing unit 822 and 823 performs inner retinal boundary detection. Note that when the second processing unit 823 properly detects the retinal area, the processing by the first processing unit 822 is interrupted or the processing result by the first processing unit 822 is discarded. be able to.

また、第一の処理部822及び第二の処理部823が網膜領域(同一の網膜層)を検出する場合、表示制御部25が、第一の処理部822及び第二の処理部823による検出処理の処理結果を表示部50に表示させてもよい。この場合には、表示部50に表示された処理結果に対する操作者の指示に応じて、第一の処理部822及び第二の処理部823による検出処理の処理結果のいずれかについて第二の処理部823が網膜内層の境界検出を行ってもよい。この場合、第二の処理部823による網膜領域の検出処理を第二の検出処理、第二の処理部823によるその後の網膜内層の境界の検出処理を第三の検出処理として定義してもよい。 Further, when the first processing unit 822 and the second processing unit 823 detect the retinal region (the same retinal layer), the display control unit 25 detects the detection by the first processing unit 822 and the second processing unit 823. A processing result of the processing may be displayed on the display unit 50 . In this case, according to the operator's instruction for the processing result displayed on the display unit 50, the second processing is performed on either the processing result of the detection processing by the first processing unit 822 or the second processing unit 823. A unit 823 may perform boundary detection of the inner retina. In this case, the process of detecting the retinal area by the second processing unit 823 may be defined as the second detection process, and the subsequent process of detecting the boundary of the inner retina by the second processing unit 823 may be defined as the third detection process. .

(実施例3)
実施例2においては、学習済モデルを用いて網膜領域を検出し、検出された網膜領域に対して網膜内層の境界を検出する例について示した。これに対して、本実施例では、学習済モデルを用いて検出する領域として、網膜領域に限らず、入力データである画像の撮影部位に関して特徴的な領域を検出する。
(Example 3)
In Example 2, an example of detecting a retinal region using a trained model and detecting a boundary of the inner layer of the retina with respect to the detected retinal region was shown. On the other hand, in the present embodiment, the area to be detected using the trained model is not limited to the retinal area, and a characteristic area of the photographed part of the image that is the input data is detected.

以下、本実施例に係る画像処理システムによる画像処理について、実施例2による画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理手順は、実施例2に係る画像処理システム8の構成及び処理手順と同様であるため、同一の参照符号を用いて示し、説明を省略する。 Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the second embodiment. Since the configuration and processing procedure of the image processing system according to the present embodiment are the same as those of the image processing system 8 according to the second embodiment, the same reference numerals are used to denote them, and the description thereof is omitted. .

本実施例に係る第一の処理部822が学習済モデルを用いて検出する領域に関して、図14(a)乃至(d)を参照して説明する。図14(a)乃至(d)では、被検眼の各部位を撮影した画像と第一の処理部822が処理した処理結果のラベル画像の例を示す。 A region detected by the first processing unit 822 according to the present embodiment using the learned model will be described with reference to FIGS. FIGS. 14A to 14D show an example of an image obtained by photographing each part of the subject's eye and a label image as a result of processing by the first processing unit 822. FIG.

図14(a)は、黄斑部を撮影した場合の断層画像1401及び学習済モデルを用いて得た黄斑部におけるラベル画像1402を示す。ラベル画像1402には、硝子体ラベル1403、ILMからISOSの範囲のラベル1404、ISOSからRPEの範囲のラベル1405、脈絡膜ラベル1406、及び強膜ラベル1407が示されている。 FIG. 14(a) shows a tomographic image 1401 when the macula is imaged and a label image 1402 in the macula obtained using the learned model. Label image 1402 shows vitreous label 1403 , ILM to ISOS range label 1404 , ISOS to RPE range label 1405 , choroid label 1406 , and sclera label 1407 .

黄斑部に関しては、例えば、出血や新生血管発生などによる網膜全体の厚み、視力に関する視細胞の欠損、又は病的近視による脈絡膜の菲薄化等を捉えるため、形態変化が現れやすい領域毎にラベルを設定して機械学習モデルに事前に学習させる。学習データとしては、黄斑部の断層画像を入力データとし、例えば、硝子体ラベル、ILMからISOSの範囲のラベル、ISOSからRPEの範囲のラベル、脈絡膜ラベル、及び強膜ラベルが付されたラベル画像を出力データとする。これにより、第一の処理部822は、学習済モデルに黄斑部の断層画像を入力することで、上述した形態変化が現れやすい領域毎にラベルを示すラベル画像を取得し、それらラベルの単位で領域を検出することができる。 Regarding the macula, for example, in order to capture the thickness of the entire retina due to hemorrhage or neovascularization, the loss of photoreceptor cells related to vision, or the thinning of the choroid due to pathological myopia, each area where morphological changes are likely to appear is labeled. Configure and pre-train a machine learning model. As training data, tomographic images of the macular region are used as input data, and for example, labeled images with a vitreous body label, a label ranging from ILM to ISOS, a label ranging from ISOS to RPE, a choroid label, and a sclera label. is the output data. As a result, the first processing unit 822 inputs the tomographic image of the macular region to the trained model, acquires the label image indicating the label for each region where the above-described morphological change is likely to appear, and A region can be detected.

図14(b)は、視神経乳頭部を撮影した場合の断層画像1411及び学習済モデルを用いて得た視神経乳頭部におけるラベル画像1412を示す。ラベル画像1412には、硝子体ラベル1413、ILMからNFLとGCL境界の範囲のラベル1414、及びNFLとGCLの境界からGCLとIPLの境界の範囲のラベル1415が示されている。さらに、ラベル画像1412には、GCLとIPLの境界からISOSの範囲のラベル1416、及びISOSからRPEの範囲のラベル1417が示されている。また更に、ラベル画像1412には、RPEから深層の範囲のラベル1418、及び篩状板の範囲のラベル1419が示されている。この場合の学習データとしては、視神経乳頭部の断層画像を入力データとし、例えば、硝子体ラベル、ILMからNFLとGCL境界の範囲のラベル、NFLとGCLの境界からGCLとIPLの境界の範囲のラベル、GCLとIPLの境界からISOSの範囲のラベル、ISOSからRPEの範囲のラベル、RPEから深層の範囲のラベル、及び篩状板の範囲のラベルが付されたラベル画像を出力データとする。 FIG. 14(b) shows a tomographic image 1411 obtained by imaging the optic papilla and a labeled image 1412 in the optic papilla obtained using the learned model. Label image 1412 shows vitreous label 1413, label 1414 ranging from the ILM to the NFL and GCL boundary, and label 1415 ranging from the NFL and GCL boundary to the GCL and IPL boundary. Further, the label image 1412 shows a label 1416 ranging from the boundary between GCL and IPL to ISOS and a label 1417 ranging from ISOS to RPE. Also shown in the label image 1412 is a label 1418 for the RPE to deep area and a label 1419 for the lamina cribrosa area. In this case, tomographic images of the optic papilla are used as input data. Labels, labels from the boundary of the GCL and IPL to the ISOS range, labels from the ISOS to the RPE range, labels from the RPE to the deep layer range, and labeled images of the lamina cribrosa range are output data.

図14(c)の正面画像1421は、視神経乳頭部撮影時において、XY面内の正面方向から見た画像であり、眼底画像撮影装置30を用いて撮影された画像である。また、図14(c)のラベル画像1422は、視神経乳頭部の正面画像1421に対して学習済モデルを用いて得たラベル画像である。ラベル画像1422には、視神経乳頭の周辺部のラベル1423、Discラベル1424、及びCupラベル1425が示されている。 A front image 1421 in FIG. 14C is an image viewed from the front in the XY plane during imaging of the optic papilla, and is an image captured using the fundus image capturing device 30 . A labeled image 1422 in FIG. 14C is a labeled image obtained by using a trained model for the front image 1421 of the optic papilla. A label image 1422 shows a label 1423, a Disc label 1424, and a Cup label 1425 for the periphery of the optic nerve papilla.

視神経乳頭部においては、緑内障によって、神経節細胞の消失や、RPEの端部(RPE-tip)又はブルッフ膜開口端(BMO)、篩状板、及びCupとDisc等の形態変化が現れやすい。そのため、これらの領域毎にラベルを設定して機械学習モデルに事前に学習させる。学習データとしては、視神経乳頭部の正面画像を入力データとし、例えば、視神経乳頭の周辺部のラベル、Discラベル、及びCupラベルが付されたラベル画像を出力データとする。これにより、第一の処理部822は、学習済モデルに視神経乳頭部の画像を入力することで、上述した形態変化が現れやすい領域毎にラベルを示すラベル画像を取得し、それらラベルの単位で領域を検出することができる。 In the optic papilla, loss of ganglion cells and morphological changes such as RPE tip (RPE-tip) or Bruch's membrane opening (BMO), cribriform plate, and Cup and Disc are likely to appear due to glaucoma. Therefore, a label is set for each of these regions and the machine learning model is trained in advance. As the learning data, the front image of the optic papilla is used as input data, and the labeled image with, for example, the peripheral portion of the optic papilla, the Disc label, and the Cup label is used as output data. As a result, the first processing unit 822 inputs the image of the optic papilla to the trained model, acquires the label image indicating the label for each region where the above-described morphological change is likely to appear, and obtains the label image for each label unit. A region can be detected.

図14(d)は、前眼部を撮影した場合の断層画像1431及び学習済モデルを用いて得た前眼部撮影におけるラベル画像1432が示されている。ラベル画像1432には、角膜ラベル1433、前房ラベル1434、虹彩ラベル1435、及び水晶体ラベル1436が示されている。前眼部の断層画像1431に関しては、後眼部画像とは異なり、前述したような主要な領域を機械学習モデルに事前に学習させる。学習データとしては、前眼部の断層画像を入力データとし、例えば、角膜ラベル、前房ラベル、虹彩ラベル、及び水晶体ラベルが付されたラベル画像を出力データとする。これにより、第一の処理部822は、学習済モデルに前眼部の画像を入力することで、上述した形態変化が現れやすい領域毎にラベルを示すラベル画像を取得し、それらラベルの単位で領域を検出することができる。 FIG. 14D shows a tomographic image 1431 when the anterior segment is captured and a label image 1432 in the anterior segment captured using the learned model. Label image 1432 shows cornea label 1433 , anterior chamber label 1434 , iris label 1435 , and lens label 1436 . Regarding the tomographic image 1431 of the anterior segment, unlike the posterior segment image, the machine learning model is trained in advance on the main regions as described above. As learning data, a tomographic image of the anterior segment is used as input data, and labeled images with, for example, a cornea label, an anterior chamber label, an iris label, and a lens label are used as output data. As a result, the first processing unit 822 inputs an image of the anterior segment to the trained model, acquires a label image indicating a label for each region where the above-described morphological change is likely to occur, and obtains a label image for each label unit. A region can be detected.

本実施例に係る第二の処理部823は、図14(a)、(b)、及び(d)に示す断層画像1401,1411,1431において、第一の処理部822が検出した領域に基づいて残りの境界を検出する。また、第二の処理部823は、検出した境界や境界に挟まれた層領域、又は第一の処理部822が検出した領域の厚さの計測を実施してもよい。 The second processing unit 823 according to the present embodiment, in the tomographic images 1401, 1411, and 1431 shown in FIGS. to detect the remaining boundaries. Also, the second processing unit 823 may measure the thickness of the detected boundary, the layer region sandwiched between the boundaries, or the region detected by the first processing unit 822 .

また、第二の処理部823は、図14(c)の正面画像に対してはラベルにより分類された各領域に対して計測を行い各領域の高さ、幅、面積やCup/Disc比を算出することができる。なお、これらの計測や比率の算出については、既存の任意の方法を用いてよい。 In addition, the second processing unit 823 measures each area classified by the label for the front image of FIG. can be calculated. Any existing method may be used for these measurements and ratio calculations.

このように本実施例に係る第二の処理部823は、第一の処理部822が検出した領域に対応する画像処理アルゴリズムを実行するとともに、領域毎に画像処理アルゴリズムの適用する際のルールを変更することができる。ここでいうルールとは、例えば、検出すべき境界の種類等を含む。例えば、第二の処理部823は、図14(a)に示す黄斑部の断層画像1401について、ラベル1404で示されるILMからISOSの範囲において実施例1と同様に、追加の境界検出を行うようにしてもよい。なお、境界検出方法は実施例1における境界検出方法と同様であってよい。また、第二の処理部823は、黄斑部の断層画像1401について、ILMとNFLの境界、OPLとONLの境界、IPLとINLの境界、INLとOPLの境界、GCLとIPLの境界を検出するように画像処理アルゴリズム及びルールを適用してもよい。このように、第二の処理部823では、領域毎に、所望の構成に応じて任意の画像処理アルゴリズム及びルールが設定されてよい。 As described above, the second processing unit 823 according to the present embodiment executes the image processing algorithm corresponding to the area detected by the first processing unit 822, and sets rules for applying the image processing algorithm to each area. can be changed. The rule here includes, for example, the type of boundary to be detected. For example, the second processing unit 823 performs additional boundary detection in the range from ILM to ISOS indicated by the label 1404 in the tomographic image 1401 of the macular portion shown in FIG. can be Note that the boundary detection method may be the same as the boundary detection method in the first embodiment. Further, the second processing unit 823 detects the boundary between ILM and NFL, the boundary between OPL and ONL, the boundary between IPL and INL, the boundary between INL and OPL, and the boundary between GCL and IPL in the tomographic image 1401 of the macular region. Image processing algorithms and rules may be applied as follows. Thus, in the second processing unit 823, arbitrary image processing algorithms and rules may be set for each region according to a desired configuration.

上記のように、本実施例に係る画像処理装置80では、第一の処理部822は、入力された画像について撮影部位毎に予め定められた境界を検出する。このため、本実施例では、学習済モデルを用いて検出する領域は網膜領域に限らず、撮影部位に関して特徴的な領域であるため、疾患などのバリエーションなどにも対応できる。なお、第一の処理部822は、入力された画像が網膜の断層画像である場合には、網膜層の少なくとも一つを検出する第一の検出処理として当該撮影部位毎に予め定められた境界を検出することができる。また、第一の処理部822は、入力された画像が網膜の断層画像以外の画像である場合には、第一の検出処理とは異なる処理として当該撮影部位毎に予め定められた境界を検出することができる。なお、実施例1と同様に、断層画像の領域毎に学習を行った複数の学習モデルのそれぞれの出力を合わせて第一の処理部822の最終的な出力を生成してもよい。 As described above, in the image processing apparatus 80 according to the present embodiment, the first processing unit 822 detects a predetermined boundary for each imaging region in the input image. For this reason, in the present embodiment, the region detected using the trained model is not limited to the retinal region, but is a region characteristic of the imaging site, so variations such as diseases can be dealt with. Note that, when the input image is a tomographic image of the retina, the first processing unit 822 performs the first detection processing for detecting at least one of the retinal layers, which is a predetermined boundary for each imaging region. can be detected. In addition, when the input image is an image other than the tomographic image of the retina, the first processing unit 822 detects a predetermined boundary for each imaging part as a process different from the first detection process. can do. As in the first embodiment, the final output of the first processing unit 822 may be generated by combining the respective outputs of a plurality of learning models that have learned for each region of the tomographic image.

また、本実施例に係る画像処理装置80では、第一の検出処理又は第二の検出処理の結果に基づいて、被検眼に関する各領域の高さ(厚さ)、幅、面積やCup/Disc比等の所定の形状特徴が計測されることができる。 Further, in the image processing apparatus 80 according to the present embodiment, the height (thickness), width, area, Cup/Disc Certain shape features, such as ratios, can be measured.

(実施例4)
実施例3においては、学習済モデルを用いて検出する領域を網膜領域に限らず、撮影される部位における特徴的な領域を検出する例について示した。これに対して、実施例4では、画像が撮影された撮影条件に応じて、学習済モデルを用いた処理の実行の選択、さらには学習済モデルを用いて検出する領域の絞込みを行う。
(Example 4)
In the third embodiment, an example of detecting a characteristic area in a part to be imaged without being limited to the retinal area as the area to be detected using the trained model is shown. On the other hand, in the fourth embodiment, selection of execution of processing using the learned model and narrowing down of areas to be detected using the learned model are performed according to the shooting conditions under which the image was shot.

以下、図15乃至16(b)を参照して、本実施例に係る画像処理システム150による画像処理について、実施例2に係る画像処理との違いを中心として説明する。なお、実施例2に係る画像処理システム8の構成及び処理と同様である本実施例による画像処理システムの構成及び処理については、同一の参照符号を用いて示し、説明を省略する。 Image processing by the image processing system 150 according to the present embodiment will be described below with reference to FIGS. 15 to 16B, focusing on differences from the image processing according to the second embodiment. The configuration and processing of the image processing system according to the present embodiment, which are the same as those of the image processing system 8 according to the second embodiment, are denoted by the same reference numerals, and description thereof will be omitted.

図15は、本実施例に係る画像処理システム150の概略的な構成の一例を示す。本実施例に係る画像処理システム150では、画像処理装置152の画像処理部1520において、断層画像生成部221、第一の処理部822、及び第二の処理部823に加えて、選択部1524が設けられている。 FIG. 15 shows an example of a schematic configuration of an image processing system 150 according to this embodiment. In the image processing system 150 according to the present embodiment, in the image processing unit 1520 of the image processing device 152, in addition to the tomographic image generation unit 221, the first processing unit 822, and the second processing unit 823, the selection unit 1524 is provided.

選択部1524は、取得部21が取得した撮影条件群及び第一の処理部822の学習済モデルに関する学習内容(教師データ)に基づいて、断層画像に対して行う画像処理を選択する。具体的には、撮影条件群と学習済モデルの学習に基づいて、第一の処理部822のみで網膜層を検出するか、第一の処理部822で網膜領域を検出し、第二の処理部823で網膜層を検出するか、又は第二の処理部823のみで網膜層を検出するかを選択する。また、選択部1524は、第一の処理部822が複数の学習済モデルを有する場合に、撮影条件群及び第一の処理部822の学習済モデルに関する学習内容に基づいて、第一の処理部822による検出処理に用いる学習済モデルを選択することができる。 The selection unit 1524 selects image processing to be performed on the tomographic image based on the imaging condition group acquired by the acquisition unit 21 and learning contents (teacher data) regarding the learned model of the first processing unit 822 . Specifically, based on the imaging condition group and learning of the learned model, the retinal layer is detected only by the first processing unit 822, or the retinal area is detected by the first processing unit 822, and the second processing is performed. It is selected whether the retinal layer is detected by the unit 823 or the retinal layer is detected only by the second processing unit 823 . Further, when the first processing unit 822 has a plurality of learned models, the selection unit 1524 selects the first processing unit A trained model to be used for the detection process by 822 can be selected.

次に、図16(a)及び(b)を参照して、本実施例に係る一連の処理について説明する。図16(a)は、本実施例に係る一連の処理のフローチャートであり、図16(b)は、本実施例に係る境界検出処理のフローチャートである。なお、境界検出処理以外の処理については実施例2の処理と同様であるため、説明を省略する。ステップS303において断層画像が生成されると、処理はステップS1604に移行する。処理がステップS1604に移行すると境界検出処理が開始され、処理はステップS1641に移行する。 Next, a series of processes according to this embodiment will be described with reference to FIGS. FIG. 16(a) is a flow chart of a series of processes according to this embodiment, and FIG. 16(b) is a flow chart of boundary detection processing according to this embodiment. Note that the processing other than the boundary detection processing is the same as the processing in the second embodiment, so description thereof will be omitted. After the tomographic image is generated in step S303, the process proceeds to step S1604. When the process proceeds to step S1604, boundary detection processing is started, and the process proceeds to step S1641.

ステップS1641では、取得部21が生成された断層画像についての撮影条件群を取得し、画像処理部1520が取得された撮影条件群から、第一の処理部822及び第二の処理部823による処理の選択を実行するのに必要な情報を取得する。例えば、これらの条件は、撮影部位、撮影方式、撮影領域、撮影画角、及び画像の解像度等を含むことができる。 In step S1641, the acquisition unit 21 acquires an imaging condition group for the generated tomographic image, and the image processing unit 1520 performs processing by the first processing unit 822 and the second processing unit 823 from the acquired imaging condition group. Get the information needed to perform the selection of . For example, these conditions can include the imaging region, imaging method, imaging region, imaging angle of view, image resolution, and the like.

ステップS1642では、選択部1524が、ステップS1641で取得された撮影条件に基づいて、第一の処理部822による処理を実行するか否かの選択を行う。ここでは例として、第一の処理部822の学習済モデルについて、視神経乳頭部及び黄斑部のそれぞれ撮影部位毎の教師データを用いて学習が行われた視神経乳頭部用モデルと黄斑部用モデルの2つのみ用意されている場合を考える。また、この場合において、第一の処理部822は、広画角な画像(視神経乳頭部と黄斑部の両方が撮影されているような範囲の画像)に対応できないものとして説明する。 In step S1642, the selection unit 1524 selects whether or not to execute processing by the first processing unit 822 based on the imaging conditions acquired in step S1641. Here, as an example, for the trained model of the first processing unit 822, a model for the optic papilla and a model for the macula, which are learned using teacher data for each imaging region of the optic papilla and the macula. Consider the case where only two are available. Also, in this case, the first processing unit 822 will be described as being incapable of handling wide-angle images (images in a range in which both the optic papilla and the macula are captured).

当該例では、選択部1524が、撮影条件のうち、例えば撮影部位名と撮影画角の情報に基づいて、入力画像が視神経乳頭部や黄斑部を単独で撮影した画像と判定した場合には、選択部1524は第一の処理部822による処理を実行することを選択する。これにより、処理はステップS1643に移行する。一方で、選択部1524が、入力画像が視神経乳頭部や黄斑部以外を撮影した画像、又は視神経乳頭部及び黄斑部の両方を含む広画角な画像であると判定した場合には、選択部1524は第一の処理部822による処理を実行しないことを選択する。これにより、処理はステップS1645に移行する。 In this example, when the selection unit 1524 determines that the input image is an image obtained by imaging the optic nerve papilla or the macular region alone based on, for example, the imaging region name and imaging angle of view information among the imaging conditions, The selection unit 1524 selects execution of processing by the first processing unit 822 . As a result, the process moves to step S1643. On the other hand, if the selection unit 1524 determines that the input image is an image captured other than the optic disc region and the macular region, or an image with a wide angle of view including both the optic disc region and the macular region, the selection unit 1524 selects not to execute processing by the first processing unit 822 . As a result, the process moves to step S1645.

ステップS1643では、選択部1524は、ステップS1641で取得された撮影条件に基づいて、第一の処理部822が利用する適切な学習済モデルの選択を行う。上述の例では、選択部1524は、例えば撮影部位名と撮影画角の情報に基づいて、入力画像が視神経乳頭部を撮影した画像であると判定した場合には、視神経乳頭部用のモデルを選択する。同様に、選択部1524は、入力画像が黄斑部を撮影した画像であると判定した場合には、黄斑部用のモデルを選択する。 In step S1643, the selection unit 1524 selects an appropriate learned model to be used by the first processing unit 822 based on the imaging conditions acquired in step S1641. In the above example, if the selection unit 1524 determines that the input image is an image obtained by imaging the optic papilla based on the information of the imaging region name and the imaging angle of view, for example, the model for the optic papilla is selected. select. Similarly, when the selection unit 1524 determines that the input image is an image of the macular region, it selects a model for the macular region.

なお、ここでは、学習済モデルが、視神経乳頭部と黄斑部を撮影した画像だけを学習してある場合の例について示したが、学習済モデルの学習内容はこれに限らない。例えば、他の部位について学習した学習済モデルや、視神経乳頭部及び黄斑部を含む広画角な画像を用いて学習が行われた学習済モデルを用いてもよい。 Here, an example in which the trained model has learned only images obtained by photographing the optic papilla and the macula has been shown, but the learning content of the trained model is not limited to this. For example, a trained model that has been trained on other parts, or a trained model that has been trained using a wide-angle image including the optic papilla and the macula may be used.

また、撮影部位ではなく撮影方式に応じた学習済モデルが別々に用意されている場合には、撮影方式に応じて処理の選択や学習済モデルの選択が行われてよい。撮影方式の例としては、SD-OCTとSS-OCTの撮影方式があり、両者の撮影方式の違いにより、画質、撮影範囲、及び深さ方向の深達度等が異なる。そのため、これらの撮影方式の異なる画像に対して、適切な処理の選択や学習済モデルを選択するようにしてもよい。なお、学習時に撮影方式に関係なく一緒に学習してある場合には、撮影方式に応じて処理を変更する必要はない。また、学習済モデルが一つしかない場合には、ステップS1643における学習モデルの選択は必要ないため、この処理はスキップすることができる。 Further, when trained models are separately prepared according to the imaging method instead of the imaging region, selection of processing and selection of the learned model may be performed according to the imaging method. Examples of imaging methods include SD-OCT and SS-OCT imaging methods, and image quality, imaging range, depth of penetration in the depth direction, and the like differ depending on the difference between the two imaging methods. Therefore, appropriate processing or learned models may be selected for images captured by different imaging methods. It should be noted that if the learning is done together regardless of the shooting method, there is no need to change the processing according to the shooting method. Also, if there is only one trained model, there is no need to select a learned model in step S1643, so this process can be skipped.

ステップS1644では、第一の処理部822がステップS1643で選択された学習済モデルを用いて第一の境界検出処理を行う。なお、この処理に関しては、実施例1乃至3で説明したものを用いることができる。例えば、黄斑部用モデルが、黄斑部における各網膜層の画像セグメンテーション処理について学習している場合には、第一の処理部822は、第一の検出処理として、実施例1と同様に、検出対象となる全ての境界を検出することができる。また、例えば、視神経乳頭部用モデルが、視神経乳頭部における網膜領域を検出する処理について学習している場合には、第一の処理部822は、第一の検出処理として、実施例2と同様に、網膜領域を検出することができる。同様に、黄斑部用モデルが実施例3と同様に、黄斑部の特徴的な領域を検出する処理を学習している場合には、第一の処理部822は、第一の検出処理として、実施例3と同様に、特徴的な領域を検出することができる。なお、具体的な検出方法は、実施例1乃至3における検出方法と同様であるため説明を省略する。 In step S1644, the first processing unit 822 performs first boundary detection processing using the learned model selected in step S1643. Note that the processing described in the first to third embodiments can be used for this processing. For example, when the macular model has learned about image segmentation processing for each retinal layer in the macular, the first processing unit 822 performs detection as the first detection processing in the same manner as in the first embodiment. All boundaries of interest can be detected. Further, for example, when the optic nerve papilla model has learned processing for detecting the retinal region in the optic papilla, the first processing unit 822 performs the first detection processing in the same manner as in the second embodiment. In addition, the retinal area can be detected. Similarly, when the macular model has learned the process of detecting a characteristic region of the macular as in the third embodiment, the first processing unit 822 performs the following as the first detection process: As in the third embodiment, characteristic regions can be detected. Note that a specific detection method is the same as the detection method in Examples 1 to 3, and thus description thereof is omitted.

ステップS1645では、選択部1524は、ステップS1641で取得された撮影条件に基づいて、第二の処理部823による処理を実行するか否かを選択する。選択部1524が第二の処理部823による処理を実行することを選択した場合には、処理はステップS1646に移行する。一方で、選択部1524が第二の処理部823による処理を実行しないことを選択した場合には、ステップS1604の処理が終了し、処理はステップS305に移行する。 In step S1645, the selection unit 1524 selects whether or not to execute processing by the second processing unit 823 based on the imaging conditions acquired in step S1641. If the selection unit 1524 selects execution of the process by the second processing unit 823, the process moves to step S1646. On the other hand, if the selection unit 1524 selects not to execute the process by the second processing unit 823, the process of step S1604 ends and the process proceeds to step S305.

ここで、ステップS1645における選択部1524の選択処理の例について説明する。第二の処理部823による処理を実行する場合とは、例えば、実施例2及び3で説明したように、第一の処理部822が検出した領域に基づいて、第二の処理部823が境界を検出する場合である。 Here, an example of selection processing by the selection unit 1524 in step S1645 will be described. The case where the processing by the second processing unit 823 is executed is, for example, as described in the second and third embodiments, based on the region detected by the first processing unit 822, the second processing unit 823 detects the boundary is detected.

また、この他に、第一の処理部822が未学習の画像が入力された場合にも第二の処理部823による処理を実行する。この場合には、ステップS1642において、第一の処理部822による処理をスキップすることが選択されるため、第二の処理部823によって、学習済モデルを使用せずにルールベースの画像セグメンテーション処理によって境界検出を行う。 In addition, processing by the second processing unit 823 is also executed when the first processing unit 822 receives an unlearned image. In this case, since skipping the processing by the first processing unit 822 is selected in step S1642, the second processing unit 823 performs rule-based image segmentation processing without using a trained model. Perform boundary detection.

一方で、第二の処理部823による処理を実行しない場合とは、例えば、第一の処理部822が学習済モデルを用いて、対象となる境界を全て検出できる場合である。この場合は、第一の処理部822のみで処理が完結するため、第二の処理部823の処理をスキップすることが可能である。 On the other hand, the case where the processing by the second processing unit 823 is not executed is, for example, the case where the first processing unit 822 can detect all target boundaries using the learned model. In this case, since the processing is completed only by the first processing unit 822, the processing of the second processing unit 823 can be skipped.

ただし、第一の処理部822が学習済モデルを用いて、対象となる境界をすべて検出できる場合であっても、第二の処理部823によって、検出された境界に基づいて層厚の計測等を行う場合には、第二の処理部823による処理を実行することが選択されてもよい。一方で、検出された境界に基づく層厚の計測等は第二の処理部823によって行われる構成に限られず、画像処理部1520において行われればよい。そのため、層厚の計測等が行われる場合であっても、第二の処理部823による処理の実行が選択されなくてもよい。 However, even if the first processing unit 822 can detect all target boundaries using the learned model, the second processing unit 823 measures the layer thickness based on the detected boundaries. , execution of the process by the second processing unit 823 may be selected. On the other hand, the layer thickness measurement and the like based on the detected boundary are not limited to being performed by the second processing unit 823 and may be performed by the image processing unit 1520 . Therefore, even when layer thickness measurement or the like is performed, execution of processing by the second processing unit 823 may not be selected.

ステップS1646では、選択部1524は、ステップS1641で取得された撮影条件に基づいて、第二の処理部823による処理を実行するために必要な画像処理と画像処理を適用する際のルールの選択を行う。例えば、入力画像が、図14(a)、(b)及び(d)に示すような断層画像である場合においては、選択部1524は、第一の処理部822が検出した領域に基づいて残りの境界を検出するための処理とルールを選択する。 In step S1646, the selection unit 1524 selects the image processing necessary for executing the processing by the second processing unit 823 and the rule for applying the image processing based on the imaging conditions acquired in step S1641. conduct. For example, when the input image is a tomographic image as shown in FIGS. Select the process and rules for detecting the boundaries of .

具体的には、例えば、入力画像が図14(a)に示す黄斑部を撮影した断層画像1401の場合には、選択部1524は、黄斑部が正しく層認識できる画像処理とルールを選択する。また、例えば、図14(b)に示す視神経乳頭部を撮影した断層画像1411の場合には、選択部1524は、ブルッフ膜開口端(BMO)、篩状板、Cup、及びDisc等の影響を考慮した視神経乳頭部の例外処理を考慮した画像処理とルールを選択する。さらに、例えば、図14(d)に示す前眼部を撮影した場合の断層画像1431の場合には、選択部1524は、角膜部の更なる層認識を行いうる画像処理とルールを選択する。 Specifically, for example, when the input image is a tomographic image 1401 obtained by imaging the macular portion shown in FIG. Further, for example, in the case of the tomographic image 1411 obtained by imaging the optic nerve papilla shown in FIG. Select image processing and rules that take into account the optic nerve head exception handling. Furthermore, for example, in the case of a tomographic image 1431 obtained by imaging the anterior segment shown in FIG.

さらに、ステップS1647において層境界の検出に加え又は単独で、検出された境界や境界に挟まれた層領域の厚さの計測を実施する場合には、選択部1524は、そのような画像計測機能に必要な画像処理を選択することもできる。 Furthermore, in step S1647, in addition to detecting the layer boundary or independently, when measuring the thickness of the detected boundary or the thickness of the layer region sandwiched between the boundaries, the selection unit 1524 performs such an image measurement function. You can also select the image processing required for

ステップS1647では、第二の処理部823が境界の検出及び/又は検出された境界や領域に対する計測を行う。なお、実施例2及び3で説明したものと同様に、第一の処理部822が検出した領域に基づいて領域内の境界を検出する処理や境界等に対する計測する処理に関しては、説明を省略する。 In step S1647, the second processing unit 823 performs boundary detection and/or measurement of the detected boundary or area. As in the second and third embodiments, the description of the process of detecting the boundary in the area based on the area detected by the first processing unit 822 and the process of measuring the boundary will be omitted. .

ここでは、第一の処理部822の学習済モデルが未学習である画像が入力された場合に、第二の処理部823が行う処理の例について説明する。この場合、入力画像から検出されている網膜領域の候補がないため、第二の処理部823は、実施例2の変形例で説明したように、ILMとNFLとの境界と、RPE又はISOSとを最初に検出する。 Here, an example of processing performed by the second processing unit 823 when an image is input in which the trained model of the first processing unit 822 has not been trained will be described. In this case, since there is no retinal area candidate detected from the input image, the second processing unit 823 detects the boundary between the ILM and NFL, and the RPE or ISOS, as described in the modified example of the second embodiment. is detected first.

第二の処理部823は、ILMとNFLとの境界と、RPE又はISOSとを検出した後は、それら境界の間の領域に基づいて残りの境界を検出する。当該検出処理は、実施例2及び3における検出処理と同様であるため、説明を省略する。第二の処理部823がこれらの処理を実行したら、処理はステップS305に移行する。なお、実施例2の変形例と同様に、第二の処理部823は、ILMとNFLとの境界と、BMとを最初に検出してもよい。また、以降の処理については実施例1乃至3における処理と同様であるため説明を省略する。 After detecting the boundary between the ILM and NFL and the RPE or ISOS, the second processing unit 823 detects the remaining boundary based on the area between these boundaries. Since the detection process is the same as the detection process in the second and third embodiments, description thereof is omitted. After the second processing unit 823 executes these processes, the process moves to step S305. As in the modification of the second embodiment, the second processing unit 823 may first detect the boundary between the ILM and NFL and the BM. Also, since the subsequent processing is the same as the processing in the first to third embodiments, the description is omitted.

上記のように、本実施例に係る画像処理装置152では、取得部21は、被検眼の断層画像に関する撮影条件を取得する。画像処理装置152は、撮影条件に基づいて、処理の選択を行う選択部1524を更に備える。選択部1524は、撮影条件に基づいて、第一の検出処理と第二の検出処理のうち少なくとも一つを選択する。 As described above, in the image processing apparatus 152 according to the present embodiment, the acquisition unit 21 acquires the imaging conditions for the tomographic image of the subject's eye. The image processing device 152 further includes a selection unit 1524 that selects processing based on imaging conditions. A selection unit 1524 selects at least one of the first detection process and the second detection process based on the imaging conditions.

このため、本実施例に係る画像処理装置152では、撮影条件に基づいて、第一の処理部822が実行する学習済モデルによる境界検出の可否、及び第二の処理部823が実行する画像特徴による境界検出の処理実行の要否が判断される。これにより、学習済モデルによる境界検出が特定の画像にだけ対応している場合においても入力画像に応じて処理を適切に行うことができる。そのため、学習モデルが様々な画像のパターンに対応していない場合でも、境界検出処理を確実に実行することができる。従って、機械学習で作成されるさまざまな成熟段階にある機械学習モデルの少なくとも一つと、画像特徴抽出の結果をルールベースで判断して網膜層の境界検出を行う画像処理方法を併用することにより、境界検出の精度を向上させることができる。 For this reason, in the image processing apparatus 152 according to the present embodiment, based on the shooting conditions, the possibility of boundary detection by the trained model executed by the first processing unit 822 and the image feature detection executed by the second processing unit 823 are determined. It is determined whether or not it is necessary to execute boundary detection processing. As a result, even when the boundary detection by the trained model corresponds only to a specific image, it is possible to appropriately perform processing according to the input image. Therefore, even if the learning model does not correspond to various image patterns, it is possible to reliably execute the boundary detection process. Therefore, by using at least one of the machine learning models in various maturity stages created by machine learning together with an image processing method that detects the boundaries of the retinal layers by judging the results of image feature extraction on a rule basis, The accuracy of boundary detection can be improved.

また、第一の処理部822は、異なる教師データを用いて機械学習が行われた複数の学習済モデルを含む。さらに、第一の処理部822は、複数の学習済モデルのうち、撮影条件に対応する教師データを用いて機械学習が行われた学習済モデルを用いて、第一の検出処理を実行する。 Also, the first processing unit 822 includes a plurality of trained models that have undergone machine learning using different teacher data. Furthermore, the first processing unit 822 executes the first detection process using a trained model that has been machine-learned using teacher data corresponding to the imaging conditions, among the plurality of trained models.

本実施例によれば、撮影条件に基づいて、適切な学習モデルを用いて網膜層の検出を行うことができ、入力画像に応じてより適切な処理を行うことができる。また、追加で学習モデルを増やしていくことも可能であるため、性能が徐々に向上するようなバージョンアップを行うことも期待できる。さらに、選択部1524によれば、撮影条件に基づいて、第二の処理部823において用いる画像処理とルールの選択を行うことができ、入力画像に応じてより適切な処理を行うことができる。 According to this embodiment, it is possible to detect the retinal layer using an appropriate learning model based on the imaging conditions, and perform more appropriate processing according to the input image. In addition, since it is also possible to increase the number of additional learning models, it is also possible to expect version upgrades that gradually improve performance. Furthermore, according to the selection unit 1524, image processing and rules to be used in the second processing unit 823 can be selected based on the shooting conditions, and more appropriate processing can be performed according to the input image.

なお、本実施例では、ステップS1642及びステップS1645において、第一の処理部822及び第二の処理部823による処理の選択を別々に行ったが、処理の選択の手順はこれに限られない。例えば、選択部1524が、一ステップで、第一の処理部822だけによる処理、第二の処理部823だけによる処理、又は第一の処理部822及び第二の処理部823による処理を選択するように構成されてもよい。 In this embodiment, the selection of processing by the first processing unit 822 and the second processing unit 823 is performed separately in steps S1642 and S1645, but the procedure for selecting processing is not limited to this. For example, the selection unit 1524 selects, in one step, processing by only the first processing unit 822, processing by only the second processing unit 823, or processing by the first processing unit 822 and the second processing unit 823. It may be configured as

(実施例4の変形例)
実施例4では、第一の処理部822と第二の処理部823が境界検出等を双方で分担する場合、又はどちらか一方のみで完結できる場合等、さまざまな場合において適切な処理が可能であることを示した。これに対し、第一の処理部822と第二の処理部823が同一の処理、例えば同一の境界を検出する処理を並行して実行してもよい。
(Modification of Example 4)
In the fourth embodiment, appropriate processing can be performed in various cases, such as when the first processing unit 822 and the second processing unit 823 share the boundary detection or the like, or when only one of them can complete the task. showed that there is On the other hand, the first processing unit 822 and the second processing unit 823 may execute the same process, for example, the process of detecting the same boundary in parallel.

このような例として、例えば、第一の処理部822が学習済モデルを用いて対象となる境界を全て検出でき、且つ、第二の処理部823が第一の検出対象である網膜領域を含む対象となる境界を全て検出できる場合を考える。この場合、第一の処理部822と第二の処理部823はそれぞれの境界を別々に検出した結果を出力する。 As such an example, for example, the first processing unit 822 can detect all target boundaries using the trained model, and the second processing unit 823 can detect the retinal region that is the first detection target. Consider the case where all the boundaries of interest can be detected. In this case, the first processing unit 822 and the second processing unit 823 output results of detecting their boundaries separately.

これらの検出結果は、それぞれ学習済モデルによる処理とルールベースによる画像処理の結果であるため、両結果には差異が生じる場合がある。そのため、本変形例では、表示制御部25が、この両結果を表示部50に並べて表示させたり、切り替えて表示させたり、重ねて表示させたりすることができる。また、画像処理部1520において、両結果の一致不一致を判定し、表示制御部25が当該不一致部分を強調して表示部50に表示させることもできる。この場合には、操作者に層検出の信頼度を示すことができる。さらに、表示制御部25は、不一致部分を表示部50に表示させ、操作者の指示に応じて、より納得度の高い結果を選択できるようにしてもよい。 Since these detection results are the results of the processing by the trained model and the image processing by the rule base, respectively, there may be a difference between the two results. Therefore, in this modified example, the display control unit 25 can cause the display unit 50 to display these two results side by side, switch between them, or overlap them. Also, the image processing unit 1520 can determine whether the two results match or not, and the display control unit 25 can highlight the mismatched portion and display it on the display unit 50 . In this case, the reliability of layer detection can be indicated to the operator. Furthermore, the display control unit 25 may display the non-matching part on the display unit 50 so that a result with a higher degree of satisfaction can be selected according to the operator's instruction.

(実施例5)
実施例2乃至4においては、学習済モデルを用いて網膜領域を検出し、検出された網膜領域に対してルールベースで網膜内層の境界を検出する例について示した。これに対し、実施例5では、学習済モデルを用いて検出した領域に対して、医学的特徴に基づいて補正を行う。
(Example 5)
In Examples 2 to 4, an example of detecting a retinal region using a trained model and detecting a boundary of the inner layer of the retina for the detected retinal region on a rule basis has been described. On the other hand, in Example 5, the region detected using the learned model is corrected based on the medical characteristics.

以下、図17乃至19(d)を参照して、本実施例に係る画像処理システム170による画像処理について、実施例2に係る画像処理との違いを中心として説明する。なお、実施例2に係る画像処理システム8の構成及び処理と同様である本実施例による画像処理システムの構成及び処理については、同一の参照符号を用いて示し、説明を省略する。 Image processing by the image processing system 170 according to the present embodiment will be described below with reference to FIGS. 17 to 19D, focusing on differences from the image processing according to the second embodiment. The configuration and processing of the image processing system according to the present embodiment, which are the same as those of the image processing system 8 according to the second embodiment, are denoted by the same reference numerals, and description thereof will be omitted.

図17は、本実施例に係る画像処理システム170の概略的な構成の一例を示す。本実施例に係る画像処理システム170における画像処理装置172の画像処理部1720には、断層画像生成部221、第一の処理部822、及び第二の処理部823に加えて、補正部1724が設けられている。 FIG. 17 shows an example of a schematic configuration of an image processing system 170 according to this embodiment. The image processing unit 1720 of the image processing device 172 in the image processing system 170 according to the present embodiment includes a tomographic image generation unit 221, a first processing unit 822, and a second processing unit 823, and a correction unit 1724. is provided.

補正部1724は、第一の処理部822が学習済モデルを用いて得たラベル画像について、眼の医学的特徴に基づいて、ラベル付けされた領域を補正する。これにより、画像処理部1720はより適切に網膜領域や特徴領域を検出することができる。 The correction unit 1724 corrects the labeled regions based on the medical characteristics of the eye in the labeled image obtained by the first processing unit 822 using the trained model. This allows the image processing unit 1720 to more appropriately detect the retinal area and the characteristic area.

次に、図18(a)及び18(b)を参照して、本実施例に係る一連の処理について説明する。図18(a)は、本実施例に係る一連の処理のフローチャートであり、図18(b)は、本実施例に係る境界検出のフローチャートである。なお、境界検出処理以外の処理については実施例2の処理と同様であるため、説明を省略する。ステップS303において断層画像が生成されると、処理はステップS1804に移行する。処理がステップS1804に移行し、ステップS941において第一の処理部822による処理が実行されると、処理はステップS1841に移行する。 Next, a series of processes according to this embodiment will be described with reference to FIGS. 18(a) and 18(b). FIG. 18(a) is a flow chart of a series of processes according to this embodiment, and FIG. 18(b) is a flow chart of boundary detection according to this embodiment. Note that the processing other than the boundary detection processing is the same as the processing in the second embodiment, so description thereof will be omitted. After the tomographic image is generated in step S303, the process proceeds to step S1804. When the process moves to step S1804 and the process by the first processing unit 822 is executed in step S941, the process moves to step S1841.

ステップS1841では、補正部1724が、ステップS941において第一の処理部822によって検出された網膜領域を補正する。より具体的には、第一の処理部822が学習済モデルを用いて得たラベル画像について、眼の医学的特徴に基づいて、ラベル付けされた領域を補正する。 In step S1841, the correction unit 1724 corrects the retinal area detected by the first processing unit 822 in step S941. More specifically, the first processing unit 822 corrects the labeled region based on the medical characteristics of the eye in the labeled image obtained using the trained model.

ここで、図19(a)乃至(d)を参照して、本実施例に係る補正部1724による補正処理について説明する。図19(a)は、第一の処理部822への入力となる断層画像1901の一例を示す。図19(b)は、断層画像1901を入力として第一の処理部822が学習済モデルを用いて得たラベル画像1902の一例を示す。ラベル画像1902には、網膜内層のラベル1904、網膜よりも浅層側(硝子体側)のラベル1903、及び網膜よりも深層側(脈絡膜側)のラベル1905が示されている。 Here, with reference to FIGS. 19A to 19D, correction processing by the correction unit 1724 according to this embodiment will be described. FIG. 19A shows an example of a tomographic image 1901 to be input to the first processing unit 822. FIG. FIG. 19B shows an example of a label image 1902 obtained by the first processing unit 822 using the learned model with the tomographic image 1901 as input. The label image 1902 shows a label 1904 for the inner layer of the retina, a label 1903 for the superficial layer side (vitreous body side) of the retina, and a label 1905 for the deeper layer side (choroidal side) of the retina.

なお、当該ラベル付けについては、学習済モデルの学習時のラベルの設定に基づいている。そのため、ラベルの種類はこれに限られるものではなく、実施例3で示したように網膜層内に複数のラベルを設定してもよい。その場合においても、本実施例に係る補正処理を適用することが可能である。 Note that the labeling is based on the label setting at the time of learning of the trained model. Therefore, the type of label is not limited to this, and a plurality of labels may be set in the retinal layer as shown in the third embodiment. Even in that case, it is possible to apply the correction processing according to the present embodiment.

本実施例において、第一の処理部822は学習済モデルを用いて画素単位で画像セグメンテーション処理を行う。そのため、図19(b)のラベル1903’,1904’に示すように部分的に誤検出してしまうことがある。補正部1724は、眼の医学的特徴に基づいてこれらの誤検出を補正する。 In this embodiment, the first processing unit 822 performs image segmentation processing on a pixel-by-pixel basis using a trained model. Therefore, as indicated by labels 1903' and 1904' in FIG. 19(b), erroneous detection may occur partially. Corrector 1724 corrects these false positives based on the medical characteristics of the eye.

第一の処理部822では、検出したラベル毎にラベリング処理を行い、隣接する画素において同じラベルをもつ画素は一つの領域として統合される。本実施例において付与されるラベルの種類は、網膜内層のラベル1904、網膜よりも浅層側(硝子体側)のラベル1903、及び網膜よりも深層側(脈絡膜側)のラベル1905の3種類である。また、網膜の断層画像を撮影した画像を対象としているため、これらラベルが現れる順番は、画像に対して、上からラベル1903、ラベル1904、ラベル1905の順となる。なお、脈絡膜側を強調して撮影するEDI(Enhanced Depth Imaging)モードの場合には、網膜が反転して撮影されるため、ラベルが現れる順番は画像の上からラベル1905、ラベル1904、ラベル1903の順となる。 The first processing unit 822 performs labeling processing for each detected label, and integrates adjacent pixels having the same label as one area. There are three types of labels given in this embodiment: a label 1904 for the inner layer of the retina, a label 1903 for the superficial layer side (vitreous body side) of the retina, and a label 1905 for the deeper layer side (choroidal side) of the retina. . Also, since the object is an image obtained by taking a tomographic image of the retina, the order in which these labels appear is the order of label 1903, label 1904, and label 1905 from the top of the image. In the case of an EDI (Enhanced Depth Imaging) mode in which the choroid side is emphasized and photographed, the retina is reversed and photographed. in order.

上述したように、第一の処理部822に入力する画像は網膜の断層画像であるため、撮影時の条件や撮影部位から医学的特徴に基づいてラベルの位置関係を推定することができる。そこで、補正部1724は、ラベリングされた領域毎に検出結果を特定し、誤検出とみなされる領域を、医学的特徴に基づいて推定される領域に補正する。 As described above, since the image input to the first processing unit 822 is a tomographic image of the retina, it is possible to estimate the positional relationship of the labels based on the medical characteristics from the imaging conditions and the imaging site. Therefore, the correction unit 1724 specifies the detection result for each labeled region, and corrects the region considered to be erroneously detected to a region estimated based on the medical characteristics.

具体的には、補正部1724は、例えば、ラベリングされた領域の面積が大きい方から領域を特定していき、ラベリングされた領域の面積が閾値以下のものや、既に特定された領域から空間的な距離が離れているものは誤検出であると判断する。その後、補正部1724は、誤検出であると判断したラベル情報をリセットする。この場合の例を図19(c)に示す。図19(c)に示される領域1910は、補正部1724によって、誤検出とみなされた領域である、ラベル1903’及びラベル1904’で示された領域についてラベル情報がリセットされた領域を示す。 Specifically, for example, the correcting unit 1724 identifies the labeled regions in order from the larger area, and determines whether the area of the labeled region is equal to or smaller than the threshold value or the spatially different area from the already identified region. If the distance is large, it is judged to be an erroneous detection. After that, the correction unit 1724 resets the label information determined to be erroneous detection. An example of this case is shown in FIG. An area 1910 shown in FIG. 19(c) indicates an area where label information has been reset for the areas indicated by labels 1903' and 1904', which are areas regarded as erroneous detection by the correction unit 1724. FIG.

補正部1724は、ラベル情報をリセットした領域1910に対して、周辺のラベル情報から推測されるラベル情報を割り当てる。図19(c)に示す例では、ラベル1903で囲まれた領域1910についてラベル1903を割り当て、ラベル1905で囲まれた領域1910についてラベル1905を割り当てる。 The correction unit 1724 assigns label information inferred from surrounding label information to the area 1910 whose label information has been reset. In the example shown in FIG. 19C, the label 1903 is assigned to the area 1910 surrounded by the label 1903, and the label 1905 is assigned to the area 1910 surrounded by the label 1905. In FIG.

補正部1724によるこれらの処理により、図19(d)に示すように、最終的なラベル画像1920が出力される。これにより、画像処理部1720は、より適切に網膜領域を検出することができる。 As a result of these processes by the correction unit 1724, a final label image 1920 is output as shown in FIG. 19(d). This allows the image processing section 1720 to more appropriately detect the retinal area.

補正部1724による補正処理が行われると、処理はステップS942に移行する。ステップS942では、第二の処理部823が補正された網膜領域に基づいて、実施例2と同様に、第二の境界検出処理を行う。以降の処理は、実施例2の処理と同様であるため説明を省略する。 After the correction processing by the correction unit 1724 is performed, the processing moves to step S942. In step S942, the second processing unit 823 performs second boundary detection processing based on the corrected retinal region, as in the second embodiment. Since subsequent processing is the same as the processing of the second embodiment, the description is omitted.

上記のように、本実施例に係る画像処理装置172は、網膜層における医学的特徴に基づいて、第一の処理部822が検出した網膜層の構造を補正する補正部1724を更に備える。 As described above, the image processing apparatus 172 according to this embodiment further includes the correction unit 1724 that corrects the structure of the retinal layers detected by the first processing unit 822 based on the medical characteristics of the retinal layers.

このため、本実施例に係る画像処理装置172では、学習済モデルを用いて検出した領域に対して医学的特徴を用いて領域の補正を行うことができる。そのため、画素単位で画像を検出する場合においても、誤検出を低減することができる。 Therefore, the image processing apparatus 172 according to the present embodiment can correct the region detected using the learned model using the medical features. Therefore, erroneous detection can be reduced even when an image is detected on a pixel-by-pixel basis.

なお、本実施例では、実施例2に係る処理に、補正部1724による補正処理を加えたが、実施例3や実施例4に係る処理に当該補正処理を加えてもよい。 In this embodiment, the correction process by the correction unit 1724 is added to the process according to the second embodiment, but the correction process may be added to the process according to the third or fourth embodiment.

(実施例6)
実施例1乃至5においては、撮影した断層画像について、学習済モデルを用いて網膜内層の境界や網膜領域を検出した。これに対し、本実施例では、別の学習済モデルを用いて断層画像の画質を改善した高画質画像を生成し、高画質画像に対して、実施例1や2等に係る学習済モデルを用いた境界検出や領域検出を行う。なお、本実施例における画質の改善とは、ノイズの低減や、撮影対象を観察しやすい色や階調への変換、解像度や空間分解能の向上、及び解像度の低下を抑えた画像サイズの拡大等を含む。
(Example 6)
In Examples 1 to 5, the learned model was used to detect the boundary of the inner layer of the retina and the retinal area for the captured tomographic images. On the other hand, in the present embodiment, another trained model is used to generate a high-quality image in which the image quality of a tomographic image is improved, and the trained model according to the first or second embodiment is applied to the high-quality image. Perform boundary detection and area detection using It should be noted that the improvement of image quality in this embodiment includes noise reduction, conversion to colors and gradations that are easy to observe, improvement in resolution and spatial resolution, and enlargement of image size while suppressing deterioration in resolution. including.

以下、本実施例に係る画像処理システムによる画像処理について、実施例2による画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理手順は、実施例2に係る画像処理システム8の構成及び処理手順と同様であるため、同一の参照符号を用いて示し、説明を省略する。 Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the second embodiment. Since the configuration and processing procedure of the image processing system according to the present embodiment are the same as those of the image processing system 8 according to the second embodiment, the same reference numerals are used to denote them, and the description thereof is omitted. .

本実施例において、第一の処理部822は、網膜領域を検出するための機械学習モデルとは別の機械学習モデルである高画質化モデルに関する学習済モデルを用いて入力画像の画質を改善する処理を行う。高画質化モデルは、任意の機械学習アルゴリズムによる機械学習モデルに対して、事前に適切な教師データを用いてトレーニングし、入力画像の画質を改善した画像を出力する学習済モデルである。 In this embodiment, the first processing unit 822 improves the image quality of the input image using a trained model for an image quality improvement model, which is a machine learning model different from the machine learning model for detecting the retinal region. process. The high image quality model is a machine learning model based on an arbitrary machine learning algorithm, trained in advance using appropriate teacher data, and is a trained model that outputs an image in which the image quality of the input image is improved.

ここで、本実施例に係る高画質化モデルの教師データの一例を図20に示す。図20において、断層画像2001はOCTの撮影によって取得された断層画像の一例を示し、断層画像2002は断層画像2001を高画質化処理した断層画像を示す。断層画像2001は入力データの一例を示し、断層画像2002を出力データの一例を示し、これらの画像によって構成されるペア群により教師データが構成されている。 Here, FIG. 20 shows an example of training data of the image quality enhancement model according to the present embodiment. In FIG. 20, a tomographic image 2001 shows an example of a tomographic image acquired by OCT imaging, and a tomographic image 2002 shows a tomographic image obtained by processing the tomographic image 2001 to improve image quality. A tomographic image 2001 shows an example of input data, a tomographic image 2002 shows an example of output data, and a pair group constituted by these images constitutes teacher data.

なお、高画質化処理としては、空間的に同じ位置を複数回撮影した断層画像について位置合わせを行い、それら位置合わせ済みの断層画像を加算平均処理することが挙げられる。なお、高画質化処理は加算平均処理に限られず、例えば、平滑化フィルタを用いた処理や最大事後確率推定処理(MAP推定処理)、階調変換処理等であってもよい。また、高画質化処理された画像としては、例えば、ノイズ除去とエッジ強調などのフィルタ処理を行った画像でもよいし、低輝度な画像から高輝度な画像とするようなコントラストが調整された画像を用いてもよい。さらに、高画質化モデルに係る教師データの出力データは、高画質な画像であればよいため、入力データである断層画像を撮影した際のOCT装置よりも高性能なOCT装置を用いて撮影された断層画像や、高負荷な設定により撮影された断層画像であってもよい。 Note that as the image quality improvement processing, tomographic images obtained by photographing the same position spatially a plurality of times are aligned, and the tomographic images that have been aligned are averaged. Note that the image quality improvement process is not limited to the averaging process, and may be, for example, a process using a smoothing filter, a maximum a posteriori probability estimation process (MAP estimation process), a gradation conversion process, or the like. Further, the image that has undergone image quality enhancement processing may be, for example, an image that has undergone filter processing such as noise removal and edge enhancement, or an image that has undergone contrast adjustment such that a low-brightness image is changed to a high-brightness image. may be used. Furthermore, since the output data of the training data related to the high-quality image model may be a high-quality image, it is captured using an OCT apparatus with higher performance than the OCT apparatus used when capturing the tomographic image as the input data. It may be a tomographic image captured with a high load or a tomographic image captured with a high-load setting.

第一の処理部822は、このような教師データを用いてトレーニングされた高画質化モデルに対して、OCTの撮影によって取得された断層画像を入力し、高画質化された断層画像を取得する。なお、第一の処理部822は、ラスタスキャンにより網膜を三次元的にスキャンしたボリュームの断層画像を高画質化モデルに入力することで、高画質化されたボリューム断層画像を取得することができる。 The first processing unit 822 inputs a tomographic image obtained by OCT imaging to the high image quality model trained using such teacher data, and acquires a high quality tomographic image. . Note that the first processing unit 822 can acquire a high-quality volume tomographic image by inputting a volume tomographic image obtained by three-dimensionally scanning the retina by raster scanning into the high-quality model. .

第一の処理部822は、高画質化モデルを用いて取得した高画質画像を入力として、実施例2乃至5と同様に、学習済モデルを用いて網膜領域又は特徴領域を検出する。 The first processing unit 822 receives a high-quality image acquired using the high-quality image model as an input, and detects a retinal region or a feature region using the learned model in the same manner as in the second to fifth embodiments.

また、第二の処理部823は、第一の処理部822で取得した高画質画像及び検出した網膜領域や特徴領域に基づいて、網膜層を検出することができる。 Also, the second processing unit 823 can detect the retinal layer based on the high-quality image acquired by the first processing unit 822 and the detected retinal area and characteristic area.

上記のように、本実施例に係る画像処理装置80では、第一の処理部822は学習済モデルを用いて高画質化された断層画像について、第一の検出処理を行う。 As described above, in the image processing apparatus 80 according to the present embodiment, the first processing unit 822 performs the first detection process on the tomographic image whose image quality has been enhanced using the learned model.

これにより、本実施例に係る画像処理装置80は、機械学習モデルの学習済モデルを用いて入力画像の画質を改善し、画質を改善した画像に対して網膜層の検出を行うことができる。そのため、ノイズ低減等の画質改善がなされた画像を用いて網膜層の検出を行うことができ、誤検出を低減することができる。 As a result, the image processing apparatus 80 according to the present embodiment can improve the image quality of the input image using the learned model of the machine learning model, and detect the retinal layers in the image whose image quality has been improved. Therefore, it is possible to detect the retinal layer using an image whose image quality has been improved by noise reduction or the like, and to reduce erroneous detection.

なお、本実施例では、実施例2に係る処理に、入力画像である断層画像を高画質化する処理を加えたが、実施例1や実施例3乃至5に係る処理に、当該高画質化の処理を加えてもよい。 In the present embodiment, a process for improving the image quality of a tomographic image, which is an input image, is added to the process according to the second embodiment. processing may be added.

また、本実施例では、高画質化を行う高画質化モデルを、検出処理を行う機械学習モデルとは別の機械学習モデルとした。しかしながら、検出処理を行う機械学習モデルに当該高画質化処理を学習させ、高画質化と検出処理の両方を行うように機械学習モデルを構成してもよい。 Further, in the present embodiment, a machine learning model different from a machine learning model for performing detection processing is used as an image quality enhancement model for performing image quality enhancement. However, the machine learning model that performs the detection process may be made to learn the image quality enhancement process, and the machine learning model may be configured to perform both the image quality enhancement process and the detection process.

なお、本実施例では、第一の処理部822が高画質化処理に関する学習済モデル(高画質化モデル)を用いて断層画像の画質を改善した高画質画像を生成した。しかしながら、高画質化モデルを用いて高画質画像を生成する構成要素は第一の処理部822に限られない。例えば、第一の処理部822とは別の第三の処理部(高画質化部)を設け、第三の処理部が高画質化モデルを用いて高画質画像を生成してもよい。このため、第一の処理部822又は当該第三の処理部は、高画質化用の学習済モデルを用いて、断層画像から、当該断層画像と比べて高画質化された断層画像を生成する生成部の一例として機能することができる。なお、第三の処理部や高画質化モデルは、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 In this embodiment, the first processing unit 822 generates a high-quality image by improving the image quality of the tomographic image using a learned model (image-quality enhancement model) regarding image-quality enhancement processing. However, the component that generates a high quality image using the high quality model is not limited to the first processing unit 822 . For example, a third processing unit (image quality enhancement unit) may be provided separately from the first processing unit 822, and the third processing unit may generate a high quality image using the image quality enhancement model. Therefore, the first processing unit 822 or the third processing unit generates a tomographic image having higher image quality than the tomographic image, using a trained model for improving image quality. It can function as an example of a generator. In addition, the third processing unit and the high image quality model may be configured by a software module etc. executed by a processor such as CPU, MPU, GPU, FPGA, etc., or by a circuit etc. performing a specific function such as ASIC may be configured.

(実施例7)
次に、図21(a)乃至23を参照して、実施例7に係る画像処理装置80について説明する。実施例6では、第一の処理部822は、高画質化モデルを用いて高画質化された断層画像について第一の検出処理を行い、網膜領域又は特徴領域を検出した。これに関し、第一の処理部822は、他の画像について高画質化モデルを用いて高画質化処理を行ってもよく、表示制御部25は、高画質化された各種画像を表示部50に表示させてもよい。例えば、第一の処理部822は、第一の検出処理及び第二の検出処理により検出された網膜層の情報(例えば境界画像)に基づいて生成された輝度のEn-Face画像やOCTA正面画像等を高画質化処理してもよい。また、表示制御部25は、第一の処理部822によって高画質化処理された断層画像、輝度のEn-Face画像、及びOCTA正面画像の少なくとも1つを表示部50に表示させることができる。なお、高画質化し表示する画像は、SLO画像や、眼底カメラ等で取得された眼底画像、蛍光眼底画像等であってもよい。ここでSLO画像とは、不図示のSLO(Scanning Laser Ophthalmoscope:走査型検眼鏡)光学系によって取得した眼底の正面画像である。
(Example 7)
Next, an image processing apparatus 80 according to the seventh embodiment will be described with reference to FIGS. In Example 6, the first processing unit 822 performed the first detection processing on the tomographic image whose image quality was enhanced using the image quality enhancement model, and detected the retinal region or the characteristic region. In this regard, the first processing unit 822 may perform image quality enhancement processing on other images using the image quality enhancement model, and the display control unit 25 displays various images with enhanced image quality on the display unit 50. may be displayed. For example, the first processing unit 822 generates a luminance En-Face image or an OCTA front image generated based on information (for example, a boundary image) of a retinal layer detected by the first detection process and the second detection process. etc. may be processed to improve image quality. In addition, the display control unit 25 can cause the display unit 50 to display at least one of the tomographic image, the brightness En-Face image, and the OCTA front image, which have been subjected to image quality enhancement processing by the first processing unit 822 . The image to be displayed with high image quality may be an SLO image, a fundus image obtained by a fundus camera or the like, a fluorescence fundus image, or the like. Here, the SLO image is a front image of the fundus obtained by an SLO (Scanning Laser Ophthalmoscope) optical system (not shown).

ここで、各種画像を高画質化処理するための高画質化モデルの学習データは、各種画像について、実施例6に係る高画質化モデルの学習データと同様に、高画質化処理前の画像を入力データとし、高画質化処理後の画像を出力データとする。なお、学習データに関する高画質化処理については、実施例6と同様に、例えば、加算平均処理や、平滑化フィルタを用いた処理、最大事後確率推定処理(MAP推定処理)、階調変換処理等であってよい。また、高画質化処理後の画像としては、例えば、ノイズ除去とエッジ強調などのフィルタ処理を行った画像でもよいし、低輝度な画像から高輝度な画像とするようなコントラストが調整された画像を用いてもよい。さらに、高画質化モデルに係る教師データの出力データは、高画質な画像であればよいため、入力データである画像を撮影した際のOCT装置よりも高性能なOCT装置を用いて撮影された画像や、高負荷な設定により撮影された画像であってもよい。 Here, the learning data of the image quality enhancement model for performing image quality enhancement processing on various images is the image before the image quality enhancement processing for each image, similar to the learning data of the image quality enhancement model according to the sixth embodiment. This is used as input data, and the image after image quality enhancement processing is used as output data. As for the image quality improvement processing for the learning data, as in the sixth embodiment, for example, averaging processing, processing using a smoothing filter, maximum posterior probability estimation processing (MAP estimation processing), gradation conversion processing, etc. can be Further, the image after image quality enhancement processing may be, for example, an image subjected to filter processing such as noise removal and edge enhancement, or an image whose contrast has been adjusted such that a low brightness image is changed to a high brightness image. may be used. Furthermore, since the output data of the training data related to the high image quality model may be a high image quality image, it was captured using an OCT device with higher performance than the OCT device used to capture the image that is the input data. An image or an image captured with a high-load setting may be used.

また、高画質化モデルは、高画質化処理を行う画像の種類毎に用意されてもよい。例えば、断層画像用の高画質化モデルや輝度のEn-Face画像用の高画質化モデル、OCTA正面画像用の高画質化モデルが用意されてよい。さらに、輝度のEn-Face画像用の高画質化モデルやOCTA正面画像用の高画質化モデルは、画像の生成に係る深度範囲(生成範囲)について異なる深度範囲の画像を網羅的に学習した学習済モデルであってよい。異なる深度範囲の画像としては、例えば、図21(a)に示すように、表層(Im2110)、深層(Im2120)、外層(Im2130)、及び脈絡膜血管網(Im1940)などの画像が含まれてよい。また、輝度のEn-Face画像用の高画質化モデルやOCTA正面画像用の高画質化モデルは、異なる深度範囲毎の画像を学習した複数の高画質化モデルが用意されてもよい。 Also, the image quality enhancement model may be prepared for each type of image to be subjected to image quality enhancement processing. For example, a high image quality model for tomographic images, a high image quality model for luminance En-Face images, and a high image quality model for OCTA frontal images may be prepared. Furthermore, the high image quality model for the luminance En-Face image and the high image quality model for the OCTA front image are learned by comprehensively learning images of different depth ranges regarding the depth range (generation range) related to image generation. model. Images of different depth ranges may include, for example, images of superficial layer (Im2110), deep layer (Im2120), outer layer (Im2130), and choroidal vascular network (Im1940), as shown in FIG. . Further, as the image quality improvement model for the brightness En-Face image and the image quality improvement model for the OCTA front image, a plurality of image quality improvement models obtained by learning images for different depth ranges may be prepared.

また、断層画像用の高画質化モデルを用意する場合には、異なる副走査(Y)方向の位置で得られた断層画像を網羅的に学習した学習済モデルであってよい。図21(b)に示す断層画像Im2151~Im2153は、異なる副走査方向の位置で得られた断層画像の例である。ただし、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)が異なる場所を撮影した画像の場合には、部位ごとに別々に学習をするようにしてもよいし、撮影部位を気にせずに一緒に学習をするようにしてもよい。なお、高画質化する断層画像としては、輝度の断層画像と、モーションコントラストデータの断層画像とが含まれてよい。ただし、輝度の断層画像とモーションコントラストデータの断層画像においては画像特徴量が大きく異なるため、それぞれの高画質化モデルとして別々に学習を行ってもよい。 Also, when preparing a high-quality model for tomographic images, it may be a trained model that has been exhaustively trained on tomographic images obtained at different positions in the sub-scanning (Y) direction. Tomographic images Im2151 to Im2153 shown in FIG. 21B are examples of tomographic images obtained at different positions in the sub-scanning direction. However, in the case of images taken at different locations (e.g., the center of the macula and the center of the optic papilla), it may be possible to learn separately for each region, or the You may choose to study together. Note that the tomographic images whose image quality is to be improved may include a luminance tomographic image and a tomographic image of motion contrast data. However, the tomographic image of brightness and the tomographic image of motion contrast data have significantly different image feature amounts, and therefore, they may be trained separately as high-quality models.

以下、本実施例に係る画像処理システムによる画像処理について、実施例6による画像処理との違いを中心として説明する。なお、本実施例に係る画像処理システムの構成及び処理手順は、実施例6に係る画像処理システム8の構成及び処理手順と同様であるため、同一の参照符号を用いて示し、説明を省略する。 Image processing by the image processing system according to the present embodiment will be described below, focusing on differences from the image processing according to the sixth embodiment. Since the configuration and processing procedure of the image processing system according to the present embodiment are the same as those of the image processing system 8 according to the sixth embodiment, the same reference numerals are used and the description thereof is omitted. .

本実施例では、第一の処理部822が高画質化処理を行った画像を表示制御部25が表示部50に表示を行う例について説明を行う。なお、本実施例では、図22(a)及び(b)を用いて説明を行うが表示画面はこれに限らない。経過観察のように、異なる日時で得た複数の画像を並べて表示する表示画面においても同様に高画質化処理(画質向上処理)は適用可能である。また、撮影確認画面のように、検者が撮影直後に撮影成否を確認する表示画面においても同様に高画質化処理は適用可能である。表示制御部25は、第一の処理部822が生成した複数の高画質画像や高画質化を行っていない低画質画像を表示部50に表示させることができる。また、表示制御部25は、表示部50に表示された複数の高画質画像や高画質化を行っていない低画質画像について、検者の指示に応じて選択された低画質画像及び高画質画像をそれぞれ表示部50に表示させることができる。また、画像処理装置80は、当該検者の指示に応じて選択された低画質画像及び高画質画像を外部に出力することもできる。 In this embodiment, an example will be described in which the display control unit 25 displays on the display unit 50 an image that has undergone image quality enhancement processing by the first processing unit 822 . In addition, in the present embodiment, description will be made using FIGS. 22(a) and 22(b), but the display screen is not limited to this. The image quality improvement process (image quality improvement process) can be similarly applied to a display screen in which a plurality of images obtained on different dates and times are displayed side by side, such as follow-up observation. In addition, like the imaging confirmation screen, the image quality enhancement process can be similarly applied to a display screen on which the examiner confirms the success or failure of imaging immediately after imaging. The display control unit 25 can cause the display unit 50 to display a plurality of high-quality images generated by the first processing unit 822 and low-quality images that have not been enhanced in image quality. In addition, the display control unit 25 selects a low image quality image and a high image quality image according to an instruction from the examiner for a plurality of high image quality images and low image quality images that have not been enhanced in image quality displayed on the display unit 50. can be displayed on the display unit 50, respectively. The image processing device 80 can also output the low-quality image and the high-quality image selected according to the examiner's instruction to the outside.

以下、図22(a)及び(b)を参照して、本実施例に係るインターフェースの表示画面2200の一例を示す。表示画面2200は画面全体を示し、表示画面2200には、患者タブ2201、撮影タブ2202、レポートタブ2203、設定タブ2204が示されている。また、レポートタブ2203における斜線は、レポート画面のアクティブ状態を表している。本実施例においては、レポート画面を表示する例について説明する。 An example of the display screen 2200 of the interface according to the present embodiment is shown below with reference to FIGS. A display screen 2200 shows the entire screen, and the display screen 2200 shows a patient tab 2201 , an imaging tab 2202 , a report tab 2203 and a setting tab 2204 . Also, diagonal lines in the report tab 2203 represent the active state of the report screen. In this embodiment, an example of displaying a report screen will be described.

図22(a)に示されるレポート画面には、SLO画像Im2205、OCTA正面画像Im2207,2208、輝度のEn-Face画像Im2209、断層画像Im2211,2212、及びボタン2220が示されている。また、SLO画像Im2205には、OCTA正面画像Im2207に対応するOCTA正面画像Im2206が重畳表示されている。さらに、断層画像Im2211,2212には、それぞれOCTA正面画像Im2207,Im2208の深度範囲の境界線2213,2214が重畳表示されている。ボタン2220は、高画質化処理の実行を指定するためのボタンである。ボタン2220は、後述するように、高画質画像の表示を指示するためのボタンであってもよい。 The report screen shown in FIG. 22A shows an SLO image Im2205, OCTA front images Im2207 and 2208, brightness En-Face image Im2209, tomographic images Im2211 and 2212, and a button 2220. FIG. An OCTA front image Im2206 corresponding to the OCTA front image Im2207 is superimposed on the SLO image Im2205. Furthermore, boundary lines 2213 and 2214 of the depth ranges of the OCTA front images Im2207 and Im2208 are superimposed on the tomographic images Im2211 and 2212, respectively. A button 2220 is a button for designating execution of image quality improvement processing. Button 2220 may be a button for instructing display of a high-quality image, as will be described later.

本実施例において、高画質化処理の実行はボタン2220を指定して行うか、データベースに保存(記憶)されている情報に基づいて実行の有無を判断する。初めに、検者からの指示に応じてボタン2220を指定することで高画質画像の表示と低画質画像の表示を切り替える例について説明する。なお、以下、高画質化処理の対象画像はOCTA正面画像として説明する。 In this embodiment, execution of image quality improvement processing is performed by designating a button 2220, or whether or not to execute processing is determined based on information saved (stored) in a database. First, an example will be described in which the display of a high-quality image and the display of a low-quality image are switched by specifying the button 2220 according to an instruction from the examiner. In the following description, it is assumed that an OCTA front image is a target image for image quality enhancement processing.

なお、OCTA正面画像Im2207,Im2208の深度範囲は、第一の検出処理及び第二の検出処理により検出された網膜層の情報を用いて定められてよい。深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲としてもよいし、検出された網膜層に関する2つの層境界の一方を基準として、より深い方向又はより浅い方向に所定の画素数分だけ含んだ範囲であってもよい。また、深度範囲は、例えば、検出された網膜層に関する2つの層境界の間の範囲から、操作者の指示に応じて変更された(オフセットされた)範囲であってもよい。 Note that the depth ranges of the OCTA front images Im2207 and Im2208 may be determined using information on the retinal layers detected by the first detection process and the second detection process. The depth range may be, for example, a range between two layer boundaries regarding the detected retinal layers, or may be a predetermined range in a deeper direction or a shallower direction with reference to one of the two layer boundaries regarding the detected retinal layers. may be a range including the number of pixels of . Also, the depth range may be, for example, a range that is changed (offset) according to an operator's instruction from the range between two layer boundaries for the detected retinal layers.

検者がレポートタブ2203を指定してレポート画面に遷移した際には、表示制御部25は、低画質なOCTA正面画像Im2207,Im2208を表示する。その後、検者がボタン2220を指定することで、第一の処理部822は画面に表示されているOCTA正面画像Im2207,Im2208に対して高画質化処理を実行する。高画質化処理が完了後、表示制御部25は、第一の処理部822が生成した高画質画像をレポート画面に表示する。なお、OCTA正面画像Im2206は、OCTA正面画像Im2207をSLO画像Im2205に重畳表示しているものであるため、表示制御部25は、OCTA正面Im2206についても高画質化処理した画像を表示させることができる。また、表示制御部25は、ボタン2220の表示をアクティブ状態に変更し、高画質化処理を実行したことが分かるような表示とすることができる。 When the examiner designates the report tab 2203 and transitions to the report screen, the display control unit 25 displays low-quality OCTA front images Im2207 and Im2208. After that, when the examiner designates a button 2220, the first processing unit 822 executes image quality enhancement processing on the OCTA front images Im2207 and Im2208 displayed on the screen. After the image quality improvement process is completed, the display control unit 25 displays the high quality image generated by the first processing unit 822 on the report screen. Note that the OCTA front image Im2206 is displayed by superimposing the OCTA front image Im2207 on the SLO image Im2205, so the display control unit 25 can also display an image that has undergone image quality enhancement processing for the OCTA front image Im2206. . In addition, the display control unit 25 can change the display of the button 2220 to an active state so that the user can see that the image quality improvement process has been executed.

ここで、第一の処理部822における処理の実行は、検者がボタン2220を指定したタイミングに限る必要はない。レポート画面を開く際に表示するOCTA正面画像Im2207,Im2208の種類は事前に分かっているため、第一の処理部822は、表示される画面がレポート画面に遷移する際に高画質化処理の実行をしてもよい。そして、ボタン2220が押下されたタイミングで、表示制御部25が高画質画像をレポート画面に表示するようにしてもよい。さらに、検者からの指示に応じて、又はレポート画面に遷移する際に高画質化処理を行う画像の種類は2種類である必要はない。表示する可能性の高い画像、例えば、図21(a)で示すような表層(Im2110)、深層(Im2120)、外層(Im2130)、及び脈絡膜血管網(Im2140)などの複数のOCTA正面画像に対して処理を行うようにしてもよい。この場合、高画質化処理を行った画像を一時的にメモリに記憶、あるいはデータベースに記憶しておくようにしてもよい。 Here, the execution of processing in the first processing unit 822 need not be limited to the timing when the examiner designates the button 2220 . Since the types of the OCTA front images Im2207 and Im2208 to be displayed when opening the report screen are known in advance, the first processing unit 822 executes image quality improvement processing when the displayed screen transitions to the report screen. You may Then, at the timing when the button 2220 is pressed, the display control unit 25 may display the high-quality image on the report screen. Furthermore, it is not necessary that two types of images are subjected to image quality enhancement processing in response to an instruction from the examiner or when transitioning to the report screen. For images that are likely to be displayed, for example, multiple OCTA frontal images such as the superficial layer (Im2110), the deep layer (Im2120), the outer layer (Im2130), and the choroidal vascular network (Im2140) as shown in FIG. You may make it process it. In this case, the image that has undergone image quality enhancement processing may be temporarily stored in a memory or stored in a database.

次に、データベースに保存(記録)されている情報に基づいて高画質化処理を実行する場合について説明する。データベースに高画質化処理の実行を行う状態が保存されている場合、レポート画面に遷移した際に、第一の処理部822が高画質化処理を実行して得た高画質画像を表示制御部25がデフォルトで表示部50に表示させる。そして、表示制御部25が、ボタン2220をアクティブ状態としてデフォルトで表示させることで、検者に対しては高画質化処理を実行して得た高画質画像が表示されていることが分かるように構成することができる。検者は、高画質化処理前の低画質画像を表示したい場合には、ボタン2220を指定してアクティブ状態を解除することで、表示制御部25が低画質画像を表示部50に表示させることができる。この際、検者は、表示される画像を高画質画像に戻したい場合には、ボタン2220を指定してアクティブ状態とすることで、表示制御部25が高画質画像を表示部50に再び表示させる。 Next, a case will be described where image quality enhancement processing is executed based on information stored (recorded) in the database. If the state of executing the image quality improvement process is saved in the database, the display control unit displays the high quality image obtained by the first processing unit 822 executing the image quality improvement process when transitioning to the report screen. 25 is displayed on the display unit 50 by default. Then, the display control unit 25 displays the button 2220 in an active state by default so that the examiner can understand that a high-quality image obtained by executing the high-quality image processing is displayed. Can be configured. When the examiner wants to display a low image quality image before image quality enhancement processing, the display control unit 25 causes the display unit 50 to display the low image quality image by specifying the button 2220 to cancel the active state. can be done. At this time, if the examiner wishes to return the displayed image to a high-quality image, the examiner designates the button 2220 to activate it, and the display control unit 25 displays the high-quality image on the display unit 50 again. Let

データベースへの高画質化処理の実行有無は、データベースに保存されているデータ全体に対して共通、及び撮影データ毎(検査毎)など、階層別に指定するものとする。例えば、データベース全体に対して高画質化処理を実行する状態を保存してある場合において、個別の撮影データ(個別の検査)に対して、検者が高画質化処理を実行しない状態を保存することができる。この場合、高画質化処理を実行しないとした状態が保存された個別の撮影データについては次回表示する際に高画質化処理を実行しない状態で表示を行うことができる。このような構成によれば、撮影データ単位(検査単位)で高画質化処理の実行の有無が指定されていない場合、データベース全体に対して指定されている情報に基づいて処理を実行することができる。また、撮影データ単位(検査単位)で指定されている場合には、その情報に基づいて個別に処理を実行することができる。 Whether or not the image quality enhancement process is to be performed on the database is specified in common for all the data stored in the database, and for each hierarchy, such as for each imaging data (each examination). For example, when a state in which image quality enhancement processing is performed for the entire database is saved, a state in which the examiner does not perform image quality enhancement processing for individual imaging data (individual examination) is saved. be able to. In this case, the individual shot data for which the state in which the image quality enhancement process is not performed can be displayed next time without the image quality enhancement process being performed. According to such a configuration, if execution or non-execution of image quality enhancement processing is not specified for each imaging data unit (inspection unit), processing can be executed based on information specified for the entire database. can. In addition, when it is specified in units of imaging data (units of inspection), it is possible to execute processing individually based on that information.

なお、撮影データ毎(検査毎)に高画質化処理の実行状態を保存するために、不図示のユーザーインターフェース(例えば、保存ボタン)を用いてもよい。また、他の撮影データ(他の検査)や他の患者データに遷移(例えば、検者からの指示に応じてレポート画面以外の表示画面に変更)する際に、表示状態(例えば、ボタン2220の状態)に基づいて、高画質化処理の実行を行う状態が保存されるようにしてもよい。 Note that a user interface (for example, a save button) (not shown) may be used to save the execution state of image quality improvement processing for each image data (each examination). Also, when transitioning to other imaging data (other examination) or other patient data (for example, changing to a display screen other than the report screen in response to an instruction from the examiner), the display state (for example, button 2220 state), the state of executing the image quality improvement process may be saved.

本実施例では、OCTA正面画像として、OCTA正面画像Im2207,Im2208を表示する例を示しているが、表示するOCTA正面画像は検者の指定により変更することが可能である。そのため、高画質化処理の実行が指定されている場合(ボタン2220がアクティブ状態)における、表示する画像の変更について説明する。 In this embodiment, OCTA front images Im2207 and Im2208 are displayed as OCTA front images, but the OCTA front images to be displayed can be changed by designation by the examiner. Therefore, the change of the image to be displayed when the execution of the image quality enhancement process is specified (the button 2220 is in the active state) will be described.

表示する画像の変更は、不図示のユーザーインターフェース(例えば、コンボボックス)を用いて行うことができる。例えば、検者が画像の種類を表層から脈絡膜血管網に変更した場合には、第一の処理部822は脈絡膜血管網画像に対して高画質化処理を実行し、表示制御部25は第一の処理部822が生成した高画質な画像をレポート画面に表示する。すなわち、表示制御部25は、検者からの指示に応じて、第一の深度範囲の高画質画像の表示を、第一の深度範囲とは少なくとも一部が異なる第二の深度範囲の高画質画像の表示に変更してもよい。このとき、表示制御部25は、検者からの指示に応じて第一の深度範囲が第二の深度範囲に変更されることにより、第一の深度範囲の高画質画像の表示を、第二の深度範囲の高画質画像の表示に変更してもよい。なお、上述したようにレポート画面遷移時に表示する可能性の高い画像に対しては、既に高画質画像が生成済みである場合、表示制御部25は生成済みの高画質な画像を表示すればよい。 The image to be displayed can be changed using a user interface (for example, a combo box) (not shown). For example, when the examiner changes the type of image from the superficial layer to the choroidal vascular network, the first processing unit 822 performs high-quality processing on the choroidal vascular network image, and the display control unit 25 performs the first A high-quality image generated by the processing unit 822 is displayed on the report screen. That is, the display control unit 25 changes the display of the high-quality image of the first depth range to the high-quality image of the second depth range that is at least partially different from the first depth range, in accordance with the instruction from the examiner. You can change the display to an image. At this time, the display control unit 25 changes the display of the high-quality image of the first depth range to the second depth range by changing the first depth range to the second depth range in accordance with an instruction from the examiner. The display may be changed to a high-quality image with a depth range of . As described above, when a high-quality image has already been generated for an image that is likely to be displayed when the report screen transitions, the display control unit 25 may display the generated high-quality image. .

また、画像の種類の変更方法は上記したものに限らず、基準となる層やオフセットの値を変えて異なる深度範囲を設定したOCTA正面画像を生成し、生成したOCTA正面画像に高画質化処理を実行した高画質画像を表示させることも可能である。その場合、基準となる層、又はオフセット値が変更された時に、第一の処理部822は任意のOCTA正面画像に対して高画質化処理を実行し、表示制御部25は高画質画像をレポート画面に表示する。なお、基準となる層やオフセット値の変更は、不図示のユーザーインターフェース(例えば、コンボボックスやテキストボックス)を用いて行われることができる。また、断層画像Im2211,Im2212にそれぞれ重畳表示している境界線2213,2214のいずれかをドラッグ(層境界を移動)することで、OCTA正面画像の深度範囲(生成範囲)を変更することもできる。 In addition, the method for changing the type of image is not limited to the one described above, and an OCTA front image is generated in which a different depth range is set by changing the reference layer and offset value, and the generated OCTA front image is subjected to high image quality processing. It is also possible to display a high-quality image obtained by executing In that case, when the reference layer or the offset value is changed, the first processing unit 822 performs high-quality processing on an arbitrary OCTA front image, and the display control unit 25 reports a high-quality image. display on the screen. It should be noted that the reference layer and the offset value can be changed using a user interface (for example, a combo box and a text box) (not shown). Further, by dragging (moving the layer boundary) either of the boundary lines 2213 and 2214 superimposed on the tomographic images Im2211 and Im2212, the depth range (generation range) of the OCTA front image can be changed. .

境界線をドラッグによって変更する場合、高画質化処理の実行命令が連続的に実施される。そのため、第一の処理部822は実行命令に対して常に処理を行ってもよいし、ドラッグによる層境界の変更後に実行するようにしてもよい。又は、高画質化処理の実行は連続的に命令されるが、次の命令が来た時点で前回の命令をキャンセルし、最新の命令を実行するようにしてもよい。 When the boundary line is changed by dragging, the instruction to execute the image quality enhancement process is continuously executed. Therefore, the first processing unit 822 may always process the execution command, or may execute it after the layer boundary is changed by dragging. Alternatively, the execution of the image quality improvement processing is instructed continuously, but when the next instruction arrives, the previous instruction may be canceled and the latest instruction may be executed.

なお、高画質化処理には比較的時間がかかる場合がある。このため、上述したどのようなタイミングで命令が実行されたとしても、高画質画像が表示されるまでに比較的時間がかかる場合がある。そこで、検者からの指示に応じてOCTA正面画像を生成するための深度範囲が設定されてから、高画質画像が表示されるまでの間、該設定された深度範囲に対応する低画質なOCTA正面画像(低画質画像)が表示されてもよい。すなわち、上記深度範囲が設定されると、該設定された深度範囲に対応する低画質なOCTA正面画像(低画質画像)が表示され、高画質化処理が終了すると、該低画質なOCTA正面画像の表示が高画質画像の表示に変更されるように構成されてもよい。また、上記深度範囲が設定されてから、高画質画像が表示されるまでの間、高画質化処理が実行されていることを示す情報が表示されてもよい。なお、これらの処理は、高画質化処理の実行が既に指定されている状態(ボタン2220がアクティブ状態)を前提とする場合に適用される構成に限られない。例えば、検者からの指示に応じて高画質化処理の実行が指示された際に、高画質画像が表示されるまでの間においても、これらの処理を適用することが可能である。 It should be noted that the image quality enhancement process may take a relatively long time. For this reason, it may take a relatively long time to display a high-quality image regardless of the timing at which the command is executed. Therefore, after the depth range for generating the OCTA front image is set according to the instruction from the examiner, until the high-quality image is displayed, the low-quality OCTA corresponding to the set depth range A front image (low quality image) may be displayed. That is, when the depth range is set, a low-quality OCTA front image (low-quality image) corresponding to the set depth range is displayed. may be changed to display a high-quality image. Further, information indicating that image quality enhancement processing is being performed may be displayed after the depth range is set until the high quality image is displayed. It should be noted that these processes are not limited to the configuration applied when it is assumed that execution of the image quality improvement process has already been specified (the button 2220 is in an active state). For example, it is possible to apply these processes until a high-quality image is displayed when execution of the image quality improvement process is instructed in response to an instruction from the examiner.

本実施例では、OCTA正面画像として、異なる層に関するOCTA正面画像Im2207,2108を表示し、低画質と高画質な画像は切り替えて表示する例を示したが、表示される画像はこれに限らない。例えば、OCTA正面画像Im2207として低画質なOCTA正面画像、OCTA正面画像Im2208として高画質なOCTA正面画像を並べて表示するようにしてもよい。画像を切り替えて表示する場合には、同じ場所で画像を切り替えるので変化がある部分の比較を行いやすく、並べて表示する場合には、同時に画像を表示することができるので画像全体を比較しやすい。 In this embodiment, OCTA front images Im2207 and Im2108 relating to different layers are displayed as OCTA front images, and an example is shown in which low image quality and high image quality images are switched and displayed, but the displayed image is not limited to this. . For example, a low-quality OCTA front image as the OCTA front image Im2207 and a high-quality OCTA front image as the OCTA front image Im2208 may be displayed side by side. When the images are switched and displayed, the images are switched at the same place, so that parts with changes are easily compared, and when the images are displayed side by side, the images can be displayed at the same time, so it is easy to compare the entire images.

次に、図22(a)及び(b)を用いて、画面遷移における高画質化処理の実行について説明を行う。図22(b)は、図22(a)におけるOCTA正面画像Im2207を拡大表示した画面例である。図22(b)においても、図22(a)と同様にボタン2220を表示する。図22(a)から図22(b)への画面遷移は、例えば、OCTA正面画像Im2207をダブルクリックすることで遷移し、図22(b)から図22(a)へは閉じるボタン2230で遷移する。なお、画面遷移に関しては、ここで示した方法に限らず、不図示のユーザーインターフェースを用いてもよい。 Next, the execution of image quality improvement processing in screen transition will be described with reference to FIGS. FIG. 22(b) is a screen example showing an enlarged display of the OCTA front image Im2207 in FIG. 22(a). Also in FIG. 22(b), a button 2220 is displayed in the same manner as in FIG. 22(a). Screen transition from FIG. 22(a) to FIG. 22(b) is made by, for example, double-clicking the OCTA front image Im2207, and transition from FIG. 22(b) to FIG. do. Note that screen transition is not limited to the method shown here, and a user interface (not shown) may be used.

画面遷移の際に高画質化処理の実行が指定されている場合(ボタン2220がアクティブ)、画面遷移時においてもその状態を保つ。すなわち、図22(a)の画面で高画質画像を表示している状態で図22(b)の画面に遷移する場合、図22(b)の画面においても高画質画像を表示する。そして、ボタン2220はアクティブ状態にする。図22(b)から図22(b)へ遷移する場合にも同様である。図22(b)において、ボタン2220を指定して低画質画像に表示を切り替えることもできる。 If the execution of image quality enhancement processing is specified at the time of screen transition (the button 2220 is active), that state is maintained even at the time of screen transition. That is, when a high-quality image is displayed on the screen of FIG. 22(a) and the screen is changed to the screen of FIG. 22(b), the high-quality image is also displayed on the screen of FIG. 22(b). Button 2220 is then activated. The same applies when transitioning from FIG. 22(b) to FIG. 22(b). In FIG. 22(b), a button 2220 can be designated to switch the display to a low image quality image.

画面遷移に関して、ここで示した画面に限らず、経過観察用の表示画面、又はパノラマ用の表示画面など同じ撮影データを表示する画面への遷移であれば、高画質画像の表示状態を保ったまま遷移を行うことができる。すなわち、遷移後の表示画面において、遷移前の表示画面におけるボタン2220の状態に対応する画像が表示されることができる。例えば、遷移前の表示画面におけるボタン2220がアクティブ状態であれば、遷移後の表示画面において高画質画像が表示される。また、例えば、遷移前の表示画面におけるボタン2220のアクティブ状態が解除されていれば、遷移後の表示画面において低画質画像が表示される。なお、経過観察用の表示画面におけるボタン2220がアクティブ状態になると、経過観察用の表示画面に並べて表示される異なる日時(異なる検査日)で得た複数の画像が高画質画像に切り換わるようにしてもよい。すなわち、経過観察用の表示画面におけるボタン2220がアクティブ状態になると、異なる日時で得た複数の画像に対して一括で反映されるように構成してもよい。 Regarding screen transitions, the display state of high-quality images is maintained not only for the screens shown here, but also for transitions to screens that display the same imaging data, such as the display screen for follow-up observation or the display screen for panorama. You can still make transitions. That is, on the display screen after transition, an image corresponding to the state of button 2220 on the display screen before transition can be displayed. For example, if the button 2220 on the display screen before transition is active, a high-quality image is displayed on the display screen after transition. Further, for example, if the active state of the button 2220 on the display screen before transition is canceled, a low image quality image is displayed on the display screen after transition. When the button 2220 on the display screen for follow-up observation becomes active, the multiple images obtained on different dates (different examination dates) displayed side by side on the display screen for follow-up observation are switched to high-quality images. may In other words, when the button 2220 on the display screen for follow-up observation becomes active, it may be configured such that a plurality of images obtained on different dates and times are collectively reflected.

なお、経過観察用の表示画面の例を、図23に示す。検者からの指示に応じてタブ2301が選択されると、図23のように、経過観察用の表示画面が表示される。このとき、OCTA正面画像の深度範囲を、リストボックス2302,2303に表示された既定の深度範囲セットから検者が所望するセットを選択することで変更できる。例えば、リストボックス2302では網膜表層が選択され、また、リストボックス2303では網膜深層が選択されている。上側の表示領域には網膜表層のOCTA正面画像の解析結果が表示され、また、下側の表示領域には網膜深層のOCTA正面画像の解析結果が表示されている。深度範囲が選択されると、異なる日時の複数の画像について、選択された深度範囲の複数のOCTA正面画像の解析結果の並列表示に一括して変更される。 An example of the display screen for follow-up observation is shown in FIG. When the tab 2301 is selected according to an instruction from the examiner, a display screen for follow-up observation is displayed as shown in FIG. At this time, the depth range of the OCTA front image can be changed by selecting a set desired by the examiner from predetermined depth range sets displayed in list boxes 2302 and 2303 . For example, the superficial layer of the retina is selected in the list box 2302 and the deep layer of the retina is selected in the list box 2303 . The upper display area displays the analysis result of the OCTA frontal image of the superficial layer of the retina, and the lower display area displays the analysis result of the OCTA frontal image of the deep layer of the retina. When the depth range is selected, the analysis results of the multiple OCTA enface images of the selected depth range are collectively displayed in parallel for multiple images of different dates and times.

このとき、解析結果の表示を非選択状態にすると、異なる日時の複数のOCTA正面画像の並列表示に一括して変更されてもよい。そして、検者からの指示に応じてボタン2220が指定されると、複数のOCTA正面画像の表示が複数の高画質画像の表示に一括して変更される。 At this time, if the display of the analysis result is set to a non-selected state, the parallel display of a plurality of OCTA front images of different dates and times may be collectively changed. When the examiner designates the button 2220, the display of the multiple OCTA front images is collectively changed to the display of the multiple high-quality images.

また、解析結果の表示が選択状態である場合には、検者からの指示に応じてボタン2220が指定されると、複数のOCTA正面画像の解析結果の表示が複数の高画質画像の解析結果の表示に一括して変更される。ここで、解析結果の表示は、解析結果を任意の透明度により画像に重畳表示させたものであってもよい。このとき、画像の表示から解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、画像の表示から解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 Further, when the display of the analysis results is in a selected state, when the button 2220 is specified in response to an instruction from the examiner, the display of the analysis results of a plurality of OCTA front images is changed to the analysis results of a plurality of high-quality images. is changed collectively to the display of Here, the analysis result may be displayed by superimposing the analysis result on the image with arbitrary transparency. At this time, the display of the image may be changed to the display of the analysis result, for example, by superimposing the analysis result on the displayed image with an arbitrary degree of transparency. In addition, the change from the display of the image to the display of the analysis result, for example, even if it is a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with arbitrary transparency good.

また、深度範囲の指定に用いる層境界の種類とオフセット位置をそれぞれ、ユーザーインターフェース2305,2306から一括して変更することができる。なお、層境界の種類やオフセット位置を変更するためのユーザーインターフェース2305,2306は一例であり、他の任意の態様のインターフェースを用いてよい。なお、断層画像も一緒に表示させ、断層画像上に重畳された層境界データを検者からの指示に応じて移動させることにより、異なる日時の複数のOCTA正面画像の深度範囲を一括して変更してもよい。このとき、異なる日時の複数の断層画像を並べて表示し、1つの断層画像上で上記移動が行われると、他の断層画像上でも同様に層境界データが移動されてもよい。 Also, the type and offset position of the layer boundary used to specify the depth range can be collectively changed from the user interfaces 2305 and 2306, respectively. Note that the user interfaces 2305 and 2306 for changing the type of layer boundary and the offset position are examples, and any other form of interface may be used. By displaying the tomographic image together and moving the layer boundary data superimposed on the tomographic image in accordance with instructions from the examiner, the depth range of multiple OCTA front images of different dates and times can be changed collectively. You may At this time, a plurality of tomographic images of different dates and times may be displayed side by side, and when the movement is performed on one tomographic image, the layer boundary data may be similarly moved on the other tomographic images.

また、画像投影法やプロジェクションアーチファクト抑制処理の有無を、例えば、コンテキストメニューのようなユーザーインターフェースから選択することにより変更してもよい。 Also, the image projection method and the presence or absence of projection artifact suppression processing may be changed by selecting from a user interface such as a context menu.

また、選択ボタン2307を選択して不図示の選択画面を表示させ、該選択画面上に表示された画像リストから選択された画像が表示されてもよい。なお、図23の上部に表示されている矢印2304は現在選択されている検査であることを示す印であり、基準検査(Baseline)はFollow-up撮影の際に選択した検査(図23の一番左側の画像)である。もちろん、基準検査を示すマークを表示部に表示させてもよい。 Alternatively, a selection screen (not shown) may be displayed by selecting the selection button 2307, and an image selected from the image list displayed on the selection screen may be displayed. An arrow 2304 displayed at the top of FIG. 23 is a mark indicating the currently selected examination. image on the far left). Of course, a mark indicating the reference inspection may be displayed on the display unit.

また、「Show Difference」チェックボックス2308が指定された場合には、基準画像上に基準画像に対する計測値分布(マップもしくはセクタマップ)を表示する。さらに、この場合には、それ以外の検査日に対応する領域に、基準画像に対して算出した計測値分布と当該領域に表示される画像に対して算出した計測値分布との差分計測値マップを表示する。計測結果としては、レポート画面上にトレンドグラフ(経時変化計測によって得られた各検査日の画像に対する計測値のグラフ)を表示させてもよい。すなわち、異なる日時の複数の画像に対応する複数の解析結果の時系列データ(例えば、時系列グラフ)が表示されてもよい。このとき、表示されている複数の画像に対応する複数の日時以外の日時に関する解析結果についても、表示されている複数の画像に対応する複数の解析結果と判別可能な状態で(例えば、時系列グラフ上の各点の色が画像の表示の有無で異なる)時系列データとして表示させてもよい。また、該トレンドグラフの回帰直線(曲線)や対応する数式をレポート画面に表示させてもよい。 Also, when the "Show Difference" check box 2308 is specified, the measurement value distribution (map or sector map) for the reference image is displayed on the reference image. Furthermore, in this case, a difference measurement value map between the measurement value distribution calculated for the reference image and the measurement value distribution calculated for the image displayed in the region corresponding to the inspection date other than that display. As the measurement result, a trend graph (a graph of measurement values for images on each inspection day obtained by measurement of changes over time) may be displayed on the report screen. That is, time-series data (for example, time-series graph) of a plurality of analysis results corresponding to a plurality of images of different dates and times may be displayed. At this time, the analysis results for dates and times other than the multiple dates and times corresponding to the multiple images being displayed are also kept in a state that can be distinguished from the multiple analysis results corresponding to the multiple images being displayed (for example, time series (The color of each point on the graph differs depending on whether or not the image is displayed.) It may be displayed as time-series data. Also, the regression line (curve) of the trend graph and the corresponding formula may be displayed on the report screen.

本実施例においては、OCTA正面画像に関して説明を行ったが、本実施例に係る処理が適用される画像はこれに限らない。本実施例に係る表示、高画質化、及び画像解析等の処理に関する画像は、輝度のEn-Face画像でもよい。さらには、En-Face画像だけではなく、B-スキャンによる断層画像、SLO画像、眼底画像、又は蛍光眼底画像など、異なる画像であってもよい。その場合、高画質化処理を実行するためのユーザーインターフェースは、種類の異なる複数の画像に対して高画質化処理の実行を指示するもの、種類の異なる複数の画像から任意の画像を選択して高画質化処理の実行を指示するものがあってもよい。 In this embodiment, the OCTA front image has been described, but the image to which the processing according to this embodiment is applied is not limited to this. An image related to processing such as display, image quality improvement, and image analysis according to the present embodiment may be a brightness En-Face image. In addition to En-Face images, different images such as B-scan tomographic images, SLO images, fundus images, and fluorescent fundus images may be used. In that case, the user interface for executing the image quality enhancement process may be one that instructs the execution of the image quality enhancement process for multiple images of different types, or one that selects an arbitrary image from multiple images of different types. There may be something that instructs execution of image quality improvement processing.

例えば、B-スキャンによる断層画像を高画質化して表示する場合には、図22(a)に示す断層画像Im2211,Im2212を高画質化して表示してもよい。また、OCTA正面画像Im2207,Im2208が表示されている領域に高画質化された断層画像が表示されてもよい。なお、高画質化され、表示される断層画像は、1つだけ表示されてもよいし、複数表示されてもよい。複数の断層画像が表示される場合には、それぞれ異なる副走査方向の位置で取得された断層画像が表示されてもよいし、例えばクロススキャン等により得られた複数の断層画像を高画質化して表示する場合には、異なる走査方向の画像がそれぞれ表示されてもよい。また、例えばラジアルスキャン等により得られた複数の断層画像を高画質化して表示する場合には、一部選択された複数の断層画像(例えば基準ラインに対して互いに対称な位置の2つの断層画像)がそれぞれ表示されてもよい。さらに、図23に示されるような経過観察用の表示画面に複数の断層画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚さ等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいて断層画像に高画質化処理を実行してもよい。 For example, when tomographic images obtained by B-scan are displayed with high image quality, the tomographic images Im2211 and Im2212 shown in FIG. 22A may be displayed with high image quality. Also, a tomographic image with high image quality may be displayed in the area where the OCTA front images Im2207 and Im2208 are displayed. Only one tomographic image may be displayed, or a plurality of tomographic images may be displayed. When a plurality of tomographic images are displayed, the tomographic images acquired at different positions in the sub-scanning direction may be displayed. When displayed, images in different scanning directions may be displayed. For example, when displaying a plurality of tomographic images obtained by radial scanning or the like with high image quality, a plurality of partially selected tomographic images (for example, two tomographic images at mutually symmetrical positions with respect to the reference line) ) may be displayed respectively. Furthermore, a plurality of tomographic images are displayed on a display screen for follow-up observation as shown in FIG. ) may be displayed. Further, image quality enhancement processing may be performed on the tomographic image based on the information stored in the database by a method similar to the method described above.

同様に、SLO画像を高画質化して表示する場合には、例えば、SLO画像Im2205を高画質化して表示してよい。さらに、輝度のEn-Face画像を高画質化して表示する場合には、例えば輝度のEn-Face画像2209を高画質化して表示してよい。さらに、図23に示されるような経過観察用の表示画面に複数のSLO画像や輝度のEn-Face画像を表示し、上述の方法と同様の手法により高画質化の指示や解析結果(例えば、特定の層の厚さ等)の表示が行われてもよい。また、上述の方法と同様の手法によりデータベースに保存されている情報に基づいてSLO画像や輝度のEn-Face画像に高画質化処理を実行してもよい。なお、断層画像、SLO画像、及び輝度のEn-Face画像の表示は例示であり、これらの画像は所望の構成に応じて任意の態様で表示されてよい。また、OCTA正面画像、断層画像、SLO画像、及び輝度のEn-Face画像の少なくとも2つ以上が、一度の指示で高画質化され表示されてもよい。 Similarly, when the SLO image is displayed with high image quality, for example, the SLO image Im2205 may be displayed with high image quality. Furthermore, when the luminance En-Face image is to be displayed with high image quality, for example, the luminance En-Face image 2209 may be displayed with high image quality. Furthermore, a plurality of SLO images and brightness En-Face images are displayed on the display screen for follow-up observation as shown in FIG. specific layer thickness, etc.) may be provided. Further, image quality improvement processing may be performed on the SLO image or luminance En-Face image based on the information stored in the database by a method similar to the method described above. Note that the display of the tomographic image, the SLO image, and the brightness En-Face image is an example, and these images may be displayed in any manner according to the desired configuration. Also, at least two or more of the OCTA front image, the tomographic image, the SLO image, and the brightness En-Face image may be displayed with high image quality by a single instruction.

このような構成により、本実施例に係る第一の処理部822が高画質化処理した画像を表示制御部25が表示部50に表示することができる。このとき、上述したように、高画質画像の表示、解析結果の表示、及び表示される正面画像の深度範囲等に関する複数の条件のうち少なくとも1つが選択された状態である場合には、表示画面が遷移されても、選択された状態が維持されてもよい。 With such a configuration, the display control unit 25 can display on the display unit 50 an image that has undergone image quality enhancement processing by the first processing unit 822 according to this embodiment. At this time, as described above, when at least one of a plurality of conditions relating to the display of high-quality images, the display of analysis results, and the depth range of the front image to be displayed is selected, the display screen is transitioned, the selected state may be maintained.

また、上述したように、複数の条件のうち少なくとも1つが選択された状態である場合には、他の条件が選択された状態に変更されても、該少なくとも1つが選択された状態が維持されてもよい。例えば、表示制御部25は、解析結果の表示が選択状態である場合に、検者からの指示に応じて(例えば、ボタン2220が指定されると)、低画質画像の解析結果の表示を高画質画像の解析結果の表示に変更してもよい。また、表示制御部25は、解析結果の表示が選択状態である場合に、検者からの指示に応じて(例えば、ボタン2220の指定が解除されると)、高画質画像の解析結果の表示を低画質画像の解析結果の表示に変更してもよい。 Further, as described above, when at least one of a plurality of conditions is in a selected state, the state in which at least one is selected is maintained even if another condition is changed to a selected state. may For example, when the display of the analysis result is selected, the display control unit 25 changes the display of the analysis result of the low-quality image to high in response to an instruction from the examiner (for example, when the button 2220 is specified). The display may be changed to the analysis result of the image quality image. In addition, when the display of the analysis result is selected, the display control unit 25 displays the analysis result of the high-quality image according to the instruction from the examiner (for example, when the designation of the button 2220 is canceled). may be changed to display the analysis results of low-quality images.

また、表示制御部25は、高画質画像の表示が非選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示の指定が解除されると)、低画質画像の解析結果の表示を低画質画像の表示に変更してもよい。また、表示制御部25は、高画質画像の表示が非選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示が指定されると)、低画質画像の表示を低画質画像の解析結果の表示に変更してもよい。また、表示制御部25は、高画質画像の表示が選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示の指定が解除されると)、高画質画像の解析結果の表示を高画質画像の表示に変更してもよい。また、表示制御部25は、高画質画像の表示が選択状態である場合に、検者からの指示に応じて(例えば、解析結果の表示が指定されると)、高画質画像の表示を高画質画像の解析結果の表示に変更してもよい。 In addition, when the display of the high-quality image is not selected, the display control unit 25 displays the low-quality image according to the instruction from the examiner (for example, when the display of the analysis result is canceled). The display of the analysis result may be changed to the display of the low image quality image. In addition, when the display of high-quality images is in a non-selected state, the display control unit 25 displays low-quality images in response to instructions from the examiner (for example, when display of analysis results is specified). You may change to the display of the analysis result of a low-quality image. In addition, when the display of high-quality images is selected, the display control unit 25 analyzes the high-quality images according to instructions from the examiner (for example, when the display of the analysis results is canceled). The display of the results may be changed to display a high quality image. In addition, when the display of high-quality images is selected, the display control unit 25 increases the display of high-quality images according to instructions from the examiner (for example, when display of analysis results is specified). The display may be changed to the analysis result of the image quality image.

また、高画質画像の表示が非選択状態で且つ第一の種類の解析結果の表示が選択状態である場合を考える。この場合には、表示制御部25は、検者からの指示に応じて(例えば、第二の種類の解析結果の表示が指定されると)、低画質画像の第一の種類の解析結果の表示を低画質画像の第二の種類の解析結果の表示に変更してもよい。また、高画質画像の表示が選択状態で且つ第一の種類の解析結果の表示が選択状態である場合を考える。この場合には、表示制御部25は、検者からの指示に応じて(例えば、第二の種類の解析結果の表示が指定されると)、高画質画像の第一の種類の解析結果の表示を高画質画像の第二の種類の解析結果の表示に変更してもよい。 Also, consider a case where the display of the high-quality image is in a non-selected state and the display of the first type of analysis result is in a selected state. In this case, the display control unit 25 displays the first type of analysis result of the low image quality image according to the instruction from the examiner (for example, when display of the second type of analysis result is specified). The display may be changed to display the second type of analysis result of the low quality image. Also, consider a case where the display of the high-quality image is selected and the display of the first type of analysis result is selected. In this case, the display control unit 25 displays the first type of analysis result of the high-quality image in response to an instruction from the examiner (for example, when display of the second type of analysis result is specified). The display may be changed to display the second type of analysis results of the high quality image.

なお、経過観察用の表示画面においては、上述したように、これらの表示の変更が、異なる日時で得た複数の画像に対して一括で反映されるように構成してもよい。ここで、解析結果の表示は、解析結果を任意の透明度により画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 As described above, the display screen for follow-up observation may be configured so that these display changes are collectively reflected in a plurality of images obtained at different dates and times. Here, the analysis result may be displayed by superimposing the analysis result on the image with arbitrary transparency. At this time, the display of the analysis result may be changed to a state in which the analysis result is superimposed on the displayed image with arbitrary transparency, for example. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with arbitrary transparency.

なお、本実施例では、第一の処理部822が高画質化処理に関する学習済モデル(高画質化モデル)を用いて断層画像の画質を改善した高画質画像を生成した。しかしながら、高画質化モデルを用いて高画質画像を生成する構成要素は第一の処理部822に限られない。例えば、第一の処理部822とは別の第三の処理部(高画質化部)を設け、第三の処理部が高画質化モデルを用いて高画質画像を生成してもよい。この場合、第三の処理部や高画質化モデルは、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 In this embodiment, the first processing unit 822 generates a high-quality image by improving the image quality of the tomographic image using a learned model (image-quality enhancement model) regarding image-quality enhancement processing. However, the component that generates a high quality image using the high quality model is not limited to the first processing unit 822 . For example, a third processing unit (image quality enhancement unit) may be provided separately from the first processing unit 822, and the third processing unit may generate a high quality image using the image quality enhancement model. In this case, the third processing unit and the high image quality model may be composed of a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA, or a circuit or the like that performs a specific function such as an ASIC. may be configured by

(実施例6及び7の変形例)
実施例6及び7において、表示制御部25は、第一の処理部822によって生成された高画質画像と入力画像のうち、検者からの指示に応じて選択された画像を表示部50に表示させることができる。また、表示制御部25は、検者からの指示に応じて、表示部50上の表示を撮影画像(入力画像)から高画質画像に切り替えてもよい。すなわち、表示制御部25は、検者からの指示に応じて、低画質画像の表示を高画質画像の表示に変更してもよい。また、表示制御部25は、検者からの指示に応じて、高画質画像の表示を低画質画像の表示に変更してもよい。
(Modifications of Examples 6 and 7)
In Examples 6 and 7, the display control unit 25 causes the display unit 50 to display an image selected according to an instruction from the examiner, from among the high-quality image generated by the first processing unit 822 and the input image. can be made In addition, the display control unit 25 may switch the display on the display unit 50 from a captured image (input image) to a high-quality image in accordance with an instruction from the examiner. That is, the display control unit 25 may change the display of the low image quality image to the display of the high image quality image according to the instruction from the examiner. Further, the display control unit 25 may change the display of the high-quality image to the display of the low-quality image in accordance with an instruction from the examiner.

さらに、第一の処理部822が、高画質化エンジン(高画質化モデル)による高画質化処理の開始(高画質化エンジンへの画像の入力)を検者からの指示に応じて実行し、表示制御部25が、生成された高画質画像を表示部50に表示させてもよい。これに対し、撮影装置(OCT装置10)によって入力画像が撮影されると、第一の処理部822が自動的に高画質化エンジンを用いて入力画像に基づいて高画質画像を生成し、表示制御部25が、検者からの指示に応じて高画質画像を表示部50に表示させてもよい。ここで、高画質化エンジンとは、上述した画質向上処理(高画質化処理)を行う学習済モデルを含む。 Furthermore, the first processing unit 822 executes the start of image quality improvement processing by the image quality improvement engine (image quality improvement model) (input of image to the image quality improvement engine) in accordance with an instruction from the examiner, The display control unit 25 may cause the display unit 50 to display the generated high-quality image. On the other hand, when the input image is captured by the imaging device (OCT device 10), the first processing unit 822 automatically generates a high quality image based on the input image using the image quality enhancement engine, and displays it. The control unit 25 may cause the display unit 50 to display a high-quality image in accordance with an instruction from the examiner. Here, the image quality improvement engine includes a trained model that performs the image quality improvement process (image quality improvement process) described above.

なお、これらの処理は解析結果の出力についても同様に行うことができる。すなわち、表示制御部25は、検者からの指示に応じて、低画質画像の解析結果の表示を高画質画像の解析結果の表示に変更してもよい。また、表示制御部25は、検者からの指示に応じて、高画質画像の解析結果の表示を低画質画像の解析結果の表示に変更してもよい。さらに、表示制御部25は、検者からの指示に応じて、低画質画像の解析結果の表示を低画質画像の表示に変更してもよい。また、表示制御部25は、検者からの指示に応じて、低画質画像の表示を低画質画像の解析結果の表示に変更してもよい。さらに、表示制御部25は、検者からの指示に応じて、高画質画像の解析結果の表示を高画質画像の表示に変更してもよい。また、表示制御部25は、検者からの指示に応じて、高画質画像の表示を高画質画像の解析結果の表示に変更してもよい。 Note that these processes can be similarly performed for the output of analysis results. That is, the display control unit 25 may change the display of the analysis result of the low image quality image to the display of the analysis result of the high image quality image in accordance with the instruction from the examiner. Further, the display control unit 25 may change the display of the analysis result of the high-quality image to the display of the analysis result of the low-quality image in accordance with an instruction from the examiner. Furthermore, the display control unit 25 may change the display of the analysis result of the low image quality image to the display of the low image quality image according to the instruction from the examiner. Further, the display control unit 25 may change the display of the low image quality image to the display of the analysis result of the low image quality image according to the instruction from the examiner. Furthermore, the display control unit 25 may change the display of the analysis result of the high-quality image to the display of the high-quality image in accordance with an instruction from the examiner. In addition, the display control unit 25 may change the display of the high-quality image to the display of the analysis result of the high-quality image in accordance with an instruction from the examiner.

さらに、表示制御部25は、検者からの指示に応じて、低画質画像の解析結果の表示を低画質画像の他の種類の解析結果の表示に変更してもよい。また、表示制御部25は、検者からの指示に応じて、高画質画像の解析結果の表示を高画質画像の他の種類の解析結果の表示に変更してもよい。 Furthermore, the display control unit 25 may change the display of the analysis result of the low image quality image to display of another type of analysis result of the low image quality image according to the instruction from the examiner. In addition, the display control unit 25 may change the display of the analysis result of the high-quality image to display of another type of analysis result of the high-quality image in accordance with an instruction from the examiner.

ここで、高画質画像の解析結果の表示は、高画質画像の解析結果を任意の透明度により高画質画像に重畳表示させたものであってもよい。また、低画質画像の解析結果の表示は、低画質画像の解析結果を任意の透明度により低画質画像に重畳表示させたものであってもよい。このとき、解析結果の表示への変更は、例えば、表示されている画像に対して任意の透明度により解析結果を重畳させた状態に変更したものであってもよい。また、解析結果の表示への変更は、例えば、解析結果と画像とを任意の透明度によりブレンド処理して得た画像(例えば、二次元マップ)の表示への変更であってもよい。 Here, the analysis result of the high-quality image may be displayed by superimposing the analysis result of the high-quality image on the high-quality image with an arbitrary degree of transparency. Further, the analysis result of the low image quality image may be displayed by superimposing the analysis result of the low image quality image on the low image quality image with arbitrary transparency. At this time, the display of the analysis result may be changed to a state in which the analysis result is superimposed on the displayed image with arbitrary transparency, for example. Further, the change to the display of the analysis result may be, for example, a change to the display of an image (for example, a two-dimensional map) obtained by blending the analysis result and the image with arbitrary transparency.

なお、本変形例では、第一の処理部822が高画質化処理に関する学習済モデル(高画質化モデル)を用いて断層画像の画質を改善した高画質画像を生成した。しかしながら、高画質化モデルを用いて高画質画像を生成する構成要素は第一の処理部822に限られない。例えば、第一の処理部822とは別の第三の処理部を設け、第三の処理部が高画質化モデルを用いて高画質画像を生成してもよい。この場合、第三の処理部や高画質化モデルは、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 Note that in this modification, the first processing unit 822 generates a high-quality image by improving the image quality of the tomographic image using a learned model (image-quality enhancement model) regarding image-quality enhancement processing. However, the component that generates a high quality image using the high quality model is not limited to the first processing unit 822 . For example, a third processing unit that is separate from the first processing unit 822 may be provided, and the third processing unit may generate a high quality image using a high quality image model. In this case, the third processing unit and the high image quality model may be composed of a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA, or a circuit or the like that performs a specific function such as an ASIC. may be configured by

また、実施例7では、表示画面のボタン2220のアクティブ状態に応じて、高画質化モデルを用いた高画質化処理が行われた画像が表示された。これに対し、ボタン2220のアクティブ状態に応じて、学習済モデルを用いた画像セグメンテーション処理の結果を用いた解析値が表示されるように構成してもよい。この場合、例えば、ボタン2220が非アクティブ状態(学習済モデルを用いた画像セグメンテーション処理が非選択状態)の場合には、表示制御部25は、第二の処理部823が行った画像セグメンテーション処理の結果を用いた解析結果を表示部50に表示させる。これに対し、ボタン2220がアクティブ状態にされると、表示制御部25は、第一の処理部822が単独で又は第一の処理部822及び第二の処理部823が行った画像セグメンテーション処理の結果を用いた解析結果を表示部50に表示させる。 Further, in Example 7, an image that has undergone image quality enhancement processing using the image quality enhancement model is displayed according to the active state of the button 2220 on the display screen. On the other hand, according to the active state of the button 2220, the analysis value using the result of the image segmentation processing using the trained model may be displayed. In this case, for example, when the button 2220 is in an inactive state (an image segmentation process using a learned model is not selected), the display control unit 25 performs the image segmentation process performed by the second processing unit 823. The analysis result using the result is displayed on the display unit 50 . On the other hand, when the button 2220 is activated, the display control unit 25 controls the image segmentation processing performed by the first processing unit 822 alone or by the first processing unit 822 and the second processing unit 823. The analysis result using the result is displayed on the display unit 50 .

このような構成では、学習済モデルを用いない画像セグメンテーション処理の結果を用いた解析結果と、学習済モデルを用いた画像セグメンテーション処理の結果を用いた解析結果が、ボタンのアクティブ状態に応じて切り替えて表示される。これらの解析結果は、それぞれ学習済モデルによる処理とルールベースによる画像処理の結果に基づくため、両結果には差異が生じる場合がある。そのため、これらの解析結果を切り替えて表示させることで、検者は両者を対比し、より納得できる解析結果を診断に用いることができる。 With such a configuration, the analysis result using the result of image segmentation processing without using the trained model and the analysis result using the result of image segmentation processing using the trained model are switched according to the active state of the button. displayed. Since these analysis results are based on the results of processing by a trained model and image processing by a rule base, respectively, there may be differences between the two results. Therefore, by switching and displaying these analysis results, the examiner can compare the two and use a more convincing analysis result for diagnosis.

なお、画像セグメンテーション処理が切り替えられた際には、例えば、表示される画像が断層画像である場合には、層毎に解析された層厚の数値が切り替えられて表示されてよい。また、例えば、層毎に色やハッチングパターン等で分けられた断層画像が表示される場合には、画像セグメンテーション処理の結果に応じて層の形状が変化した断層画像が切り替えられて表示されてよい。さらに、解析結果として厚みマップが表示される場合には、厚みを示す色が画像セグメンテーション処理の結果に応じて変化した厚みマップが表示されてよい。また、高画質化処理を指定するボタンと学習済モデルを用いた画像セグメンテーション処理を指定するボタンは別々に設けられてもよいし、いずれか一方のも設けられてもよいし、両方のボタンを一つのボタンとして設けてもよい。 When the image segmentation process is switched, for example, when the image to be displayed is a tomographic image, the numerical value of the layer thickness analyzed for each layer may be switched and displayed. Further, for example, when tomographic images are displayed in which layers are divided by color, hatching pattern, etc., the tomographic images in which the shape of the layer is changed according to the result of the image segmentation process may be switched and displayed. . Furthermore, when the thickness map is displayed as the analysis result, the thickness map may be displayed with the color indicating the thickness changed according to the result of the image segmentation processing. Also, the button for specifying the image quality enhancement process and the button for specifying the image segmentation process using the trained model may be provided separately, either one may be provided, or both buttons may be provided. You may provide as one button.

また、画像セグメンテーション処理の切り替えは、上述の高画質化処理の切り替えと同様に、データベースに保存(記録)されている情報に基づいて行われてもよい。なお、画面遷移時に処理についても、画像セグメンテーション処理の切り替えは、上述の高画質化処理の切り替えと同様に行われてよい。 Switching of image segmentation processing may be performed based on information stored (recorded) in a database, similarly to switching of image quality enhancement processing described above. As for the processing at the time of screen transition, the switching of the image segmentation processing may be performed in the same manner as the switching of the image quality improvement processing described above.

実施例1乃至7では、取得部21は、OCT装置10で取得された干渉信号や断層画像生成部221で生成された三次元断層データを取得した。しかしながら、取得部21がこれらの信号やデータを取得する構成はこれに限られない。例えば、取得部21は、画像処理装置20とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。この場合、撮影に関する処理を省略し、撮影済みの三次元の断層データを取得することができる。そして、ステップS304やステップS904等で境界検出処理を行うことができる。そのため、断層情報の取得から正面画像や厚みマップ等の表示までの一連の処理時間を短くすることができる。 In Examples 1 to 7, the acquisition unit 21 acquired the interference signal acquired by the OCT apparatus 10 and the three-dimensional tomographic data generated by the tomographic image generation unit 221 . However, the configuration in which the acquisition unit 21 acquires these signals and data is not limited to this. For example, the acquisition unit 21 may acquire these signals from a server or an imaging device connected to the image processing device 20 via a LAN, WAN, Internet, or the like. In this case, it is possible to omit the processing related to imaging and acquire the three-dimensional tomographic data that has been captured. Then, boundary detection processing can be performed in steps S304, S904, and the like. Therefore, it is possible to shorten a series of processing time from acquisition of tomographic information to display of a front image, a thickness map, or the like.

なお、処理部222及び第一の処理部822が用いる画像セグメンテーション用の学習済モデルや高画質化用の学習済モデルは、画像処理装置20,80,152に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、これら学習済モデルは、画像処理装置20,80,152と接続される別のサーバの装置等に設けられてもよい。この場合には、画像処理装置20,80,152は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。 Note that the trained model for image segmentation and the trained model for improving image quality used by the processing unit 222 and the first processing unit 822 can be provided in the image processing apparatuses 20 , 80 , and 152 . A trained model may be configured by, for example, a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be configured by a circuit or the like that performs a specific function such as an ASIC. Also, these learned models may be provided in another server device or the like connected to the image processing devices 20 , 80 , 152 . In this case, the image processing apparatuses 20, 80, and 152 can use the trained model by connecting to a server or the like having the trained model via an arbitrary network such as the Internet. Here, the server provided with the learned model may be, for example, a cloud server, a fog server, an edge server, or the like.

また、実施例2乃至7では、ラベル画像として画素毎にラベル付けされたラベル画像について説明したが、ラベル画像として領域毎にラベル付けされたラベル画像を用いてもよい。 In addition, in the second to seventh embodiments, label images labeled for each pixel have been described as label images, but label images labeled for each region may be used as label images.

なお、OCT装置10の構成は、上記の構成に限られず、OCT装置10に含まれる構成の一部をOCT装置10と別体の構成としてもよい。また、ボタンなどのユーザーインターフェースや表示のレイアウトは上記で示したものに限定されるものではない。 The configuration of the OCT apparatus 10 is not limited to the configuration described above, and part of the configuration included in the OCT apparatus 10 may be configured separately from the OCT apparatus 10 . Also, the user interface such as buttons and the display layout are not limited to those shown above.

上述の実施例1乃至7及びその変形例によれば、疾患や部位等によらず網膜層の境界検出を行うことができる。 According to the above-described first to seventh embodiments and their modifications, it is possible to detect the boundaries of the retinal layers regardless of disease, site, or the like.

(実施例8)
医療分野においては、被検者の疾患を特定したり、疾患の程度を観察したりするために、様々な撮影装置によって取得された画像を利用した画像診断が実施されている。撮影装置の種類には、例えば放射線科分野では、X線撮影装置、X線コンピュータ断層撮影装置(CT)、磁気共鳴イメージング装置(MRI)、及び陽電子放出断層撮影装置(PET)などがある。また、例えば眼科分野では、眼底カメラ、走査型レーザ検眼鏡(SLO)、光コヒーレンストモグラフィ(OCT)装置、及びOCTアンギオグラフィ(OCTA)装置などがある。
(Example 8)
2. Description of the Related Art In the medical field, image diagnosis using images acquired by various imaging devices is performed in order to identify a disease of a subject and to observe the degree of the disease. For example, in the field of radiology, types of imaging apparatuses include X-ray imaging apparatus, X-ray computed tomography (CT), magnetic resonance imaging (MRI), and positron emission tomography (PET). In the field of ophthalmology, for example, there are fundus cameras, scanning laser ophthalmoscopes (SLO), optical coherence tomography (OCT) devices, and OCT angiography (OCTA) devices.

画像診断は、基本的には医療従事者が画像に描出された病変等を観察することによって実施されるが、近年では画像解析技術の向上によって診断に役立つ様々な情報が得られるようになった。例えば、画像解析をすることによって、見落とす可能性のある小さな病変を検出して医療従事者を支援したり、病変の形状や体積について定量的な計測を行ったり、さらには医療従事者の観察なしに疾患を特定したりすることができるようになった。 Imaging diagnosis is basically carried out by medical professionals observing the lesions, etc. depicted on the images, but in recent years improvements in image analysis technology have made it possible to obtain a variety of useful information for diagnosis. . For example, image analysis can assist healthcare professionals in detecting small lesions that may be overlooked, provide quantitative measurements of lesion shape and volume, or even be unobserved by healthcare professionals. It has become possible to identify diseases in

なお、画像解析の手法には様々なものがあるが、画像セグメンテーション処理と呼ばれる、画像に描出された臓器や病変といった領域を特定するための処理は、多くの画像解析の手法を実施するにあたって、必要となる処理である。以下において、簡略化のため画像セグメンテーション処理を単にセグメンテーション処理ともいう。 There are various image analysis methods, but the process for identifying regions such as organs and lesions depicted in images, which is called image segmentation processing, is one of the most important factors in implementing many image analysis methods. This is the necessary processing. In the following, the image segmentation process is also simply referred to as the segmentation process for the sake of simplification.

従来の画像セグメンテーション処理は、特許文献1のように、対象の臓器や病変に関する医学的知識や画像特性に基づいた画像処理アルゴリズムによって実施される。しかしながら、実際の医療現場において、撮影装置から取得される画像は、被検者の病態や撮影装置の撮影環境、撮影者の技術不足等の、様々な要因により綺麗に撮影できていないことがある。そのため、従来の画像セグメンテーション処理にとって、対象の臓器や病変が想定通りに描出されておらず、精度よく特定の領域を抽出できないことがあった。 Conventional image segmentation processing is performed by image processing algorithms based on medical knowledge and image characteristics of target organs and lesions, as in Patent Document 1. However, in the actual medical field, the images obtained from the imaging device may not be captured clearly due to various factors such as the condition of the subject, the imaging environment of the imaging device, and the lack of skill of the photographer. . For this reason, in conventional image segmentation processing, target organs and lesions are not rendered as expected, and specific regions cannot be extracted with high accuracy.

具体的には、例えば、網膜層の消失、出血、白斑、及び新生血管の発生等のある疾患眼をOCT装置で撮影して取得された画像では、網膜層の形状の描出が不規則となることがあった。このような場合には、画像セグメンテーション処理の一種である網膜層の領域検出処理において、誤検出が発生することがあった。 Specifically, for example, in an image obtained by photographing a diseased eye with retinal layer loss, bleeding, vitiligo, and neovascularization with an OCT apparatus, the depiction of the shape of the retinal layer is irregular. something happened. In such cases, erroneous detection may occur in retinal layer area detection processing, which is a type of image segmentation processing.

下記実施例8乃至19の目的の一つは、従来の画像セグメンテーション処理よりも精度の高い画像セグメンテーション処理を実施できる医用画像処理装置、医用画像処理方法及びプログラムを提供することである。 One of the objects of the eighth through nineteenth embodiments below is to provide a medical image processing apparatus, a medical image processing method, and a program capable of performing image segmentation processing with higher precision than conventional image segmentation processing.

<用語の説明>
ここで、本開示において用いられる用語について説明する。
<Description of terms>
Here, terms used in the present disclosure will be explained.

本明細書におけるネットワークでは、各装置は有線又は無線の回線で接続されてよい。ここで、ネットワークにおける各装置を接続する回線は、例えば、専用回線、ローカルエリアネットワーク(以下、LANと表記)回線、無線LAN回線、インターネット回線、Wi-Fi(登録商標)、及びBluetooth(登録商標)等を含む。 In the network herein, each device may be connected by wired or wireless links. Here, the lines connecting each device in the network are, for example, dedicated lines, local area network (hereinafter referred to as LAN) lines, wireless LAN lines, Internet lines, Wi-Fi (registered trademark), and Bluetooth (registered trademark). ) etc.

医用画像処理装置は、相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、医用画像処理装置の各構成要素は、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。 A medical image processing apparatus may be composed of two or more devices capable of communicating with each other, or may be composed of a single device. Also, each component of the medical image processing apparatus may be configured by a software module executed by a processor such as a CPU, MPU, GPU, or FPGA. Also, each component may be configured by a circuit or the like that performs a specific function, such as an ASIC. Also, it may be configured by a combination of any other hardware and any software.

また、医用画像処理装置又は医用画像処理方法によって処理される医用画像は、OCT装置を用いて取得された被検者の断層画像である。ここで、OCT装置としては、タイムドメインOCT(TD-OCT)装置やフーリエドメインOCT(FD-OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD-OCT)装置や波長掃引型OCT(SS-OCT)装置を含んでよい。また、OCT装置として、波面補償光学系を用いた波面補償OCT(AO-OCT)装置や、被検者に照射される測定光をライン状に形成したラインOCT装置、当該測定光を面状に形成したフルフィールドOCT装置等の任意のOCT装置を含んでよい。 A medical image processed by a medical image processing apparatus or a medical image processing method is a tomographic image of a subject acquired using an OCT apparatus. Here, the OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Fourier-domain OCT devices may also include spectral-domain OCT (SD-OCT) devices and wavelength-swept OCT (SS-OCT) devices. In addition, as the OCT apparatus, a wavefront compensation OCT (AO-OCT) apparatus using a wavefront compensation optical system, a line OCT apparatus in which the measurement light irradiated to the subject is formed in a line, Any OCT device, such as a formed full-field OCT device, may be included.

医用画像には、被検者の眼(被検眼)の断層画像が含まれる。被検眼の断層画像としては、被検眼の後眼部における網膜等の断層画像に限られず、被検眼の前眼部や眼房等の断層画像が含まれる。また、OCT装置を内視鏡等に用いる場合には、被検者の皮膚や臓器の断層画像を以下の実施例による医用画像処理装置又は医用画像処理方法の処理対象となる医用画像としてもよい。 Medical images include tomographic images of the subject's eye (subject's eye). The tomographic image of the subject's eye is not limited to a tomographic image of the retina or the like in the posterior segment of the subject's eye, but includes a tomographic image of the anterior segment of the subject's eye, the chamber of the eye, or the like. Further, when the OCT apparatus is used for an endoscope or the like, a tomographic image of the subject's skin or organs may be used as a medical image to be processed by the medical image processing apparatus or the medical image processing method according to the following embodiments. .

画像管理システムは、OCT装置等の撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。特に、下記実施例に係る画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。 An image management system is a device and system that receives and stores images captured by an imaging device such as an OCT device or images that have undergone image processing. In addition, the image management system can transmit images in response to requests from connected devices, perform image processing on stored images, and request other devices to perform image processing. can. The image management system can include, for example, a picture archival communication system (PACS). In particular, the image management system according to the embodiment described below includes a database capable of storing various types of information such as subject information and imaging time associated with received images. Also, the image management system is connected to a network and can send and receive images, convert images, and send and receive various information associated with saved images in response to requests from other devices. .

撮影条件とは、撮影装置によって取得された画像の撮影時の様々な情報である。撮影条件は、例えば、撮影装置に関する情報、撮影が実施された施設に関する情報、撮影に係る検査の情報、撮影者に関する情報、及び被検者に関する情報等を含む。また、撮影条件は、例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像サイズ、適用された画像フィルタ、及び画像のデータ形式に関する情報等を含む。なお、撮影領域には、特定の撮影部位からずれた周辺の領域や複数の撮影部位を含んだ領域等が含まれることができる。また、撮影方式は、スペクトラルドメイン方式や波長掃引方式等のOCTの任意の撮影方式を含んでよい。 The shooting conditions are various information at the time of shooting the image acquired by the shooting device. The imaging conditions include, for example, information about the imaging device, information about the facility where the imaging was performed, information about the examination related to imaging, information about the photographer, and information about the subject. The imaging conditions include, for example, the date and time of imaging, the name of the imaging part, the imaging area, the imaging angle of view, the imaging method, the resolution and gradation of the image, the image size, the applied image filter, and information on the data format of the image. include. Note that the imaging region can include a peripheral region shifted from a specific imaging region, a region including a plurality of imaging regions, and the like. Also, the imaging method may include any OCT imaging method such as a spectral domain method or a wavelength sweep method.

撮影条件は、画像を構成するデータ構造中に保存されていたり、画像とは別の撮影条件データとして保存されていたり、撮影装置に関連するデータベースや画像管理システムに保存されたりすることができる。そのため、撮影条件は、撮影装置の撮影条件の保存手段に対応した手順により取得することができる。具体的には、撮影条件は、例えば、撮影装置が出力した画像のデータ構造を解析したり、画像に対応する撮影条件データを取得したり、撮影装置に関連するデータベースから撮影条件を取得するためのインターフェースにアクセスする等により取得される。 The imaging conditions can be stored in the data structure that constitutes the image, stored as imaging condition data separate from the image, or stored in a database or image management system associated with the imaging device. Therefore, the imaging conditions can be acquired by a procedure corresponding to the storage means of the imaging conditions of the imaging device. Specifically, the imaging conditions are used, for example, to analyze the data structure of an image output by the imaging device, to acquire imaging condition data corresponding to the image, or to acquire the imaging conditions from a database related to the imaging device. It is obtained by accessing the interface of

なお、撮影装置によっては、保存されていない等の理由で取得できない撮影条件も存在する。例えば、撮影装置に特定の撮影条件を取得したり保存したりする機能が無い、又はそのような機能が無効にされている場合である。また、例えば、撮影装置や撮影に関係の無い撮影条件であるとして保存しないようになっている場合もある。さらに、例えば、撮影条件が隠蔽されていたり、暗号化されていたり、権利が無いと取得できないようになっていたりする場合等もある。ただし、保存されていない撮影条件であっても取得できる場合がある。例えば、画像解析を実施することによって、撮影部位名や撮影領域を特定することができる。 Depending on the imaging device, there are imaging conditions that cannot be obtained because they are not saved. For example, if the imaging device does not have the ability to acquire or store specific imaging conditions, or if such a function is disabled. Further, for example, there are cases in which the photographing conditions are not stored because they are unrelated to the photographing device or photographing. Furthermore, for example, there are cases where the shooting conditions are hidden, encrypted, or cannot be obtained without the right. However, even shooting conditions that are not saved may be acquired. For example, by performing image analysis, it is possible to specify the imaging site name and imaging region.

領域ラベル画像とは、画素毎に領域のラベルが付されたラベル画像をいう。具体的には、図24に示すように、撮影装置によって取得された画像Im2410に描出されている領域群のうち、任意の領域を特定可能な画素値(以下、領域ラベル値)群によって分けている画像Im2420のことである。ここで、特定される任意の領域には関心領域(ROI:Region Of Interest)や関心体積(VOI:Volume Of Interest)等が含まれる。 A region label image is a label image in which a region label is assigned to each pixel. Specifically, as shown in FIG. 24, arbitrary regions are divided by a group of identifiable pixel values (hereinafter referred to as region label values) from among the region groups depicted in the image Im2410 acquired by the imaging device. image Im2420. Here, the specified arbitrary region includes a region of interest (ROI), a volume of interest (VOI), and the like.

画像Im2420から任意の領域ラベル値を持つ画素の座標群を特定すると、画像Im2410中において対応する網膜層等の領域を描出している画素の座標群を特定できる。具体的には、例えば、網膜を構成する神経節細胞層を示す領域ラベル値が1である場合、画像Im2420の画素群のうち画素値が1である座標群を特定し、画像Im2410から該座標群に対応する画素群を抽出する。これにより、画像Im2410における神経節細胞層の領域を特定できる。 By specifying a coordinate group of pixels having an arbitrary region label value from the image Im2420, it is possible to specify a coordinate group of pixels that render a corresponding region such as a retinal layer in the image Im2410. Specifically, for example, when the region label value indicating the ganglion cell layer that constitutes the retina is 1, a coordinate group having a pixel value of 1 among the pixel groups of the image Im2420 is specified, and the coordinates are extracted from the image Im2410. Extract the pixel group corresponding to the group. As a result, the region of the ganglion cell layer in image Im2410 can be identified.

なお、一部の実施例において、領域ラベル画像に対する縮小又は拡大処理を実施する処理が含まれる。このとき、領域ラベル画像の縮小又は拡大に用いる画像補完処理手法は、未定義の領域ラベル値や対応する座標に存在しないはずの領域ラベル値を誤って生成しないような、最近傍法等を使うものとする。 Note that some embodiments include a process of performing a reduction or enlargement process on the area label image. At this time, the image interpolation processing method used to reduce or enlarge the region label image uses the nearest neighbor method or the like so as not to erroneously generate an undefined region label value or a region label value that should not exist at the corresponding coordinates. shall be

画像セグメンテーション処理とは、画像に描出された臓器や病変といった、ROIやVOIと呼ばれる領域を、画像診断や画像解析に利用するために特定する処理のことである。例えば、画像セグメンテーション処理によれば、後眼部を撮影対象としたOCTの撮影によって取得された画像から、網膜を構成する層群の領域群を特定することができる。なお、画像に特定すべき領域が描出されていなければ特定される領域の数は0である。また、画像に特定すべき複数の領域群が描出されていれば、特定される領域の数は複数であってもよいし、或いは、該領域群を含むように囲む領域1つであってもよい。 Image segmentation processing is processing for identifying regions called ROIs and VOIs, such as organs and lesions depicted in images, for use in image diagnosis and image analysis. For example, according to the image segmentation process, it is possible to specify a region group of layers forming the retina from an image obtained by OCT imaging of the posterior segment of the eye. Note that the number of specified regions is 0 if the region to be specified is not rendered in the image. In addition, if a plurality of region groups to be specified are drawn in the image, the number of specified regions may be plural, or even one region surrounding the region group may be included. good.

特定された領域群は、その他の処理において利用可能な情報として出力される。具体的には、例えば、特定された領域群のそれぞれを構成する画素群の座標群を数値データ群として出力することができる。また、例えば、特定された領域群のそれぞれを含む矩形領域や楕円領域、長方体領域、楕円体領域等を示す座標群を数値データ群として出力することもできる。さらに、例えば、特定された領域群の境界にあたる直線や曲線、平面、又は曲面等を示す座標群を数値データ群として出力することもできる。また、例えば、特定された領域群を示す領域ラベル画像を出力することもできる。 The identified region group is output as information that can be used in other processing. Specifically, for example, it is possible to output a group of coordinates of a group of pixels forming each of the identified region groups as a group of numerical data. Further, for example, a group of coordinates indicating a rectangular area, an elliptical area, a rectangular parallelepiped area, an ellipsoidal area, etc. containing each of the identified area groups can be output as a numerical data group. Further, for example, it is possible to output a group of coordinates indicating a straight line, a curve, a plane, a curved surface, or the like, which is the boundary of the identified region group, as a numerical data group. Also, for example, an area label image indicating the specified area group can be output.

なお、以下において、画像セグメンテーション処理の精度が高いと表現したり、精度の高い領域ラベル画像と表現したりする場合は、領域を正しく特定できている割合が高いことを指す。また、逆に、画像セグメンテーション処理の精度が低いと表現する場合は、領域を誤って特定している割合が高いことを指す。 In the following description, when the image segmentation processing is expressed as having high accuracy or as an area labeled image with high accuracy, it means that the area is correctly identified at a high rate. Conversely, when the accuracy of image segmentation processing is expressed as low, it means that the rate of erroneously specifying regions is high.

領域ラベル無し画像とは、領域ラベル画像の一種であり、画像診断や画像解析に利用するためのROIやVOIに対応する情報が含まれていない領域ラベル画像である。具体的に、一例として、画像解析に利用するために医用画像に描出された網膜を構成する神経節細胞層の領域を知りたい場合を説明する。 An image without a region label is a type of region labeled image, and is a region labeled image that does not contain information corresponding to ROIs and VOIs for use in image diagnosis and image analysis. Specifically, as an example, a case where it is desired to know the region of the ganglion cell layer forming the retina depicted in the medical image for use in image analysis will be described.

ここで、神経節細胞層の領域を示す領域ラベル値は1であり、それ以外の部分の領域を示す領域ラベル値は0であるとする。ある医用画像に対応する領域ラベル画像を、画像セグメンテーション処理等によって生成した際に、医用画像に神経節細胞層が描出されていない場合、領域ラベル画像のすべての画素値は0となる。この場合、当該領域ラベル画像は、画像解析に利用するための神経節細胞層のROIに対応する領域ラベル値1である領域が領域ラベル画像に無いため、領域ラベル無し画像である。なお、設定や実装形態によっては、領域ラベル無し画像は、画像ではなく、画像と同様の情報を持つ座標群を示す数値データ群等であってもよい。 Here, it is assumed that the region label value indicating the region of the ganglion cell layer is 1, and the region label value indicating the region of the other portion is 0. When an area label image corresponding to a certain medical image is generated by image segmentation processing or the like, all pixel values of the area label image are 0 if the ganglion cell layer is not rendered in the medical image. In this case, the region-labeled image is an unlabeled image because the region-labeled image does not have a region with a region label value of 1 corresponding to the ROI of the ganglion cell layer to be used for image analysis. It should be noted that, depending on the setting and implementation mode, the image without area label may not be an image, but may be a numerical data group or the like indicating a coordinate group having information similar to that of the image.

ここで、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて実施例に係る学習モデルに適用することができる。学習済モデルとは、任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。ただし、学習済モデルは、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。教師データは、一つ以上の、入力データと出力データとのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。 Here, the machine learning model refers to a learning model based on a machine learning algorithm. Specific algorithms of machine learning include nearest neighbor method, naive Bayes method, decision tree, support vector machine, and the like. Another example is deep learning in which a neural network is used to generate feature values and connection weighting coefficients for learning. As appropriate, any of the above algorithms can be used and applied to the learning model according to the embodiment. A trained model is a model that has been trained (learned) in advance using appropriate teacher data (learning data) for a machine learning model according to an arbitrary machine learning algorithm. However, it is assumed that the trained model is not one that does not perform further learning, and that additional learning can be performed. The teacher data consists of one or more pairs of input data and output data. The format and combination of the input data and the output data of the paired group that constitutes the training data may be one of which is an image and the other is a numerical value, or one is composed of a plurality of image groups and the other is a character string, or both. may be suitable for a desired configuration, such as an image.

具体的には、例えば、OCTによって取得された画像と、該画像に対応する撮影部位ラベルとのペア群によって構成された教師データ(以下、第一の教師データ)が挙げられる。なお、撮影部位ラベルは部位を表すユニークな数値や文字列である。また、その他の教師データの例として、後眼部を撮影対象としたOCTの撮影によって取得された画像と、該画像に対応する網膜層の領域ラベル画像とのペア群によって構成されている教師データ(以下、第二の教師データ)が挙げられる。さらに、その他の教師データの例として、OCTの通常撮影によって取得されたノイズの多い低画質画像と、OCTにより複数回撮影して高画質化処理した高画質画像とのペア群によって構成されている教師データ(以下、第三の教師データ)が挙げられる。 Specifically, for example, teacher data (hereinafter referred to as first teacher data) configured by a pair group of an image obtained by OCT and an imaging region label corresponding to the image can be used. Note that the imaging region label is a unique numerical value or character string representing the region. Further, as another example of training data, training data composed of a pair group of an image acquired by OCT imaging targeting the posterior segment of the eye and an area label image of the retinal layer corresponding to the image. (hereinafter referred to as second teacher data). Furthermore, another example of training data is a pair group of a low-quality image with a lot of noise obtained by normal OCT imaging and a high-quality image that has been imaged multiple times by OCT and processed to improve the image quality. Teacher data (hereinafter referred to as third teacher data) can be mentioned.

学習済モデルに入力データを入力すると、該学習済モデルの設計に従った出力データが出力される。学習済モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、学習済モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、出力データの種類のそれぞれについて、入力データに対応する可能性を数値として出力する等を行うことができる。 When input data is input to the trained model, output data according to the design of the trained model is output. A trained model outputs output data that is highly likely to correspond to input data according to a tendency trained using teacher data, for example. In addition, the learned model can, for example, output the possibility of corresponding to the input data as a numerical value for each type of output data according to the tendency trained using the teacher data.

具体的には、例えば、第一の教師データでトレーニングされた学習済モデルにOCTによって取得された画像を入力すると、学習済モデルは、該画像に撮影されている撮影部位の撮影部位ラベルを出力したり、撮影部位ラベル毎の確率を出力したりする。また、例えば第二の教師データによってトレーニングされた学習済モデルに後眼部を撮影対象としたOCTの撮影によって取得された網膜層を描出する画像を入力すると、学習済モデルは、該画像に描出された網膜層に対する領域ラベル画像を出力する。さらに、例えば、第三の教師データでトレーニングされた学習済モデルにOCTの通常撮影によって取得されたノイズの多い低画質画像を入力すると、学習済モデルは、OCTにより複数回撮影して高画質化処理された画像相当の高画質画像を出力する。 Specifically, for example, when an image acquired by OCT is input to a trained model trained with the first teacher data, the trained model outputs the imaging site label of the imaging site imaged in the image. or output the probability for each imaging site label. Further, for example, when an image depicting the retinal layer obtained by OCT imaging targeting the posterior segment of the eye is input to the trained model trained by the second teacher data, the trained model is rendered in the image. output a region-labeled image for the retinal layer. Furthermore, for example, when a low-quality image with a lot of noise obtained by normal OCT imaging is input to the trained model trained with the third teacher data, the trained model is imaged multiple times by OCT to improve the image quality. A high-quality image equivalent to the processed image is output.

機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データを用いてトレーニングされた傾向を出力データに再現可能な程度が異なる場合がある。 Machine learning algorithms include deep learning techniques such as convolutional neural networks (CNN). In methods related to deep learning, different parameter settings for layers and nodes that make up a neural network may result in different degrees of reproducibility in output data of tendencies trained using teacher data.

例えば、第一の教師データを用いたディープラーニングの学習済モデルにおいては、より適切なパラメータが設定されていると、正しい撮影部位ラベルを出力する確率がより高くなる場合がある。また、例えば、第二の教師データを用いる学習済モデルにおいては、より適切なパラメータが設定されていると、より精度の高い領域ラベル画像を出力できる場合がある。さらに、例えば、第三の教師データを用いたディープラーニングの学習済モデルにおいては、より適切なパラメータが設定されていると、より高画質な画像を出力できる場合がある。 For example, in a trained model of deep learning using the first teacher data, if more appropriate parameters are set, the probability of outputting a correct imaging region label may increase. Also, for example, in a trained model using the second teacher data, if more appropriate parameters are set, it may be possible to output a region label image with higher accuracy. Furthermore, for example, in the trained model of deep learning using the third training data, if more appropriate parameters are set, it may be possible to output an image with higher image quality.

具体的には、CNNにおけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、教師データに基づいて、学習済モデルの利用形態に好ましい値に設定することができる。例えば、教師データに基づいて、正しい撮影部位ラベルをより高い確率で出力したり、より精度の高い領域ラベル画像を出力したり、より高画質な画像を出力したりできるパラメータ群やエポック数を設定することができる。 Specifically, the parameters in the CNN are, for example, the kernel size of the filter, the number of filters, the value of the stride, the value of the dilation, and the number of nodes output by the fully connected layer, which are set for the convolution layer etc. Note that the parameter group and the number of training epochs can be set to values that are preferable for the mode of use of the learned model, based on teacher data. For example, based on training data, set parameters and the number of epochs that can output correct imaging site labels with a higher probability, output region label images with higher accuracy, and output images with higher image quality. can do.

このようなパラメータ群やエポック数の決定方法の一つを例示する。まず、教師データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用としてランダムに設定する。次に、トレーニング用のペア群を用いて学習済モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の学習済モデルに入力したときの出力と、入力データに対応する出力データとを損失関数によって評価した値群の平均値等である。最後に、最もトレーニング評価値が小さくなったときのパラメータ群及びエポック数を、当該学習済モデルのパラメータ群やエポック数として決定する。なお、このように、教師データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、学習済モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。 One method for determining such a parameter group and the number of epochs will be exemplified. First, 70% of the pairs constituting the teacher data are randomly set for training and the remaining 30% for evaluation. Next, the trained model is trained using the training pairs, and at the end of each epoch of training, the evaluation pairs are used to calculate a training evaluation value. The training evaluation value is, for example, the average value of a group of values obtained by evaluating the output when the input data constituting each pair is input to the learned model during training and the output data corresponding to the input data using a loss function. is. Finally, the parameter group and the number of epochs when the training evaluation value becomes the smallest are determined as the parameter group and the number of epochs of the learned model. It should be noted that, by dividing the pair groups that make up the teacher data into training pair groups and evaluation pair groups and determining the number of epochs in this way, the learned model may overfit the training pair groups. can be prevented.

画像セグメンテーションエンジンとは、画像セグメンテーション処理を実施し、入力された入力画像に対応する領域ラベル画像を出力するモジュールのことである。入力画像の例としては、OCTのBスキャン画像や三次元断層画像(三次元OCTボリューム画像)等がある。また、領域ラベル画像の例としては、入力画像がOCTのBスキャン画像である場合における網膜層の各層を示す領域ラベル画像や、入力画像がOCTの三次元断層画像である場合における網膜層の各層を示す三次元領域を示す領域ラベル画像がある。 An image segmentation engine is a module that performs image segmentation processing and outputs a region label image corresponding to an input image that has been input. Examples of the input image include an OCT B-scan image and a three-dimensional tomographic image (three-dimensional OCT volume image). Examples of the region label image include a region label image indicating each layer of the retinal layer when the input image is an OCT B-scan image, and each layer of the retinal layer when the input image is an OCT three-dimensional tomographic image. There is a region label image showing a 3D region showing .

下記の実施例における画像セグメンテーション処理手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムに従った学習済モデルを用いた処理を行う。なお、当該画像処理手法は、機械学習アルゴリズムだけでなく、他の既存の任意の処理を併せて行ってもよい。当該画像処理には、例えば、各種画像フィルタ処理、類似画像に対応する領域ラベル画像のデータベースを用いたマッチング処理、基準領域ラベル画像の画像レジストレーション処理、及び知識ベース画像処理等の処理が含まれる。 An image processing method that constitutes an image segmentation processing method in the following embodiments performs processing using a trained model according to various machine learning algorithms such as deep learning. Note that the image processing method may be performed not only with a machine learning algorithm but also with any other existing processing. The image processing includes, for example, various image filter processing, matching processing using a database of region label images corresponding to similar images, image registration processing of reference region label images, and knowledge-based image processing. .

特に、入力画像として入力された二次元の画像Im2510を画像セグメンテーション処理して領域ラベル画像Im2520を生成する畳み込みニューラルネットワーク(CNN)の例として、図25に示す構成2500がある。当該CNNの構成2500は、入力値群を加工して出力する処理を担う、複数の層群が含まれる。なお、当該構成2500に含まれる層の種類としては、図25に示すように、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、及び合成(Merger)層がある。なお、本実施例で用いるCNNの構成2500は、実施例1で述べたCNNの構成601と同様に、U-net型の機械学習モデルである。 In particular, there is a configuration 2500 shown in FIG. 25 as an example of a convolutional neural network (CNN) that performs image segmentation processing on a two-dimensional image Im2510 input as an input image to generate an area label image Im2520. The configuration 2500 of the CNN includes multiple layers responsible for processing and outputting input values. As shown in FIG. 25, the types of layers included in the configuration 2500 include a convolution layer, a downsampling layer, an upsampling layer, and a merger layer. Note that the CNN configuration 2500 used in this embodiment is a U-net type machine learning model, like the CNN configuration 601 described in the first embodiment.

畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理を行う層である。ダウンサンプリング層で行われる処理として、具体的には、例えば、Max Pooling処理がある。 The convolution layer is a layer that performs convolution processing on an input value group according to set parameters such as the kernel size of filters, the number of filters, the stride value, and the dilation value. The down-sampling layer is a layer that performs processing to make the number of output value groups smaller than the number of input value groups by thinning out or synthesizing input value groups. A specific example of processing performed in the downsampling layer is Max Pooling processing.

アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理を行う層である。アップサンプリング層で行われる処理として、具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。 The upsampling layer is a layer that performs processing to make the number of output value groups larger than the number of input value groups by duplicating the input value group or adding values interpolated from the input value group. A specific example of processing performed in the upsampling layer is linear interpolation processing. The synthesizing layer is a layer that performs a process of synthesizing a group of values such as a group of output values of a certain layer and a group of pixel values forming an image from a plurality of sources and connecting or adding them.

なお、当該CNNの構成に含まれる畳み込み層群に設定されるパラメータとして、例えば、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度の画像セグメンテーション処理が可能である。ただし、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データからトレーニングされた傾向を出力データに再現可能な程度が異なる場合があるので注意が必要である。つまり、多くの場合、実施例に応じて各層群や各ノード群に対する適切なパラメータは異なるので、必要に応じて変更してもよい。 In addition, as parameters set in the convolutional layer group included in the configuration of the CNN, for example, the kernel size of the filter is 3 pixels in width, 3 pixels in height, and the number of filters is 64, so that an image with a certain accuracy Segmentation processing is possible. However, if the parameter settings for the layers and nodes that make up the neural network are different, the degree to which the tendencies trained from the teacher data can be reproduced in the output data may differ. In other words, in many cases, appropriate parameters for each layer group and each node group differ depending on the embodiment, and may be changed as necessary.

また、実施例によっては、上述したようなパラメータを変更するという方法だけでなく、CNNの構成を変更することによって、CNNがより良い特性を得られる場合がある。より良い特性とは、例えば、画像セグメンテーション処理の精度が高かったり、画像セグメンテーション処理の時間が短かったり、学習済モデルのトレーニングにかかる時間が短かったりする等である。CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等がある。 Also, depending on the embodiment, the CNN may obtain better characteristics not only by changing the parameters as described above, but also by changing the configuration of the CNN. Better characteristics include, for example, high accuracy of image segmentation processing, short time for image segmentation processing, short time for training a learned model, and the like. Examples of modifications to the configuration of the CNN include, for example, incorporating a batch normalization layer after the convolutional layer and an activation layer using a rectifier linear unit.

なお、画像セグメンテーションエンジンが用いる機械学習モデルとしては、実施例1と同様に、例えば、FCN、又はSegNet等を用いることもできる。また、所望の構成に応じて、実施例1で述べたような領域単位で物体認識を行う機械学習モデルを用いてもよい。 As a machine learning model used by the image segmentation engine, for example, FCN, SegNet, or the like can be used as in the first embodiment. Also, depending on the desired configuration, a machine learning model that performs object recognition on a region-by-region basis as described in the first embodiment may be used.

なお、一次元画像や三次元画像、四次元画像を処理する必要がある場合には、フィルタのカーネルサイズが一次元や三次元、四次元に対応していてもよい。ここで、四次元画像とは、例えば、三次元の動画像や三次元画像の各画素位置におけるパラメータを異なる色相で示したような画像を含む。 When it is necessary to process a one-dimensional image, a three-dimensional image, or a four-dimensional image, the kernel size of the filter may be one-dimensional, three-dimensional, or four-dimensional. Here, a four-dimensional image includes, for example, a three-dimensional moving image or an image in which parameters at each pixel position of a three-dimensional image are indicated by different hues.

また、画像セグメンテーション処理は、1つの画像処理手法だけで実施されることもあるし、2つ以上の画像処理手法を組み合わせて実施されることもある。さらに、複数の画像セグメンテーション処理手法を実施し、複数の領域ラベル画像を生成することもできる。 Also, the image segmentation process may be performed using only one image processing technique, or may be performed using a combination of two or more image processing techniques. Additionally, multiple image segmentation processing techniques may be implemented to generate multiple region label images.

また、実施例によっては、入力画像を小領域群に分割し、それぞれに対して画像セグメンテーション処理を実施して小領域の領域ラベル画像群を得て、該小領域の領域ラベル画像群を結合することで、領域ラベル画像を生成する方法がある。なお、当該小領域は、入力画像が三次元画像であれば、入力画像よりも小さな三次元画像であったり、二次元画像であったり、一次元画像であったりしてもよい。また、当該小領域は、入力画像が二次元画像であれば、入力画像よりも小さな二次元画像であったり、一次元画像であったりしてもよい。また、実施例によっては複数の領域ラベル画像群を出力してもよい。 Also, in some embodiments, the input image is divided into groups of small regions, image segmentation processing is performed on each of them to obtain a group of region label images of the small regions, and the group of region label images of the small regions is combined. Thus, there is a way to generate region label images. If the input image is a three-dimensional image, the small area may be a three-dimensional image smaller than the input image, a two-dimensional image, or a one-dimensional image. Also, if the input image is a two-dimensional image, the small area may be a two-dimensional image smaller than the input image, or may be a one-dimensional image. Also, depending on the embodiment, a plurality of region label image groups may be output.

また、画像セグメンテーションエンジンに対して、入力画像とともにパラメータを入力してもよい。この場合の入力されるパラメータは、例えば、病変の大きさの上限など、画像セグメンテーション処理を行う範囲の程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを含むことができる。なお、画像セグメンテーションエンジンは、実施例によっては領域ラベル画像の代わりに、領域を特定可能なその他の画像や座標データ群を出力してもよい。 Parameters may also be input to the image segmentation engine along with the input image. The parameters to be input in this case may include, for example, parameters that specify the extent of the range in which image segmentation processing is performed, such as the upper limit of the lesion size, and parameters that specify the image filter size used in the image processing method. can. It should be noted that the image segmentation engine may output other images or coordinate data groups capable of identifying regions, instead of region label images, depending on the embodiment.

なお、複数の画像セグメンテーション処理手法を実施したり、複数の小領域群に対して画像セグメンテーション処理を実施したりする場合には、並列的に画像セグメンテーション処理を行うことによって、処理時間を短縮できる。 Note that when performing a plurality of image segmentation processing methods or performing image segmentation processing on a plurality of small region groups, processing time can be reduced by performing image segmentation processing in parallel.

なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、領域ラベル画像の周辺部が十分な精度でセグメンテーション処理されない問題等の対策のため、入力する画像と出力する領域ラベル画像とで異なる画像サイズを要する場合があることに留意すべきである。 Note that when using some image processing methods such as image processing using CNN, it is necessary to pay attention to the image size. Specifically, it should be noted that different image sizes may be required for the input image and the output region label image in order to deal with problems such as the peripheral portion of the region label image not being segmented with sufficient accuracy. is.

明瞭な説明のため、後述の実施例において明記はしないが、画像セグメンテーションエンジンに入力される画像と出力される画像とで異なる画像サイズを要する画像セグメンテーションエンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、学習済モデルをトレーニングするための教師データに用いる画像や、画像セグメンテーションエンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に画像セグメンテーション処理できるように画像セグメンテーション処理手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 For the sake of clarity, it will not be specified in the embodiments described later, but if an image segmentation engine that requires different image sizes for an image input to the image segmentation engine and an output image is used, the image size may be changed as appropriate. Assume it is adjusted. Specifically, input images, such as images used as teacher data for training a trained model and images input to an image segmentation engine, are padded, and the surrounding shooting areas of the input image are combined. or to adjust the image size. The area to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror-padded according to the characteristics of the image segmentation processing method so that the image segmentation processing can be performed effectively.

撮影箇所推定エンジンとは、入力された画像の撮影部位や撮影領域を推定するモジュールのことである。撮影箇所推定エンジンは、入力された画像に描画されている撮影部位や撮影領域がどこであるか、又は必要な詳細レベルの撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力することができる。 The imaging location estimation engine is a module for estimating the imaging part and imaging area of the input image. The imaging location estimation engine determines where the imaging location or imaging region drawn in the input image is, or determines the probability of being the imaging location or imaging region for each imaging location label or imaging region label with a required level of detail. can be output.

撮影部位や撮影領域は、撮影装置によっては撮影条件として保存していない、又は撮影装置が取得できず保存できていない場合がある。また、撮影部位や撮影領域が保存されていても、必要な詳細レベルの撮影部位や撮影領域が保存されていない場合もある。例えば、撮影部位として“後眼部”と保存されているだけで、詳細には“黄斑部”なのか、“視神経乳頭部”なのか、又は、“黄斑部及び視神経乳頭部”なのか、“その他”なのかが分からないことがある。また、別の例では、撮影部位として“乳房”と保存されているだけで、詳細には“右乳房”なのか、“左乳房”なのか、又は、“両方”なのかが分からないことがある。そのため、撮影箇所推定エンジンを用いることで、これらの場合に入力画像の撮影部位や撮影領域を推定することができる。 Depending on the imaging device, the imaging site and imaging region may not be stored as imaging conditions, or may not be stored because the imaging device cannot acquire them. Further, even if the imaging parts and imaging regions are stored, there are cases where the imaging parts and imaging regions with the required level of detail are not stored. For example, only "posterior segment of the eye" is stored as an imaging region, but in detail, is it "macula", "optical papilla", or "macula and optic papilla"? Sometimes I don't know if it's "other". In another example, only "breast" is stored as the imaged region, but in detail, it is not known whether it is "right breast", "left breast", or "both". be. Therefore, by using the imaging location estimation engine, it is possible to estimate the imaging part and imaging area of the input image in these cases.

撮影箇所推定エンジンの推定手法を構成する画像及びデータ処理手法では、ディープラーニング等の各種機械学習アルゴリズムに従った学習済モデルを用いた処理を行う。なお、当該画像及びデータ処理手法では、機械学習アルゴリズムを用いた処理に加えて又は代えて、自然言語処理、類似画像及び類似データのデータベースを用いたマッチング処理、知識ベース処理等の既知の任意の推定処理を行ってもよい。なお、機械学習アルゴリズムを用いて構築した学習済モデルをトレーニングする教師データは、撮影部位や撮影領域のラベルが付けられた画像とすることができる。この場合には、教師データに関して、撮影部位や撮影領域を推定すべき画像を入力データ、撮影部位や撮影領域のラベルを出力データとする。 The image and data processing method that constitutes the estimation method of the shooting location estimation engine performs processing using a trained model according to various machine learning algorithms such as deep learning. In the image and data processing method, in addition to or instead of processing using machine learning algorithms, any known arbitrary processing such as natural language processing, matching processing using a database of similar images and similar data, knowledge base processing, etc. An estimation process may be performed. Note that the training data for training the learned model constructed using the machine learning algorithm can be images labeled with the imaging site and imaging region. In this case, with respect to teacher data, an image for which an imaging part or an imaging region is to be estimated is input data, and a label of an imaging part or imaging region is output data.

特に、二次元の入力画像Im2610の撮影箇所を推定するCNNの構成例として、図26に示す構成2600がある。当該CNNの構成2600には、畳み込み層2621とバッチ正規化層2622と正規化線形関数を用いた活性化層2623とで構成された複数の畳み込み処理ブロック2620群が含まれる。また、当該CNNの構成2600には、最後の畳み込み層2630と、全結合(Full Connection)層2640と、出力層2650が含まれる。全結合層2640は畳み込み処理ブロック2620の出力値群を全結合する。また、出力層2650は、Softmax関数を利用して、入力画像Im2610に対する、想定される撮影部位ラベル毎の確率を推定結果2660(Result)として出力する。このような構成2600では、例えば、入力画像Im2610が“黄斑部”を撮影した画像であれば、“黄斑部”に対応する撮影部位ラベルについて最も高い確率が出力される。 In particular, there is a configuration 2600 shown in FIG. 26 as a configuration example of the CNN for estimating the shooting location of the two-dimensional input image Im2610. The structure 2600 of the CNN includes a group of convolution processing blocks 2620 composed of a convolution layer 2621, a batch normalization layer 2622, and an activation layer 2623 using a normalization linear function. The CNN structure 2600 also includes a final convolutional layer 2630 , a Full Connection layer 2640 and an output layer 2650 . Fully connected layer 2640 fully connects the output values of convolution processing block 2620 . In addition, the output layer 2650 uses the Softmax function to output the probability for each assumed imaging site label for the input image Im2610 as an estimation result 2660 (Result). In such a configuration 2600, for example, if the input image Im2610 is an image obtained by imaging the "macula", the highest probability is output for the radiographed region label corresponding to the "macula".

なお、例えば、畳み込み処理ブロック2620の数を16、畳み込み層2621,2630群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度で撮影部位を推定することができる。しかしながら、実際には上記の学習済モデルの説明において述べた通り、学習済モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、一次元画像や三次元画像、四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを一次元や三次元、四次元に拡張してもよい。なお、推定手法は、一つの画像及びデータ処理手法だけで実施されることもあるし、二つ以上の画像及びデータ処理手法を組み合わせて実施されることもある。 Note that, for example, the number of convolution processing blocks 2620 is 16, the parameters of the group of convolution layers 2621 and 2630 are set to a filter kernel size of 3 pixels wide, 3 pixels high, and 64 filters. can be used to estimate the imaging site. However, in practice, as described in the above explanation of the trained model, it is possible to set a better parameter group using teacher data according to the usage pattern of the trained model. If it is necessary to process a one-dimensional image, a three-dimensional image, or a four-dimensional image, the kernel size of the filter may be expanded to one-dimensional, three-dimensional, or four-dimensional. Note that the estimation technique may be implemented using only one image and data processing technique, or may be implemented using a combination of two or more image and data processing techniques.

領域ラベル画像評価エンジンとは、入力された領域ラベル画像が尤もらしく画像セグメンテーション処理できているか否かを評価するモジュールのことである。領域ラベル画像評価エンジンは、具体的には、画像評価指数として、入力された領域ラベル画像が尤もらしければ真値、そうでなければ偽値を出力する。当該評価を行う手法の例としては、ディープラーニング等の各種機械学習アルゴリズムに従った学習済モデルを用いた処理、又は知識ベース処理等がある。知識ベース処理の方法の1つには、例えば、解剖学的な知識を利用したものがあり、例えば網膜の形状の規則性等の既知の解剖学的な知識を利用して領域ラベル画像の評価を行う。 The region label image evaluation engine is a module that evaluates whether an input region label image is plausible and image segmentation processing can be performed. Specifically, the area label image evaluation engine outputs a true value as an image evaluation index if the input area label image is plausible, and a false value otherwise. Examples of methods for performing the evaluation include processing using trained models according to various machine learning algorithms such as deep learning, knowledge base processing, and the like. One method of knowledge-based processing, for example, is based on anatomical knowledge, where known anatomical knowledge, such as the regularity of the shape of the retina, is used to evaluate region-labeled images. I do.

具体的に、一例として、知識ベース処理により、後眼部を撮影対象としたOCTの断層画像に対応する領域ラベル画像を評価する場合について説明する。後眼部では、解剖学的に組織群には決まった位置がある。そのため、領域ラベル画像における画素値群、すなわち、領域ラベル値群の座標を確認し、位置が正しく出力されているか否かを評価する方法がある。当該評価方法では、例えば、ある範囲において前眼部に近い座標に水晶体に対応する領域ラベル値があり、遠い座標に網膜層群に対応する領域ラベル値があれば、尤もらしく画像セグメンテーション処理できていると評価する。一方、これらの領域ラベル値がそのような想定される位置にない場合には、適切に画像セグメンテーション処理できていないと評価する。 Specifically, as an example, a case of evaluating a region label image corresponding to an OCT tomographic image of the posterior segment as an imaging target by knowledge base processing will be described. In the posterior segment of the eye, anatomically, the tissue groups have fixed locations. Therefore, there is a method of checking the pixel value group in the area label image, that is, the coordinates of the area label value group, and evaluating whether or not the position is output correctly. In this evaluation method, for example, if there is a region label value corresponding to the crystalline lens at coordinates close to the anterior segment and a region label value corresponding to the retinal layer group at coordinates far from the anterior segment in a certain range, it is likely that the image segmentation process can be performed. Evaluate that there is. On the other hand, if these region label values are not at such expected locations, then we assess that the image segmentation process has not been performed properly.

図27に示す、後眼部を撮影対象としたOCTの断層画像に対応する、網膜層を構成する層群の領域ラベル画像Im2710を用いて、当該知識ベースの評価方法について、より具体的に説明する。後眼部では、解剖学的に組織群には決まった位置があるため、領域ラベル画像における画素値群、すなわち、領域ラベル値群の座標を確認することで、領域ラベル画像が尤もらしい画像か否かを判断することができる。 The method for evaluating the knowledge base will be described more specifically using the region label image Im2710 of the layer group constituting the retinal layers, which corresponds to the OCT tomographic image of the posterior segment of the eye shown in FIG. do. In the posterior segment of the eye, tissue groups have anatomically fixed positions. Therefore, by checking the pixel value group in the region label image, that is, the coordinates of the region label value group, it is possible to determine whether the region label image is a plausible image. You can decide whether or not

領域ラベル画像Im2710には、同じ領域ラベル値を持つ画素群が連続して構成される領域Seg2711、領域Seg2712、領域Seg2713、及び領域Seg2714が含まれている。領域Seg2711及び領域Seg2714は同じ領域ラベル値だが、解剖学的に網膜層を構成する層群は層構造を成していることから、形状や他の領域との位置関係より、領域Seg2714は誤って画像セグメンテーション処理されていると評価される。この場合、領域ラベル画像評価エンジンは画像評価指数として偽値を出力する。 The area label image Im2710 includes an area Seg2711, an area Seg2712, an area Seg2713, and an area Seg2714 in which groups of pixels having the same area label value are continuously formed. Although the region Seg2711 and the region Seg2714 have the same region label value, the layer group that anatomically constitutes the retinal layers has a layered structure. It is evaluated as having undergone image segmentation processing. In this case, the region label image rating engine will output a false value for the image rating index.

また、知識ベースの評価処理の方法には、撮影対象に必ず存在するはずの領域に対応する領域ラベル値を持つ画素が領域ラベル画像に含まれるか否かを評価する方法もある。さらに、例えば、撮影対象に必ず存在するはずの領域に対応する領域ラベル値を持つ画素が領域ラベル画像に一定数以上含まれるか否かを評価する方法等もある。 Further, among the knowledge-based evaluation processing methods, there is also a method of evaluating whether or not the area label image includes a pixel having an area label value corresponding to an area that must exist in the object to be photographed. Furthermore, for example, there is also a method of evaluating whether or not the area label image includes a certain number or more of pixels having area label values corresponding to areas that must always exist in the imaging target.

また、画像セグメンテーションエンジンが複数の画像セグメンテーション処理手法を実施し、複数の領域ラベル画像を生成する場合、領域ラベル画像評価エンジンは、複数のラベル画像のうち最も尤もらしい領域ラベル画像を1つ選択して出力することもできる。 Also, if the image segmentation engine performs multiple image segmentation processing techniques to generate multiple region label images, the region label image evaluation engine selects one of the most likely region label images from among the multiple label images. You can also output

なお、複数の領域ラベル画像群の各々が尤もらしい領域ラベル画像である場合、出力すべき領域ラベル画像が1つに選択しきれない場合がある。このような、領域ラベル画像が1つに選択しきれない場合には、領域ラベル評価エンジンは、例えば、予め決められた優先度で領域ラベル画像を1つに選択することができる。また、領域ラベル評価エンジンは、例えば、複数の領域ラベル画像に重みづけをして1つの領域ラベル画像にマージすることもできる。さらに、例えば、領域ラベル評価エンジンは、任意の表示部等に備えられたユーザーインターフェースに複数の領域ラベル画像群を表示して、検者(ユーザー)の指示に応じて1つに選択してもよい。なお、領域ラベル画像評価エンジンは、尤もらしい複数の領域画像の全てを出力してもよい。 Note that if each of a plurality of area label image groups is a plausible area label image, it may not be possible to select a single area label image to be output. In such a case where only one region label image cannot be selected, the region label evaluation engine can select one region label image with a predetermined priority, for example. The region label evaluation engine may also, for example, weight and merge multiple region label images into one region label image. Further, for example, the region label evaluation engine may display a plurality of region label image groups on a user interface provided in an arbitrary display unit or the like, and select one according to an instruction from the examiner (user). good. Note that the region label image evaluation engine may output all of the plausible region images.

領域ラベル画像修正エンジンとは、入力された領域ラベル画像中の誤って画像セグメンテーション処理された領域を修正するモジュールのことである。当該修正を行う手法の例としては、知識ベース処理等がある。知識ベース処理の方法の1つには、例えば、解剖学的な知識を利用したものがある。 A region label image correction engine is a module that corrects incorrectly image segmented regions in an input region label image. Examples of techniques for performing the correction include knowledge base processing and the like. One method of knowledge-based processing, for example, uses anatomical knowledge.

図27に示す、後眼部を撮影対象としたOCTの断層画像に対応する、網膜層を構成する層群の領域ラベル画像Im2710を再び用いて、当該領域ラベル画像の修正に係る知識ベースの修正方法について、より具体的に説明する。上述したように、領域ラベル画像Im2710において、解剖学的に網膜層を構成する層群は、層構造を成していることから、形状や他の領域との位置関係より、領域Seg2714は誤って画像セグメンテーション処理された領域だということが分かる。領域ラベル画像修正エンジンは、誤ってセグメンテーション処理された領域を検出し、検出された領域を別の領域ラベル値で上書きする。例えば、図27の場合は、領域Seg2714を、網膜層のいずれでもないことを示す領域ラベル値で上書きする。 The region label image Im2710 of the layer group constituting the retinal layer corresponding to the OCT tomographic image of the posterior segment of the eye shown in FIG. The method will be described more specifically. As described above, in the region labeled image Im2710, the layer group that anatomically configures the retinal layers has a layered structure. It can be seen that it is an area that has undergone image segmentation processing. The region label image correction engine detects incorrectly segmented regions and overwrites the detected regions with different region label values. For example, in FIG. 27, region Seg 2714 is overwritten with a region label value indicating that it is not one of the retinal layers.

なお、領域ラベル画像修正エンジンでは、誤ってセグメンテーションされた領域について、領域ラベル評価エンジンによる評価結果を用いて検出又は特定を行ってもよい。また、領域ラベル画像修正エンジンは、検出した誤ってセグメンテーションされた領域のラベル値を、当該領域の周辺のラベル情報から推測されるラベル情報を上書きしてもよい。図27の例では、領域Seg2714を囲う領域にラベル情報が付されている場合には、領域Seg2714のラベル情報を当該領域のラベル情報で上書きすることができる。なお、周辺のラベル情報に関しては、修正すべき領域を完全に囲む領域のラベル情報に限られず、修正すべき領域に隣接する領域のラベル情報のうち、最も数の多いラベル情報であってもよい。 Note that the region label image correction engine may detect or identify incorrectly segmented regions using the evaluation results of the region label evaluation engine. The region label image modification engine may also overwrite label values of detected incorrectly segmented regions with label information inferred from label information around the region. In the example of FIG. 27, when label information is attached to the area surrounding the area Seg2714, the label information of the area Seg2714 can be overwritten with the label information of the area. Note that the peripheral label information is not limited to the label information of the area that completely surrounds the area to be corrected, and may be the most numerous label information among the label information of the areas adjacent to the area to be corrected. .

(実施例8に係る画像処理装置の構成)
以下、図28乃至32を参照して、実施例8による医用画像処理装置について説明する。なお、以下において、簡略化のため、医用画像処理装置を単に画像処理装置という。図28は、本実施例に係る画像処理装置の概略的な構成の一例を示す。
(Configuration of image processing apparatus according to embodiment 8)
A medical image processing apparatus according to an eighth embodiment will be described below with reference to FIGS. In the following, for the sake of simplification, the medical image processing apparatus will simply be referred to as an image processing apparatus. FIG. 28 shows an example of a schematic configuration of an image processing apparatus according to this embodiment.

画像処理装置2800は、撮影装置2810及び表示部2820に、回路やネットワークを介して接続されている。また、撮影装置2810及び表示部2820が直接接続されていてもよい。なお、これらの装置は本実施例では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。 The image processing device 2800 is connected to the imaging device 2810 and the display unit 2820 via circuits and networks. Alternatively, the imaging device 2810 and the display unit 2820 may be directly connected. Although these devices are separate devices in this embodiment, some or all of these devices may be integrated. Also, these devices may be connected to any other device via a circuit or network, or may be integrally configured with any other device.

画像処理装置2800には、取得部2801と、撮影条件取得部2802と、処理可否判定部2803と、セグメンテーション処理部2804と、評価部2805と、解析部2806と、出力部2807(表示制御部)とが設けられている。なお、画像処理装置2800は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。 The image processing apparatus 2800 includes an acquisition unit 2801, an imaging condition acquisition unit 2802, a processing propriety determination unit 2803, a segmentation processing unit 2804, an evaluation unit 2805, an analysis unit 2806, and an output unit 2807 (display control unit). and are provided. Note that the image processing device 2800 may be composed of a plurality of devices provided with some of these components.

取得部2801は、撮影装置2810や他の装置から各種データや画像を取得したり、不図示の入力装置を介して検者からの入力を取得したりすることができる。なお、入力装置としては、マウス、キーボード、タッチパネル及びその他任意の入力装置を採用してよい。また、表示部2820をタッチパネルディスプレイとして構成してもよい。 The acquisition unit 2801 can acquire various data and images from the imaging device 2810 and other devices, and can acquire input from the examiner via an input device (not shown). As the input device, a mouse, keyboard, touch panel, and other arbitrary input devices may be adopted. Moreover, the display unit 2820 may be configured as a touch panel display.

撮影条件取得部2802は、取得部2801が取得した医用画像(入力画像)の撮影条件を取得する。具体的には、医用画像のデータ形式に応じて、医用画像を構成するデータ構造に保存された撮影条件群を取得する。なお、医用画像に撮影条件が保存されていない場合には、取得部2801を介して、撮影装置2810や画像管理システムから撮影情報群を取得することができる。 An imaging condition acquisition unit 2802 acquires imaging conditions for the medical image (input image) acquired by the acquisition unit 2801 . Specifically, the imaging condition group stored in the data structure forming the medical image is obtained according to the data format of the medical image. Note that if imaging conditions are not saved in the medical image, the imaging information group can be acquired from the imaging device 2810 or the image management system via the acquisition unit 2801 .

処理可否判定部(判定部)2803は、撮影条件取得部2802によって取得された撮影条件群を用いてセグメンテーション処理部2804によって医用画像が対処可能であるか否かを判定する。セグメンテーション処理部2804は、学習済モデルを含む画像セグメンテーションエンジン(セグメンテーションエンジン)を用いて、対処可能である医用画像について画像セグメンテーション処理を行い、領域ラベル画像(領域情報)を生成する。 A process availability determination unit (determination unit) 2803 determines whether or not the segmentation processing unit 2804 can process the medical image using the imaging condition group acquired by the imaging condition acquisition unit 2802 . A segmentation processing unit 2804 uses an image segmentation engine (segmentation engine) including a trained model to perform image segmentation processing on medical images that can be handled, and generates region label images (region information).

評価部2805は、領域ラベル画像評価エンジン(評価エンジン)を用いて、セグメンテーション処理部2804によって生成された領域ラベル画像を評価し、評価結果に基づいて領域ラベル画像を出力するか否かを判断する。領域ラベル画像評価エンジンは、画像評価指数として、入力された領域ラベル画像が尤もらしければ真値、そうでなければ偽値を出力する。評価部2805は、領域ラベル画像を評価した画像評価指数が真値である場合には、領域ラベル画像を出力すると判断する。 The evaluation unit 2805 evaluates the region label image generated by the segmentation processing unit 2804 using a region label image evaluation engine (evaluation engine), and determines whether to output the region label image based on the evaluation result. . The region label image evaluation engine outputs a true value as an image evaluation index if the input region label image is plausible, and a false value otherwise. The evaluation unit 2805 determines to output the region label image when the image evaluation index obtained by evaluating the region label image is a true value.

解析部2806は、評価部2805によって出力すべきと判断された領域ラベル画像や入力画像を用いて、入力画像の画像解析処理を行う。解析部2806は、画像解析処理により、例えば、網膜層に含まれる組織の形状変化や層厚等を算出することができる。なお、画像解析処理としては、既知の任意の画像解析処理を用いてよい。出力部2807は、領域ラベル画像や解析部2806による解析結果を表示部2820に表示させる。また、出力部2807は、領域ラベル画像や解析結果を画像処理装置2800に接続される記憶装置や外部装置等に記憶させてもよい。 The analysis unit 2806 performs image analysis processing of the input image using the input image and the region label image determined to be output by the evaluation unit 2805 . The analysis unit 2806 can calculate, for example, the shape change and layer thickness of tissue included in the retinal layer by image analysis processing. Any known image analysis process may be used as the image analysis process. The output unit 2807 causes the display unit 2820 to display the area label image and the analysis result by the analysis unit 2806 . Also, the output unit 2807 may store the region label image and the analysis result in a storage device connected to the image processing apparatus 2800, an external device, or the like.

次に、セグメンテーション処理部2804について詳細に説明する。セグメンテーション処理部2804は、画像セグメンテーションエンジンを用いて、入力された画像(入力)に対応する領域ラベル画像を生成する。本実施例に係る画像セグメンテーションエンジンが備える画像セグメンテーション処理手法では、学習済モデルを用いた処理を行う。 Next, the segmentation processing unit 2804 will be described in detail. The segmentation processor 2804 uses an image segmentation engine to generate region label images corresponding to the input image (input). The image segmentation processing method provided in the image segmentation engine according to this embodiment performs processing using a trained model.

本実施例では、機械学習モデルのトレーニングに、処理対象として想定される特定の撮影条件で取得された画像である入力データと、入力データに対応する領域ラベル画像である出力データのペア群で構成された教師データを用いる。なお、特定の撮影条件には、具体的には、予め決定された撮影部位、撮影方式、撮影画角、及び画像サイズ等が含まれる。 In this embodiment, training of a machine learning model consists of pairs of input data, which are images acquired under specific shooting conditions assumed to be processed, and output data, which are region labeled images corresponding to the input data. Use the training data that has been prepared. The specific imaging conditions specifically include a predetermined imaging region, imaging method, imaging angle of view, image size, and the like.

本実施例において、教師データの入力データは、撮影装置2810と同じ機種、撮影装置2810と同じ設定により取得された画像である。なお、教師データの入力データは、撮影装置2810と同じ画質傾向を持つ撮影装置から取得された画像であってもよい。 In this embodiment, the input data of the teacher data is an image acquired with the same model as the imaging device 2810 and the same settings as the imaging device 2810 . Note that the input data of the teacher data may be an image acquired from an imaging device having the same image quality tendency as the imaging device 2810 .

また、教師データの出力データは、入力データに対応する領域ラベル画像である。例えば、図24を参照して説明すると、入力データは、OCTによって撮影された網膜層の断層画像Im2410である。また、出力データは、断層画像Im2410に描出された網膜層の種類に合わせて、対応する座標に網膜層の種類を表す領域ラベル値を付して、各領域を分けた領域ラベル画像Im2420である。領域ラベル画像は、断層画像を参照して専門医が作成したり、任意の画像セグメンテーション処理によって作成したり、該画像セグメンテーション処理によって作成された領域ラベル画像を専門医が修正して作成したりすることによって用意できる。 Also, the output data of the teacher data is the region label image corresponding to the input data. For example, referring to FIG. 24, input data is a tomographic image Im2410 of a retinal layer captured by OCT. The output data is a region label image Im2420 obtained by adding region label values representing the types of retinal layers to the corresponding coordinates according to the types of retinal layers depicted in the tomographic image Im2410, and dividing each region. . A region label image is created by a medical specialist referring to a tomographic image, by arbitrary image segmentation processing, or by a medical specialist correcting the region label image created by the image segmentation processing. I can prepare.

なお、教師データのペア群の入力データ群には処理対象として想定される、様々な条件を有する入力画像が網羅的に含まれる。様々な条件とは、具体的には、被検者の病態、撮影装置の撮影環境、撮影者の技術レベル等のバリエーションの組み合わせの違いによって生じる画像の条件である。入力データ群に含まれる画像の条件が網羅的になることによって、従来の画像セグメンテーション処理では精度が低くなってしまう悪条件の画像に対しても、精度の高い画像セグメンテーション処理が実施可能なように機械学習モデルがトレーニングされる。そのため、セグメンテーション処理部2804は、このようなトレーニングが行われた学習済モデルを含む画像セグメンテーションエンジンを用いることで、様々な条件の画像に対して、安定して精度の高い領域ラベル画像を生成することができる。 The input data group of the teacher data pair group exhaustively includes input images having various conditions assumed to be processed. The various conditions are, specifically, image conditions caused by different combinations of variations such as the condition of the subject, the imaging environment of the imaging device, and the technical level of the photographer. By making the conditions of the images included in the input data group exhaustive, it is possible to perform highly accurate image segmentation processing even for images with poor conditions for which the accuracy of conventional image segmentation processing is low. A machine learning model is trained. Therefore, the segmentation processing unit 2804 uses an image segmentation engine that includes a trained model that has undergone such training to stably generate highly accurate region label images for images under various conditions. be able to.

なお、教師データを構成するペア群のうち、画像セグメンテーション処理に寄与しないペアは教師データから取り除くことができる。例えば、教師データのペアを構成する出力データである領域ラベル画像の領域ラベル値が誤っている場合には、当該教師データを用いて学習した学習済モデルを用いて得た領域ラベル画像の領域ラベル値も誤ってしまう可能性が高くなる。つまり、画像セグメンテーション処理の精度が低くなる。そのため、誤った領域ラベル値を持つ領域ラベル画像を出力データに持つ、ペアを教師データから取り除くことで、画像セグメンテーションエンジンに含まれる学習済モデルの精度を向上できる可能性がある。 It should be noted that pairs that do not contribute to the image segmentation processing can be removed from the training data among the pair group that constitutes the training data. For example, if the region label value of the region label image, which is the output data constituting the teacher data pair, is incorrect, the region label of the region label image obtained using the trained model trained using the teacher data Values are also more likely to be incorrect. In other words, the accuracy of the image segmentation process is lowered. Therefore, it is possible to improve the accuracy of the trained model included in the image segmentation engine by removing pairs that have region label images with erroneous region label values in the output data from the training data.

このような学習済モデルを含む画像セグメンテーションエンジンを用いることで、セグメンテーション処理部2804は、撮影で取得された医用画像が入力された場合に、該医用画像に描出された臓器や病変を特定可能な領域ラベル画像を出力することができる。 By using an image segmentation engine including such a trained model, the segmentation processing unit 2804 can identify organs and lesions depicted in the medical image when a medical image obtained by imaging is input. A region label image can be output.

次に、図29のフローチャートを参照して、本実施例に係る一連の画像処理について説明する。図29は本実施例に係る一連の画像処理のフローチャートである。まず、本実施例に係る一連の画像処理が開始されると、処理はステップS2910に移行する。 Next, a series of image processing according to this embodiment will be described with reference to the flowchart of FIG. FIG. 29 is a flow chart of a series of image processing according to this embodiment. First, when a series of image processing according to this embodiment is started, the process moves to step S2910.

ステップS2910では、取得部2801が、回路やネットワークを介して接続された撮影装置2810から、撮影装置2810が撮影した画像を入力画像として取得する。なお、取得部2801は、撮影装置2810からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、撮影装置2810が画像を生成した時、撮影装置2810が生成した画像を撮影装置2810の記録装置に保存する前や保存した後、保存された画像を表示部2820に表示する時、画像解析処理に領域ラベル画像を利用する時等に発行されてよい。 In step S2910, the acquisition unit 2801 acquires an image captured by the imaging device 2810 as an input image from the imaging device 2810 connected via a circuit or network. Note that the acquisition unit 2801 may acquire an input image in response to a request from the imaging device 2810 . For example, when the imaging device 2810 generates an image, such a request is made before or after saving the image generated by the imaging device 2810 in the recording device of the imaging device 2810, and displaying the saved image on the display unit 2820. It may be issued when displaying, when using the region label image for image analysis processing, and the like.

なお、取得部2801は、撮影装置2810から画像を生成するためのデータを取得し、画像処理装置2800が当該データに基づいて生成した画像を入力画像として取得してもよい。この場合、画像処理装置2800が各種画像を生成するための画像生成方法としては、既存の任意の画像生成方法を採用してよい。 Note that the acquisition unit 2801 may acquire data for generating an image from the imaging device 2810 and acquire an image generated based on the data by the image processing device 2800 as the input image. In this case, any existing image generation method may be employed as an image generation method for the image processing apparatus 2800 to generate various images.

ステップS2920では、撮影条件取得部2802が、入力画像の撮影条件群を取得する。具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。なお、上述のように、入力画像に撮影条件が保存されていない場合には、撮影条件取得部2802は、撮影装置2810や不図示の画像管理システムから撮影情報群を取得することができる。 In step S2920, the imaging condition acquisition unit 2802 acquires a group of imaging conditions for the input image. Specifically, according to the data format of the input image, the imaging condition group stored in the data structure forming the input image is obtained. As described above, if the input image does not store the imaging conditions, the imaging condition acquisition unit 2802 can acquire the imaging information group from the imaging device 2810 or an image management system (not shown).

ステップS2930においては、処理可否判定部2803が、取得された撮影条件群を用いて、セグメンテーション処理部2804が用いる画像セグメンテーションエンジンによって入力画像を画像セグメンテーション処理可能であるか否かを判定する。具体的には、処理可否判定部2803は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズが、画像セグメンテーションエンジンの学習済モデルを用いて対処可能な条件と一致するか否かを判定する。 In step S2930, the processability determination unit 2803 determines whether the image segmentation engine used by the segmentation processing unit 2804 can perform image segmentation processing on the input image using the acquired imaging condition group. Specifically, the processability determination unit 2803 determines whether or not the imaging region, imaging method, imaging angle of view, and image size of the input image match conditions that can be handled using the trained model of the image segmentation engine. judge.

処理可否判定部2803が、すべての撮影条件を判定し、対処可能と判定された場合には、処理はステップS2940に移行する。一方、処理可否判定部2803が、これら撮影条件に基づいて、画像セグメンテーションエンジンが入力画像を対処不可能であると判定した場合には、処理はステップS2970に移行する。 If the process propriety determination unit 2803 determines all the imaging conditions and determines that the condition can be handled, the process proceeds to step S2940. On the other hand, if the processing enable/disable determining unit 2803 determines that the image segmentation engine cannot handle the input image based on these shooting conditions, the process proceeds to step S2970.

なお、画像処理装置2800の設定や実装形態によっては、撮影部位、撮影方式、撮影画角、及び画像サイズのうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS2940が実施されてもよい。例えば、画像セグメンテーションエンジンが、被検者のいずれの撮影部位に対しても網羅的に対応可能であると想定され、入力データに未知の撮影部位が含まれていたとしても対処可能であるように実装されている場合等には、このような処理を行ってもよい。また、処理可否判定部2803は所望の構成に応じて、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズのうちの少なくとも一つが画像セグメンテーションエンジンによって対処可能な条件と一致するか否かを判定してもよい。 Depending on the settings and implementation of the image processing apparatus 2800, even if it is determined that the input image cannot be processed based on some of the imaging region, imaging method, imaging angle of view, and image size, Step S2940 may be performed. For example, it is assumed that the image segmentation engine can comprehensively handle any imaging part of the subject, and even if the input data contains an unknown imaging part, it can be handled. Such processing may be performed if it is implemented. In addition, the processing enable/disable determining unit 2803 determines whether or not at least one of the imaging region, imaging method, imaging angle of view, and image size of the input image matches a condition that can be dealt with by the image segmentation engine according to the desired configuration. It may be determined whether

ステップS2940においては、セグメンテーション処理部2804が、画像セグメンテーションエンジンを用いて、入力画像に対して画像セグメンテーション処理を行い、入力画像から領域ラベル画像を生成する。具体的には、セグメンテーション処理部2804は、入力画像を画像セグメンテーションエンジンに入力する。画像セグメンテーションエンジンは、教師データを用いて機械学習を行った学習済モデルに基づいて、入力画像に描出された臓器や病変を特定可能な領域情報として領域ラベル画像を生成する。 In step S2940, the segmentation processing unit 2804 uses the image segmentation engine to perform image segmentation processing on the input image and generate region label images from the input image. Specifically, the segmentation processing unit 2804 inputs the input image to the image segmentation engine. The image segmentation engine generates a region label image as region information that can identify organs and lesions depicted in the input image based on a trained model that has undergone machine learning using teacher data.

なお、画像処理装置2800の設定や実装形態によっては、セグメンテーション処理部2804が、撮影条件群に応じて、画像セグメンテーションエンジンに入力画像とともにパラメータを入力して、画像セグメンテーション処理の範囲の程度等を調節してもよい。また、セグメンテーション処理部2804は、検者の入力に応じたパラメータを画像セグメンテーションエンジンに入力画像とともに入力して画像セグメンテーション処理の範囲の程度等を調整してもよい。 Note that depending on the settings and implementation of the image processing apparatus 2800, the segmentation processing unit 2804 inputs parameters together with the input image to the image segmentation engine according to the imaging condition group, and adjusts the degree of the range of image segmentation processing. You may In addition, the segmentation processing unit 2804 may input parameters according to the input of the examiner to the image segmentation engine together with the input image to adjust the degree of the range of image segmentation processing.

ステップS2950では、評価部2805が領域ラベル画像評価エンジンを用いて、セグメンテーション処理部2804によって生成された領域ラベル画像について、当該領域ラベル画像が尤もらしい画像か否かを評価する。本実施例では、評価部2805は、知識ベースの評価方法を用いる領域ラベル評価エンジンを用いて、領域ラベル画像が尤もらしい画像か否かを評価する。 In step S2950, the evaluation unit 2805 uses the region label image evaluation engine to evaluate whether the region label image generated by the segmentation processing unit 2804 is a plausible image. In this embodiment, the evaluator 2805 uses a region label evaluation engine that employs a knowledge-based evaluation method to evaluate whether the region labeled image is a plausible image.

具体的には、領域ラベル評価エンジンは、領域ラベル画像における画素値群、すなわち、領域ラベル値群の座標を確認し、位置が解剖学的に正しい位置に出力されているか否かを評価する。この場合、例えば、ある範囲において前眼部に近い座標に水晶体に対応する領域ラベル値があり、遠い座標に網膜層群に対応する領域ラベル値があれば、尤もらしく画像セグメンテーション処理できていると評価する。一方、これらの領域ラベル値がそのような想定される位置にない場合には、適切に画像セグメンテーション処理できていないと評価する。領域ラベル評価エンジンは、領域ラベルについて、尤もらしく画像セグメンテーション処理できていると評価した場合には画像評価指数として真値を出力し、尤もらしく画像セグメンテーション処理できていないと評価した場合には偽値を出力する。 Specifically, the region label evaluation engine checks the pixel values in the region label image, ie, the coordinates of the region label value group, and evaluates whether the positions are output to anatomically correct positions. In this case, for example, if there is a region label value corresponding to the crystalline lens at coordinates close to the anterior segment and a region label value corresponding to the retinal layer group at coordinates far from the anterior segment in a certain range, it is plausible that the image segmentation process can be performed. evaluate. On the other hand, if these region label values are not at such expected locations, then we assess that the image segmentation process has not been performed properly. The region label evaluation engine outputs a true value as an image evaluation index when the region label is evaluated as plausibly processed for image segmentation, and outputs a false value when evaluated as plausibly processed for image segmentation. to output

評価部2805は、領域ラベル評価エンジンから出力された画像評価指数に基づいて、領域ラベル画像を出力するか否かを判断する。具体的には、評価部2805は、画像評価指数が真値である場合には領域ラベル画像を出力すると判断する。一方、画像評価指数が偽値である場合にはセグメンテーション処理部2804で生成された領域ラベル画像を出力しないと判断する。なお、評価部2805は、セグメンテーション処理部2804で生成した領域ラベル画像を出力しないと判断した場合に、領域ラベル無し画像を生成することができる。 The evaluation unit 2805 determines whether to output the region label image based on the image evaluation index output from the region label evaluation engine. Specifically, the evaluation unit 2805 determines that an area label image is to be output when the image evaluation index is a true value. On the other hand, if the image evaluation index is a false value, it is determined not to output the region label image generated by the segmentation processing unit 2804 . Note that the evaluation unit 2805 can generate an image without a region label when determining that the region label image generated by the segmentation processing unit 2804 is not to be output.

ステップS2960では、解析部2806が、評価部2805によって領域ラベル画像を出力すると判断されたら、領域ラベル画像及び入力画像を用いて、入力画像の画像解析処理を行う。解析部2806は、例えば、画像解析処理により入力画像に描出されている層厚や組織形状の変化等を算出する。なお、画像解析処理の方法は既知の任意の処理を採用してよい。また、評価部2805によって領域ラベル画像を出力しないと判断された場合又は領域ラベル無し画像が生成された場合には、画像解析を行わずに処理を進める。 In step S2960, when the evaluation unit 2805 determines that the region label image is to be output, the analysis unit 2806 performs image analysis processing of the input image using the region label image and the input image. The analysis unit 2806 calculates, for example, changes in layer thickness and tissue shape depicted in the input image by image analysis processing. Any known processing may be adopted as the image analysis processing method. If the evaluation unit 2805 determines not to output an area label image or if an image without an area label is generated, the process proceeds without image analysis.

ステップS2970では、出力部2807が、評価部2805によって領域ラベル画像を出力すると判断されたら、領域ラベル画像及び画像解析結果を出力して、表示部2820に表示させる。なお、出力部2807は、表示部2820に領域ラベル画像及び画像解析結果を表示させるのに代えて、撮影装置2810や他の装置にこれらを表示させたり、記憶させたりしてもよい。また、出力部2807は、画像処理装置2800の設定や実装形態によっては、これらを撮影装置2810や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。また、出力部2807は、領域ラベル画像及び画像解析結果の両方を出力する構成に限られず、これらのうちのいずれか一方のみを出力してもよい。 In step S2970, if the evaluation unit 2805 determines to output the region label image, the output unit 2807 outputs the region label image and the image analysis result and causes the display unit 2820 to display them. Note that the output unit 2807 may cause the imaging device 2810 or another device to display or store the region label image and the image analysis result instead of displaying the region label image and the image analysis result on the display unit 2820 . Depending on the settings and implementation of the image processing apparatus 2800, the output unit 2807 processes these so that they can be used by the imaging apparatus 2810 and other apparatuses, or converts them into data formats that can be transmitted to an image management system or the like. may be converted. Also, the output unit 2807 is not limited to outputting both the region label image and the image analysis result, and may output only one of them.

一方、ステップS2930において画像セグメンテーション処理が不可能であるとされていた場合には、出力部2807は、領域ラベル画像の一種である領域ラベル無し画像を出力し、表示部2820に表示させる。なお、領域ラベル無し画像を出力する代わりに、撮影装置2810に対して、画像セグメンテーション処理が不可能であったことを示す信号を送信してもよい。 On the other hand, if it is determined in step S2930 that the image segmentation processing is impossible, the output unit 2807 outputs an image without region label, which is a type of region label image, and causes the display unit 2820 to display it. It should be noted that instead of outputting the region-unlabeled image, a signal indicating that the image segmentation process was not possible may be sent to the imaging device 2810 .

また、ステップS2950において画像セグメンテーション処理を適切に行えなかったと判断された場合にも、出力部2807は、領域ラベル無し画像を出力し、表示部2820に表示させる。この場合にも、出力部2807は、領域ラベル無し画像を出力する代わりに、撮影装置2810に対して、画像セグメンテーション処理を適切に行えなかったことを示す信号を送信してもよい。ステップS2970における出力処理が終了すると、一連の画像処理が終了する。 Moreover, even when it is determined in step S2950 that the image segmentation processing could not be performed appropriately, the output unit 2807 outputs the region-unlabeled image and causes the display unit 2820 to display it. In this case as well, the output unit 2807 may send a signal indicating that the image segmentation processing could not be performed properly to the imaging device 2810 instead of outputting the region-unlabeled image. When the output processing in step S2970 ends, the series of image processing ends.

上記のように、本実施例に係る画像処理装置2800は、取得部2801と、セグメンテーション処理部2804を備える。取得部2801は、被検者の所定部位の断層画像である入力画像を取得する。セグメンテーション処理部2804は、学習済モデルを含む画像セグメンテーションエンジンを用いて、入力画像から、解剖学的な領域を識別可能な領域情報である領域ラベル画像を生成する。画像セグメンテーションエンジンは、様々な条件の断層画像と、領域ラベル画像とを学習データとした学習済モデルを含む。当該画像セグメンテーションエンジンは、断層画像を入力とし、領域ラベル画像を出力とする。 As described above, the image processing apparatus 2800 according to this embodiment includes the acquisition unit 2801 and the segmentation processing unit 2804 . Acquisition unit 2801 acquires an input image that is a tomographic image of a predetermined region of the subject. A segmentation processing unit 2804 uses an image segmentation engine including a trained model to generate a region label image, which is region information capable of identifying anatomical regions, from the input image. The image segmentation engine includes a trained model using tomographic images under various conditions and region labeled images as learning data. The image segmentation engine takes the tomographic image as input and the region label image as output.

また、画像処理装置2800は、評価部2805を更に備える。評価部2805は、解剖学的特徴を用いた知識ベースの評価エンジンを用いて領域ラベル画像を評価し、評価の結果に応じて領域ラベル画像を出力するか否かを判断する。 Also, the image processing apparatus 2800 further includes an evaluation unit 2805 . The evaluation unit 2805 evaluates the region label image using a knowledge-based evaluation engine using anatomical features, and determines whether to output the region label image according to the evaluation result.

当該構成により、本実施例に係る画像処理装置2800は、学習済モデルを含むセグメンテーションエンジンを用いて、画像診断や画像解析に利用可能なROIやVOIを特定するために用いる領域情報として領域ラベル画像を生成することができる。そのため、従来のセグメンテーション処理について悪条件な入力画像に対しても、精度の高い領域ラベル画像を出力することができ、画像診断や画像解析に利用可能なROIやVOIを提供できる。 With this configuration, the image processing apparatus 2800 according to the present embodiment uses a segmentation engine including a trained model to generate region label images as region information used to identify ROIs and VOIs that can be used for image diagnosis and image analysis. can be generated. Therefore, it is possible to output a region label image with high accuracy even for an input image with poor conditions for conventional segmentation processing, and to provide ROIs and VOIs that can be used for image diagnosis and image analysis.

さらに、画像処理装置2800は、評価部2805によって領域ラベル画像が尤もらしい画像か否か評価することで、画像診断や画像解析に不適切な領域ラベル画像が用いられることを防止することができる。 Furthermore, the image processing apparatus 2800 can prevent inappropriate area label images from being used for image diagnosis and image analysis by evaluating whether or not the area label image is a plausible image by the evaluation unit 2805 .

また、画像処理装置2800は、撮影条件取得部2802と、処理可否判定部2803とを更に備える。撮影条件取得部2802は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つを含む撮影条件を取得する。処理可否判定部2803は、画像セグメンテーションエンジンを用いて入力画像から領域ラベル画像を生成可能であるか否かを判定する。処理可否判定部2803は、入力画像の撮影条件に基づいて当該判定を行う。 The image processing apparatus 2800 further includes an imaging condition acquisition unit 2802 and a processing propriety determination unit 2803 . The imaging condition acquisition unit 2802 acquires imaging conditions including at least one of the imaging region of the input image, the imaging method, the imaging angle of view, and the image size. A process propriety determination unit 2803 determines whether or not an area label image can be generated from an input image using the image segmentation engine. The processing enable/disable determination unit 2803 performs the determination based on the shooting conditions of the input image.

当該構成により、本実施例に係る画像処理装置2800は、セグメンテーション処理部2804が処理できない入力画像を画像セグメンテーション処理から省くことができ、画像処理装置2800の処理負荷やエラーの発生を低減させることができる。 With this configuration, the image processing apparatus 2800 according to the present embodiment can omit an input image that cannot be processed by the segmentation processing unit 2804 from the image segmentation process, thereby reducing the processing load of the image processing apparatus 2800 and the occurrence of errors. can.

さらに、画像処理装置2800は、領域情報である領域ラベル画像を用いて、入力画像の画像解析を行う解析部2806を更に備える。当該構成により、画像処理装置2800は、セグメンテーション処理部2804によって生成された精度の高い領域ラベル画像を用いて画像解析を行うことができ、精度の高い解析結果を得ることができる。 Furthermore, the image processing apparatus 2800 further includes an analysis unit 2806 that performs image analysis on the input image using the region label image that is region information. With this configuration, the image processing apparatus 2800 can perform image analysis using highly accurate region label images generated by the segmentation processing unit 2804, and obtain highly accurate analysis results.

本実施例においては、処理可否判定部2803が、画像セグメンテーションエンジンによって画像セグメンテーション処理可能な入力画像であるか否かを判定する。その後、処理可否判定部2803が、セグメンテーション処理部2804によって処理可能な入力画像であると判定した場合に、セグメンテーション処理部2804が画像セグメンテーション処理を行う。これに対し、撮影装置2810によって、画像セグメンテーション処理可能な撮影条件でのみ撮影が行なわれる等の場合には、撮影装置2810から取得した画像に対し無条件に画像セグメンテーション処理を行ってもよい。この場合には、図30に示すように、ステップS2920とステップS2930の処理を省き、ステップS2910の次にステップS2940を実施することができる。 In this embodiment, the processability determination unit 2803 determines whether or not the input image can be subjected to image segmentation processing by the image segmentation engine. Thereafter, when the processability determination unit 2803 determines that the input image can be processed by the segmentation processing unit 2804, the segmentation processing unit 2804 performs image segmentation processing. On the other hand, if the imaging device 2810 performs imaging only under imaging conditions that allow image segmentation processing, the image acquired from the imaging device 2810 may be unconditionally subjected to image segmentation processing. In this case, as shown in FIG. 30, steps S2920 and S2930 can be omitted, and step S2940 can be performed after step S2910.

なお、本実施例においては、出力部2807(表示制御部)は、生成された領域ラベル画像や解析結果を表示部2820に表示させる構成としたが、出力部2807の動作はこれに限られない。例えば、出力部2807は、領域ラベル画像や解析結果を撮影装置2810や画像処理装置2800に接続される他の装置に出力することもできる。このため、領域ラベル画像や解析結果は、これらの装置のユーザーインターフェースに表示されたり、任意の記録装置に保存されたり、任意の画像解析に利用されたり、画像管理システムに送信されたりすることができる。 In this embodiment, the output unit 2807 (display control unit) is configured to display the generated region label image and the analysis result on the display unit 2820, but the operation of the output unit 2807 is not limited to this. . For example, the output unit 2807 can also output the region label image and the analysis result to other devices connected to the imaging device 2810 and the image processing device 2800 . As such, the region label images and analysis results may be displayed in the user interfaces of these devices, stored on any recording device, used for any image analysis, or sent to an image management system. can.

また、本実施例においては、出力部2807が、表示部2820に領域ラベル画像や画像解析結果を表示させる構成とした。しかしながら、出力部2807は、検者からの指示に応じて、領域ラベル画像や画像解析結果を表示部2820に表示させてもよい。例えば、出力部2807は、検者が表示部2820のユーザーインターフェース上の任意のボタンを押すことに応じて、領域ラベル画像や画像解析結果を表示部2820に表示させてもよい。この場合、出力部2807は、入力画像と切り替えて領域ラベル画像を表示させてもよい。また、出力部2807は、図31のように入力画像UI3110と並べて領域ラベル画像UI3120を表示させてもよいし、図32のUI3210~UI3240のいずれかのように入力画像と半透明化した領域ラベル画像とを重畳して表示させてもよい。なお、半透明化の方法は既知の任意のものであってよく、例えば、領域ラベル画像の透明度を所望の値に設定することで、領域ラベル画像を半透明化することができる。 Also, in this embodiment, the output unit 2807 is configured to display the area label image and the image analysis result on the display unit 2820 . However, the output unit 2807 may display the region label image and the image analysis result on the display unit 2820 in accordance with instructions from the examiner. For example, the output unit 2807 may cause the display unit 2820 to display the region label image or the image analysis result in response to the examiner pressing any button on the user interface of the display unit 2820 . In this case, the output unit 2807 may display the region label image by switching from the input image. The output unit 2807 may display an area label image UI 3120 side by side with the input image UI 3110 as shown in FIG. An image may be superimposed and displayed. Any known translucency method may be used. For example, the area label image can be made translucent by setting the transparency of the area label image to a desired value.

また、出力部2807は、領域ラベル画像が学習済モデルを用いて生成されたものである旨や学習済モデルを用いて生成された領域ラベル画像に基づいて行われた画像解析の結果である旨を表示部2820に表示させてもよい。さらに、出力部2807は、学習済モデルがどのような教師データによって学習を行ったものであるかを示す表示を表示部2820に表示させてもよい。当該表示としては、教師データの入力データと出力データの種類の説明や、入力データと出力データに含まれる撮影部位等の教師データに関する任意の表示を含んでよい。 In addition, the output unit 2807 outputs information indicating that the region label image has been generated using the trained model and that it is the result of image analysis performed based on the region label image generated using the trained model. may be displayed on the display unit 2820. Furthermore, the output unit 2807 may cause the display unit 2820 to display a display showing what kind of teacher data the trained model has learned. The display may include a description of the types of input data and output data of the teacher data, and any display related to the teacher data such as imaging regions included in the input data and output data.

本実施例では、処理可否判定部2803が、画像セグメンテーションエンジンによって入力画像が対処可能であると判断したら、処理がステップS2940に移行して、セグメンテーション処理部2804による画像セグメンテーション処理が開始された。これに対し、出力部2807が処理可否判定部2803による判定結果を表示部2820に表示させ、セグメンテーション処理部2804が検者からの指示に応じて画像セグメンテーション処理を開始してもよい。この際、出力部2807は、判定結果とともに、入力画像や入力画像について取得した撮影部位等の撮影条件を表示部2820に表示させることもできる。この場合には、検者によって判定結果が正しいか否か判断された上で、画像セグメンテーション処理が行われるため、誤判定に基づく画像セグメンテーション処理を低減させることができる。 In this embodiment, when the processability determination unit 2803 determines that the input image can be processed by the image segmentation engine, the process proceeds to step S2940, and the image segmentation process by the segmentation processing unit 2804 is started. On the other hand, the output unit 2807 may cause the display unit 2820 to display the judgment result by the processing feasibility judgment unit 2803, and the segmentation processing unit 2804 may start image segmentation processing according to an instruction from the examiner. At this time, the output unit 2807 can also cause the display unit 2820 to display the input image and the imaging conditions such as the imaging region acquired for the input image together with the determination result. In this case, image segmentation processing is performed after the examiner determines whether or not the determination result is correct, so image segmentation processing based on erroneous determination can be reduced.

また、これに関連して、処理可否判定部2803による判定を行わず、出力部2807が入力画像や入力画像について取得した撮影部位等の撮影条件を表示部2820に表示させてもよい。この場合には、セグメンテーション処理部2804が検者からの指示に応じて画像セグメンテーション処理を開始することができる。 In relation to this, the display unit 2820 may display the input image and imaging conditions such as the imaging region acquired for the input image by the output unit 2807 without performing the determination by the processing propriety determination unit 2803 . In this case, the segmentation processing unit 2804 can start image segmentation processing according to an instruction from the examiner.

さらに、本実施例では、評価部2805は、知識ベースの評価方法を採用する領域ラベル画像評価エンジンを用いて、セグメンテーション処理部2804によって生成された領域ラベル画像を評価した。これに対し、評価部2805は、領域ラベル画像と所定の評価手法による画像評価指数を教師データとしてトレーニングを行った学習済モデルを含む領域ラベル画像評価エンジンを用いて、領域ラベル画像が尤もらしい画像か否かを評価してもよい。 Furthermore, in this example, the evaluation unit 2805 evaluated the region label images generated by the segmentation processing unit 2804 using a region label image evaluation engine that employs a knowledge-based evaluation method. On the other hand, the evaluation unit 2805 uses an area label image evaluation engine that includes a trained model that has been trained using an area label image and an image evaluation index according to a predetermined evaluation method as teacher data to determine whether the area label image is a plausible image. It may be evaluated whether

この場合には、領域ラベル画像評価エンジンに含まれる機械学習モデルの教師データは、領域ラベル画像や領域ラベル画像らしい偽画像を入力データとし、各画像に対する画像評価指数を出力データとする。画像評価指数としては、入力データが適切な領域ラベル画像である場合には真値、偽画像である場合には偽値とする。なお、偽画像の生成方法としては、適切でない条件を設定した領域ラベル画像の任意のジェネレーターを用いる方法や、適切な領域ラベル画像に意図的に不適切な領域ラベルを上書きして生成する方法等を採用してよい。 In this case, the training data of the machine learning model included in the region label image evaluation engine uses region label images and false images that look like region label images as input data, and image evaluation indices for each image as output data. The image evaluation index is a true value when the input data is a proper area label image, and a false value when it is a false image. In addition, as a method of generating a false image, there is a method of using an arbitrary generator of an area label image with inappropriate conditions, a method of intentionally overwriting an appropriate area label image with an inappropriate area label, etc. may be adopted.

評価部2805が、このような学習を行った学習済モデルを含む領域ラベル画像評価エンジンを用いて、領域ラベル画像が尤もらしい画像か否かを評価した場合でも、画像診断や画像解析に不適切な領域ラベル画像が用いられることを防止することができる。 Even if the evaluation unit 2805 evaluates whether the region labeled image is a plausible image by using the region labeled image evaluation engine including the trained model that has undergone such learning, it is not suitable for image diagnosis or image analysis. It is possible to prevent the use of an inappropriate area label image.

なお、処理可否判定部2803によって画像セグメンテーション処理が不可能であると判定された場合において、領域ラベル無し画像は、出力部2807によって生成されてもよいし、処理可否判定部2803によって生成されてもよい。また、評価部2805によって画像セグメンテーションが適切に行われていないと判断された場合には、ステップS2970において出力部2807が、画像セグメンテーションを適切に行えなかった旨を表示部2820に表示させてもよい。 Note that when the processability determination unit 2803 determines that the image segmentation processing is not possible, the image without region label may be generated by the output unit 2807 or generated by the processability determination unit 2803. good. If the evaluation unit 2805 determines that the image segmentation has not been properly performed, the output unit 2807 may cause the display unit 2820 to display that the image segmentation has not been properly performed in step S2970. .

(実施例9)
次に、図28及び33を参照して、実施例9に係る画像処理装置について説明する。実施例8では、セグメンテーション処理部2804は、一つの画像セグメンテーションエンジンを備えていた。これに対して、本実施例では、セグメンテーション処理部は、異なる教師データを用いて機械学習を行ったそれぞれの学習済モデルを含む複数の画像セグメンテーションエンジンを用いて、入力画像に対して複数の領域ラベル画像を生成する。
(Example 9)
Next, an image processing apparatus according to a ninth embodiment will be described with reference to FIGS. 28 and 33. FIG. In Example 8, the segmentation processor 2804 had one image segmentation engine. On the other hand, in the present embodiment, the segmentation processing unit uses a plurality of image segmentation engines, each of which includes a trained model that has been machine-learned using different teacher data, to generate a plurality of regions for an input image. Generate a label image.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted.

本実施例に係るセグメンテーション処理部2804は、異なる教師データを用いて機械学習が行われたそれぞれの学習済モデルを含む二つ以上の画像セグメンテーションエンジンを用いて、入力画像に対して画像セグメンテーション処理を行う。 The segmentation processing unit 2804 according to this embodiment performs image segmentation processing on an input image using two or more image segmentation engines each including a trained model machine-learned using different teacher data. conduct.

ここで、本実施例に係る教師データ群の作成方法について説明する。具体的には、まず、様々な撮影部位が撮影された、入力データとしての画像と出力データとしての領域ラベル画像とのペア群を用意する。次に、撮影部位毎にペア群をグルーピングすることで、教師データ群を作成する。例えば、第一の撮影部位を撮影して取得されたペア群で構成される第一の教師データ、第二の撮影部位を撮影して取得されたペア群で構成される第二の教師データというように、教師データ群を作成する。 Here, a method of creating a teacher data group according to this embodiment will be described. Specifically, first, a group of pairs of an image as input data and a region label image as output data in which various imaging parts are imaged is prepared. Next, a teacher data group is created by grouping the pair groups for each imaging part. For example, first training data composed of a pair group obtained by imaging a first imaging part, and second training data composed of a pair group obtained by imaging a second imaging part Create a training data group as follows.

その後、各教師データを用いて、別々の画像セグメンテーションエンジンに含まれる機械学習モデルに機械学習を行わせる。例えば、第一の教師データでトレーニングされた学習済モデルを含む第一の画像セグメンテーションエンジンを用意する。加えて、第二の教師データでトレーニングされた学習済モデルを含む第二の画像セグメンテーションエンジンを用意する、というように画像セグメンテーションエンジン群を用意する。 Each training data is then used to machine-learn a machine-learning model contained in a separate image segmentation engine. For example, providing a first image segmentation engine that includes a trained model trained on first training data. In addition, a group of image segmentation engines are provided, such as a second image segmentation engine including a trained model trained with a second teacher data.

このような画像セグメンテーションエンジンは、それぞれが含む学習済モデルのトレーニングに用いた教師データが異なる。そのため、このような画像セグメンテーションエンジンは、画像セグメンテーションエンジンに入力される画像の撮影条件によって、入力画像を画像セグメンテーション処理できる程度が異なる。具体的には、第一の画像セグメンテーションエンジンは、第一の撮影部位を撮影して取得された入力画像に対しては画像セグメンテーション処理の精度が高く、第二の撮影部位を撮影して取得された画像に対しては画像セグメンテーション処理の精度が低い。同様に、第二の画像セグメンテーションエンジンは、第二の撮影部位を撮影して取得された入力画像に対しては画像セグメンテーション処理の精度が高く、第一の撮影部位を撮影して取得された画像に対しては画像セグメンテーション処理の精度が低い。 Such image segmentation engines differ in the training data used to train the learned models they contain. Therefore, such an image segmentation engine differs in the extent to which an input image can be subjected to image segmentation processing depending on the shooting conditions of the image input to the image segmentation engine. Specifically, the first image segmentation engine has high image segmentation processing accuracy for the input image acquired by imaging the first imaging region, and the image segmentation engine acquired by imaging the second imaging region. The accuracy of the image segmentation process is low for images with Similarly, the second image segmentation engine has high image segmentation processing accuracy for the input image acquired by imaging the second imaging region, and the image acquired by imaging the first imaging region. The accuracy of the image segmentation process is low for

教師データのそれぞれが撮影部位によってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、画像セグメンテーションエンジンは対応する撮影部位であれば、実施例8に係る画像セグメンテーションエンジンよりも精度良く画像セグメンテーション処理を行うことができる。なお、教師データのペアをグルーピングするための撮影条件は、撮影部位に限られず、撮影画角であったり、画像の解像度であったり、これらのうちの二つ以上の組み合わせであったりしてもよい。 Since each of the teacher data is composed of a pair group grouped according to an imaging part, the image quality tendencies of the image groups forming the pair group are similar. For this reason, the image segmentation engine can perform image segmentation processing with higher accuracy than the image segmentation engine according to the eighth embodiment, as long as it is a corresponding imaging part. The imaging condition for grouping pairs of training data is not limited to the imaging site, but may be the imaging angle of view, the resolution of the image, or a combination of two or more of these. good.

図33を参照して、本実施例に係る一連の画像処理について説明する。図33は、本実施例に係る一連の画像処理のフローチャートである。なお、ステップS3310及びステップS3320の処理は、実施例8に係るステップS2910及びステップS2920と同様であるため、説明を省略する。なお、入力画像に対して、無条件で画像セグメンテーション処理する場合には、ステップS3320の処理の後に、ステップS3330の処理を省き、処理をステップS3340に移行してよい。 A series of image processing according to this embodiment will be described with reference to FIG. FIG. 33 is a flowchart of a series of image processing according to this embodiment. It should be noted that the processing of steps S3310 and S3320 is the same as that of steps S2910 and S2920 according to the eighth embodiment, so the description thereof will be omitted. Note that if the input image is to be subjected to image segmentation processing unconditionally, after the processing of step S3320, the processing of step S3330 may be omitted and the processing may proceed to step S3340.

ステップS3320において入力画像の撮影条件が取得されると、処理はステップS3330に移行する。ステップS3330においては、処理可否判定部2803が、ステップS3320において取得した撮影条件群を用いて、前述の画像セグメンテーションエンジン群のいずれかが、入力画像を対処可能であるか否かを判定する。 When the imaging conditions for the input image are acquired in step S3320, the process proceeds to step S3330. In step S3330, the process propriety determination unit 2803 uses the imaging condition group acquired in step S3320 to determine whether or not any of the above-described image segmentation engine groups can process the input image.

処理可否判定部2803が、画像セグメンテーションエンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS3380に移行する。一方で、処理可否判定部2803が、画像セグメンテーションエンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS3340に移行する。なお、画像処理装置2800の設定や実装形態によっては、実施例8と同様に、画像セグメンテーションエンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS3340を実施してもよい。 If the process propriety determination unit 2803 determines that none of the image segmentation engines can process the input image, the process proceeds to step S3380. On the other hand, if the process possibility determination unit 2803 determines that any one of the image segmentation engine group can process the input image, the process proceeds to step S3340. It should be noted that even if the image segmentation engine determines that part of the shooting conditions cannot be dealt with, as in the eighth embodiment, step S3340 may be executed depending on the settings and implementation of the image processing apparatus 2800. good.

ステップS3340においては、セグメンテーション処理部2804が、ステップS3320で取得した入力画像の撮影条件及び画像セグメンテーションエンジン群の教師データの情報に基づいて、処理を行う画像セグメンテーションエンジンを選択する。具体的には、例えば、ステップS3320において取得した撮影条件群のうちの撮影部位に対して、同撮影部位又は周囲の撮影部位に関する教師データの情報を有し、画像セグメンテーション処理の精度が高い画像セグメンテーションエンジンを選択する。上述の例では、撮影部位が第一の撮影部位である場合には、セグメンテーション処理部2804は第一の画像セグメンテーションエンジンを選択する。 In step S3340, the segmentation processing unit 2804 selects an image segmentation engine to be processed based on the shooting conditions of the input image acquired in step S3320 and the training data information of the image segmentation engine group. Specifically, for example, for an imaging region in the imaging condition group acquired in step S3320, image segmentation having teacher data information about the imaging region or surrounding imaging regions and having high accuracy in image segmentation processing. Choose your engine. In the above example, the segmentation processor 2804 selects the first image segmentation engine if the imaging region is the first imaging region.

ステップS3350では、セグメンテーション処理部2804が、ステップS3340において選択した画像セグメンテーションエンジンを用いて、入力画像を画像セグメンテーション処理した領域ラベル画像を生成する。ステップS3360及びS3370は、実施例8におけるステップS2950及びS2960と同様であるため、説明を省略する。 In step S3350, the segmentation processing unit 2804 uses the image segmentation engine selected in step S3340 to generate region label images by subjecting the input image to image segmentation processing. Steps S3360 and S3370 are the same as steps S2950 and S2960 in the eighth embodiment, so description thereof will be omitted.

ステップS3370において画像解析が行われたら処理はステップS3380に移行する。ステップS3380では、出力部2807は、評価部2805によって領域ラベル画像を出力すると判断されたら、領域ラベル画像及び解析結果を出力して、表示部2820に表示させる。なお、出力部2807は、領域ラベル画像を表示部2820に表示させる際、セグメンテーション処理部2804によって選択された画像セグメンテーションエンジンを用いて生成された領域ラベル画像である旨を表示させてもよい。なお、出力部2807は、領域ラベル画像及び解析結果のいずれか一方のみを出力してもよい。 After image analysis is performed in step S3370, the process proceeds to step S3380. In step S3380, when the evaluation unit 2805 determines to output the region label image, the output unit 2807 outputs the region label image and the analysis result and causes the display unit 2820 to display them. When displaying the region label image on the display unit 2820, the output unit 2807 may display that the region label image is generated using the image segmentation engine selected by the segmentation processing unit 2804. FIG. Note that the output unit 2807 may output only one of the region label image and the analysis result.

一方、ステップS3330において画像セグメンテーション処理が不可能であるとされていた場合には、出力部2807は、領域ラベル画像の一種である領域ラベル無し画像を出力し、表示部2820に表示させる。なお、領域ラベル無し画像を生成する代わりに、撮影装置2810に対して、画像セグメンテーション処理が不可能であったことを示す信号を送信してもよい。 On the other hand, if it is determined in step S3330 that the image segmentation processing is impossible, the output unit 2807 outputs an area labelless image, which is a type of area label image, and causes the display unit 2820 to display it. It should be noted that instead of generating an unlabeled region image, a signal may be sent to the imager 2810 indicating that the image segmentation process was not possible.

また、ステップS3360において画像セグメンテーション処理を適切に行えなかったと判断された場合にも、出力部2807は、領域ラベル画像の一種である領域ラベル無し画像を出力し、表示部2820に表示させる。この場合にも、出力部2807は、領域ラベル無し画像を生成する代わりに、撮影装置2810に対して、画像セグメンテーション処理を適切に行えなかったことを示す信号を送信してもよい。ステップS3380における出力処理が終了すると、一連の画像処理が終了する。 Moreover, even when it is determined in step S3360 that the image segmentation processing could not be performed appropriately, the output unit 2807 outputs an area labelless image, which is a kind of area label image, and causes the display unit 2820 to display it. In this case also, the output unit 2807 may send a signal to the imaging device 2810 indicating that the image segmentation process could not be performed properly, instead of generating the region-unlabeled image. When the output processing in step S3380 ends, the series of image processing ends.

上記のように、本実施例に係るセグメンテーション処理部2804は、異なる学習データを用いて学習を行ったそれぞれの学習済モデルを含む複数の画像セグメンテーションエンジンの少なくとも一つを用いて、領域ラベル画像を生成する。本実施例では、複数の画像セグメンテーションエンジンの各々は、それぞれ撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行った学習済モデルを含む。セグメンテーション処理部2804は、入力画像の撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つに応じた画像セグメンテーションエンジンを用いて、領域ラベル画像を生成する。 As described above, the segmentation processing unit 2804 according to this embodiment uses at least one of a plurality of image segmentation engines including trained models trained using different training data to generate region label images. Generate. In this embodiment, each of the plurality of image segmentation engines includes a trained model trained using different learning data for at least one of the imaging region, imaging angle of view, and image resolution. The segmentation processing unit 2804 generates an area label image using an image segmentation engine that corresponds to at least one of the imaging site of the input image, the imaging angle of view, and the resolution of the image.

このような構成により、本実施例に係る画像処理装置2800は、撮影条件に合わせて、より精度の高い画像セグメンテーション処理を実施することができる。 With such a configuration, the image processing apparatus 2800 according to this embodiment can perform image segmentation processing with higher accuracy according to the imaging conditions.

本実施例では、セグメンテーション処理部2804が、入力画像の撮影条件に基づいて画像セグメンテーション処理に用いる画像セグメンテーションエンジンを選択したが、画像セグメンテーションエンジンの選択処理はこれに限られない。例えば、出力部2807が、取得した入力画像の撮影条件と画像セグメンテーションエンジン群を表示部2820のユーザーインターフェースに表示させてもよい。さらに、検者からの指示に応じて、セグメンテーション処理部2804が画像セグメンテーション処理に用いる画像セグメンテーションエンジンを選択してもよい。 In this embodiment, the segmentation processing unit 2804 selects an image segmentation engine to be used for image segmentation processing based on the shooting conditions of the input image, but image segmentation engine selection processing is not limited to this. For example, the output unit 2807 may cause the user interface of the display unit 2820 to display the acquired imaging conditions of the input image and the group of image segmentation engines. Furthermore, an image segmentation engine used for image segmentation processing by the segmentation processing unit 2804 may be selected according to an instruction from the examiner.

なお、出力部2807は、画像セグメンテーションエンジン群とともに各画像セグメンテーションエンジンの学習に用いた教師データの情報を表示部2820に表示させてもよい。なお、画像セグメンテーションエンジンの学習に用いた教師データの情報の表示態様は任意であってよく、例えば、学習に用いた教師データに関連する名称を用いて画像セグメンテーションエンジン群を表示してもよい。 Note that the output unit 2807 may cause the display unit 2820 to display the image segmentation engine group and the information of the teacher data used for learning of each image segmentation engine. Note that the information of the training data used for learning of the image segmentation engine may be displayed in any manner. For example, the image segmentation engine group may be displayed using a name associated with the training data used for learning.

また、出力部2807が、セグメンテーション処理部2804によって選択された画像セグメンテーションエンジンを表示部2820のユーザーインターフェースに表示させ、検者からの指示を受け付けてもよい。この場合、セグメンテーション処理部2804は、検者からの指示に応じて、当該画像セグメンテーションエンジンを画像セグメンテーション処理に用いる画像セグメンテーションエンジンとして最終的に選択するか否かを判断してもよい。 In addition, the output unit 2807 may display the image segmentation engine selected by the segmentation processing unit 2804 on the user interface of the display unit 2820 and receive instructions from the examiner. In this case, the segmentation processing unit 2804 may determine whether or not to finally select the image segmentation engine as the image segmentation engine to be used for image segmentation processing according to an instruction from the examiner.

なお、出力部2807は、実施例8と同様に、生成された領域ラベル画像や評価結果を撮影装置2810や画像処理装置2800に接続される他の装置に出力してもよい。また、出力部2807は、画像処理装置2800の設定や実装形態によっては、これらを撮影装置2810や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。 Note that the output unit 2807 may output the generated region label image and the evaluation result to another device connected to the imaging device 2810 or the image processing device 2800, as in the eighth embodiment. Depending on the settings and implementation of the image processing apparatus 2800, the output unit 2807 processes these so that they can be used by the imaging apparatus 2810 and other apparatuses, or converts them into data formats that can be transmitted to an image management system or the like. may be converted.

(実施例10)
次に、図28及び33を参照して、実施例10に係る画像処理装置について説明する。実施例8及び9では、撮影条件取得部2802は、入力画像のデータ構造等から撮影条件群を取得する。これに対して、本実施例では、撮影条件取得部は、撮影箇所推定エンジンを用いて、入力画像の撮影部位又は撮影領域を入力画像に基づいて推定する。
(Example 10)
Next, an image processing apparatus according to the tenth embodiment will be described with reference to FIGS. 28 and 33. FIG. In Embodiments 8 and 9, the imaging condition acquisition unit 2802 acquires the imaging condition group from the data structure of the input image. On the other hand, in this embodiment, the imaging condition acquisition unit uses the imaging location estimation engine to estimate the imaging part or imaging area of the input image based on the input image.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例9に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例9に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8及び9に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the ninth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the ninth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatuses according to the eighth and ninth embodiments, so the same reference numerals are used for the configuration shown in FIG. 28, and description thereof is omitted. do.

本実施例に係る撮影条件取得部2802は、撮影箇所推定エンジン(推定エンジン)を用いて、取得部2801が取得した入力画像に描画されている撮影部位又は撮影領域を推定し、取得する。本実施例に係る撮影箇所推定エンジンの備える撮影箇所の推定手法では、機械学習アルゴリズムを用いた推定処理を行う。 An imaging condition acquisition unit 2802 according to this embodiment estimates and acquires an imaging region or an imaging region drawn in an input image acquired by the acquisition unit 2801 using an imaging location estimation engine (estimation engine). In the method of estimating the shooting location provided by the shooting location estimation engine according to the present embodiment, an estimation process using a machine learning algorithm is performed.

本実施例では、機械学習アルゴリズムを用いた撮影箇所推定手法に係る学習済モデルのトレーニングには、画像である入力データと、入力データに対応する撮影部位ラベルである出力データとのペア群で構成された教師データを用いる。ここで、入力データとは、処理対象(入力画像)として想定される特定の撮影条件を持つ画像のことである。入力データとしては、撮影装置2810と同じ画質傾向を持つ撮影装置から取得された画像であることが好ましく、撮影装置2810と同じ設定をされた同じ機種であるとより良い。出力データである撮影部位ラベルの種類は、入力データに少なくとも一部が含まれている撮影部位であってよい。出力データである撮影部位ラベルの種類は、例えば、“黄斑部”、“視神経乳頭部”、“黄斑部及び視神経乳頭部”、並びに“その他”等であってよい。 In this embodiment, training of a trained model related to an imaging location estimation method using a machine learning algorithm consists of a pair group of input data, which is an image, and output data, which is an imaging region label corresponding to the input data. Use the training data that has been prepared. Here, the input data is an image having specific shooting conditions assumed as a processing target (input image). The input data is preferably an image acquired from an imaging device having the same image quality tendency as the imaging device 2810, and more preferably the same model with the same settings as the imaging device 2810. FIG. The type of imaging region label, which is output data, may be an imaging region at least partially included in the input data. The types of imaging site labels, which are output data, may be, for example, "macula", "optic papilla", "macula and optic papilla", and "others".

本実施例に係る撮影箇所推定エンジンは、このような教師データを用いた学習を行った学習済モデルを含むことにより、入力された画像に描出されている撮影部位や撮影領域がどこであるかを出力することができる。また、撮影箇所推定エンジンは、必要な詳細レベルの撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力することもできる。 The imaging location estimation engine according to the present embodiment includes a trained model that has undergone learning using such teacher data, so that it can determine where the imaging region and imaging region depicted in the input image are. can be output. The imaging location estimation engine can also output the probability of being the imaging region or imaging region for each imaging region label or imaging region label of a required level of detail.

撮影箇所推定エンジンを用いることで、撮影条件取得部2802は、入力画像に基づいて、入力画像の撮影部位や撮影領域を推定し、入力画像についての撮影条件として取得することができる。なお、撮影箇所推定エンジンが撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力する場合には、撮影条件取得部2802は、最も確率の高い撮影部位や撮影領域を入力画像の撮影条件として取得する。 By using the imaging location estimation engine, the imaging condition acquisition unit 2802 can estimate the imaging region and imaging region of the input image based on the input image, and acquire them as the imaging conditions for the input image. When the imaging location estimation engine outputs the probability of being the imaging location or imaging area for each imaging location label or imaging area label, the imaging condition acquisition unit 2802 selects the imaging location or imaging area with the highest probability. Acquired as the shooting conditions of the input image.

次に、実施例9と同様に、図33のフローチャートを参照して、本実施例に係る一連の画像処理について説明する。なお、本実施例に係るステップS3310、及びステップS3330~ステップS3380の処理は、実施例9におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、無条件で画像セグメンテーション処理する場合には、ステップS3320の処理の後に、ステップS3330の処理を省き、処理をステップS3340に移行してよい。 Next, as in the ninth embodiment, a series of image processing according to the present embodiment will be described with reference to the flowchart of FIG. Note that the processes in step S3310 and steps S3330 to S3380 according to the present embodiment are the same as those in the ninth embodiment, and thus description thereof is omitted. Note that if the input image is to be subjected to image segmentation processing unconditionally, after the processing of step S3320, the processing of step S3330 may be omitted and the processing may proceed to step S3340.

ステップS3310において入力画像が取得されると、処理はステップS3320に移行する。ステップS3320では、撮影条件取得部2802が、ステップS3310において取得した入力画像の撮影条件群を取得する。 Once the input image is obtained in step S3310, the process proceeds to step S3320. In step S3320, the imaging condition acquisition unit 2802 acquires the imaging condition group of the input image acquired in step S3310.

具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。また、撮影条件群に撮影部位や撮影領域に関する情報が含まれていない場合、撮影条件取得部2802は撮影箇所推定エンジンに入力画像を入力し、入力画像がどの撮影部位・撮影領域を撮影して取得されたものなのかを推定する。具体的には、撮影条件取得部2802は、撮影箇所推定エンジンに入力画像を入力し、撮影部位ラベル群又は撮影領域ラベル群のそれぞれに対して出力された確率を評価し、最も確率の高い撮影部位又は撮影領域を入力画像の撮影条件として設定・取得する。 Specifically, according to the data format of the input image, the imaging condition group stored in the data structure forming the input image is obtained. If the imaging condition group does not include information about the imaging region or imaging region, the imaging condition acquisition unit 2802 inputs the input image to the imaging region estimation engine, and determines which imaging region and imaging region the input image captures. Estimate what was acquired. Specifically, the imaging condition acquisition unit 2802 inputs an input image to the imaging location estimation engine, evaluates the probabilities output for each imaging region label group or imaging region label group, and determines the imaging condition with the highest probability. A part or imaging region is set/acquired as an imaging condition of an input image.

なお、入力画像に撮影部位や撮影領域以外の撮影条件が保存されていない場合には、撮影条件取得部2802は、撮影装置2810や不図示の画像管理システムから撮影情報群を取得することができる。以降の処理は、実施例9に係る一連の画像処理と同様であるため説明を省略する。 Note that if the input image does not store imaging conditions other than the imaging site and imaging region, the imaging condition acquisition unit 2802 can acquire imaging information groups from the imaging device 2810 or an image management system (not shown). . Since subsequent processing is the same as the series of image processing according to the ninth embodiment, description thereof is omitted.

上記のように、本実施例に係る撮影条件取得部2802は、学習済モデルを含む撮影箇所推定エンジンを用いて、入力画像から撮影部位及び撮影領域のうちの少なくとも一方を推定する推定部として機能する。撮影条件取得部2802は、撮影部位や撮影領域のラベルが付けられた画像を学習データとした学習済モデルを含む撮影箇所推定エンジンに入力画像を入力することで、入力画像の撮影部位や撮影領域を推定する。 As described above, the imaging condition acquiring unit 2802 according to this embodiment functions as an estimating unit that estimates at least one of the imaging part and imaging region from the input image using the imaging location estimation engine including the learned model. do. An imaging condition acquisition unit 2802 inputs an input image to an imaging location estimation engine that includes a trained model in which images labeled with imaging regions and imaging regions are used as learning data. to estimate

これにより、本実施例に係る画像処理装置2800は、入力画像の撮影部位や撮影領域についての撮影条件を入力画像に基づいて取得することができる。 Accordingly, the image processing apparatus 2800 according to the present embodiment can acquire imaging conditions for the imaging part and imaging region of the input image based on the input image.

なお、本実施例では、撮影条件取得部2802は、撮影条件群に撮影部位や撮影領域に関する情報が含まれていない場合に撮影箇所推定エンジンを用いて入力画像の撮影部位や撮影領域について推定を行った。しかしながら、撮影箇所推定エンジンを用いて撮影部位や撮影領域について推定を行う状況はこれに限られない。撮影条件取得部2802は、入力画像のデータ構造に含まれる撮影部位や撮影領域についての情報が、必要な詳細レベルの情報として不足している場合にも、撮影箇所推定エンジンを用いて撮影部位や撮影領域について推定を行ってもよい。 Note that in this embodiment, the imaging condition acquisition unit 2802 estimates the imaging part and imaging area of the input image using the imaging part estimation engine when the imaging condition group does not include information about the imaging part and imaging area. gone. However, the situation in which the imaging site estimation engine is used to estimate the imaging site and imaging area is not limited to this. The imaging condition acquisition unit 2802 uses the imaging part estimation engine to obtain the imaging part and the imaging area even when the information about the imaging part and the imaging area included in the data structure of the input image is insufficient as information of the required level of detail. An estimation may be made for the imaging area.

また、入力画像のデータ構造に撮影部位や撮影領域についての情報が含まれているか否かとは無関係に、撮影条件取得部2802が撮影箇所推定エンジンを用いて入力画像の撮影部位や撮影領域を推定してもよい。この場合、出力部2807が、撮影箇所推定エンジンから出力された推定結果と入力画像のデータ構造に含まれる撮影部位や撮影領域についての情報を表示部2820に表示させ、撮影条件取得部2802が検者の指示に応じて、これらの撮影条件を決定してもよい。 The imaging condition acquisition unit 2802 estimates the imaging part and imaging area of the input image using the imaging part estimation engine regardless of whether or not the data structure of the input image contains information about the imaging part and imaging area. You may In this case, the output unit 2807 causes the display unit 2820 to display the estimation result output from the imaging location estimation engine and the information about the imaging region and imaging region included in the data structure of the input image, and the imaging condition acquisition unit 2802 performs detection. These imaging conditions may be determined according to the instructions of the operator.

(実施例11)
次に、図28、29、34及び35を参照して、実施例11に係る画像処理装置について説明する。本実施例では、セグメンテーション処理部が、入力画像を画像セグメンテーションエンジンが対処可能な画像サイズになるように、入力画像を拡大又は縮小する。また、セグメンテーション処理部は、画像セグメンテーションエンジンからの出力画像を、入力画像の画像サイズになるように縮小又は拡大して領域ラベル画像を生成する。
(Example 11)
Next, an image processing apparatus according to the eleventh embodiment will be described with reference to FIGS. In this embodiment, the segmentation processor scales up or down the input image so that the input image has an image size that can be handled by the image segmentation engine. Also, the segmentation processing unit reduces or enlarges the output image from the image segmentation engine so that it has the image size of the input image to generate a region label image.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted.

本実施例に係るセグメンテーション処理部2804には、実施例8に係る画像セグメンテーションエンジンと同様の、画像セグメンテーションエンジンが備えられている。ただし、本実施例では、画像セグメンテーションエンジンが含む機械学習モデルの学習に用いる教師データが実施例8における教師データと異なる。具体的には、本実施例では、教師データとして、入力データの画像及び出力データの画像を一定の画像サイズになるように拡大又は縮小した画像群により構成した、入力データと出力データのペア群を用いている。 The segmentation processing unit 2804 according to this embodiment includes an image segmentation engine similar to the image segmentation engine according to the eighth embodiment. However, in this embodiment, the teacher data used for learning the machine learning model included in the image segmentation engine is different from the teacher data in the eighth embodiment. Specifically, in this embodiment, a group of pairs of input data and output data, which is formed by a group of images obtained by enlarging or reducing an image of input data and an image of output data so as to have a fixed image size, is used as training data. is used.

ここで、図34を参照して、本実施例に係る画像セグメンテーションエンジンが含む学習済モデルの教師データについて説明する。図34に示すように、例えば、教師データについて設定された一定の画像サイズより小さな入力画像Im3410と領域ラベル画像Im3420とがある場合を考える。この場合、教師データについて設定された一定の画像サイズとなるように、入力画像Im3410及び領域ラベル画像Im3420のそれぞれを拡大する。そして、拡大した画像Im3411と拡大した領域ラベル画像Im3421とをペアとして、当該ペアを教師データの一つとして用いる。 Now, with reference to FIG. 34, the teacher data of the learned model included in the image segmentation engine according to this embodiment will be described. As shown in FIG. 34, for example, consider a case where there are an input image Im3410 and an area label image Im3420 smaller than a certain image size set for the teacher data. In this case, each of the input image Im3410 and the region label image Im3420 is enlarged so as to have a constant image size set for the teacher data. Then, the enlarged image Im3411 and the enlarged area label image Im3421 are paired, and the pair is used as one of the teacher data.

なお、実施例8と同様に、教師データの入力データには、処理対象(入力画像)として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、及び撮影画角である。つまり、本実施例に係る当該特定の撮影条件には、実施例8と異なり、画像サイズは含まれない。 As in the eighth embodiment, an image having specific shooting conditions assumed as a processing target (input image) is used as the input data of the teacher data. They are the part, the imaging method, and the imaging angle of view. That is, unlike the eighth embodiment, the image size is not included in the specific imaging conditions according to the present embodiment.

本実施例に係るセグメンテーション処理部2804は、このような教師データで学習が行われた画像セグメンテーションエンジンを用いて、入力画像を画像セグメンテーション処理して領域ラベル画像を生成する。この際、セグメンテーション処理部2804は、入力画像を教師データについて設定された一定の画像サイズになるように拡大又は縮小した変形画像を生成し、変形画像を画像セグメンテーションエンジンに入力する。 The segmentation processing unit 2804 according to this embodiment uses an image segmentation engine trained with such teacher data to perform image segmentation processing on an input image to generate a region label image. At this time, the segmentation processing unit 2804 generates a deformed image by enlarging or reducing the input image to a certain image size set for the teacher data, and inputs the deformed image to the image segmentation engine.

また、セグメンテーション処理部2804は、画像セグメンテーションエンジンからの出力画像を入力画像の画像サイズになるように縮小又は拡大し、領域ラベル画像を生成する。このため、本実施例に係るセグメンテーション処理部2804は、実施例8では対処できなかった画像サイズの入力画像であっても、画像セグメンテーションエンジンを用いて画像セグメンテーション処理して領域ラベル画像を生成することができる。 Also, the segmentation processing unit 2804 reduces or enlarges the output image from the image segmentation engine so that it has the image size of the input image, and generates an area label image. For this reason, the segmentation processing unit 2804 according to this embodiment can generate an area label image by performing image segmentation processing using an image segmentation engine even for an input image having an image size that could not be dealt with in the eighth embodiment. can be done.

次に、図29及び35を参照して、本実施例に係る一連の画像処理について説明する。図35は、本実施例に係るセグメンテーション処理のフローチャートである。なお、本実施例に係るステップS2910、ステップS2920、及びステップS2950~ステップS2970の処理は、実施例8におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS2920の処理の後に、ステップS2930の処理を省き、処理をステップS2940に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. FIG. 35 is a flowchart of segmentation processing according to this embodiment. Note that the processes of steps S2910, S2920, and steps S2950 to S2970 according to the present embodiment are the same as those processes in the eighth embodiment, and thus description thereof is omitted. Note that if image segmentation processing is unconditionally performed on the input image with respect to imaging conditions other than the image size, the processing of step S2930 may be omitted after the processing of step S2920, and the processing may proceed to step S2940.

ステップS2920において、実施例8と同様に、撮影条件取得部2802が入力画像の撮影条件群を取得したら処理はステップS2930に移行する。ステップS2930では、処理可否判定部2803が、取得された撮影条件群を用いて、画像セグメンテーションエンジンによって入力画像を対処可能であるか否かを判定する。具体的には、処理可否判定部2803は、入力画像の撮影条件について、画像セグメンテーションエンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。処理可否判定部2803は、実施例8と異なり、画像サイズは判定しない。 In step S2920, similarly to the eighth embodiment, when the imaging condition acquisition unit 2802 acquires the imaging condition group of the input image, the process proceeds to step S2930. In step S2930, the process propriety determination unit 2803 determines whether or not the input image can be processed by the image segmentation engine using the acquired imaging condition group. Specifically, the process availability determination unit 2803 determines whether or not the imaging conditions of the input image are the imaging region, imaging method, and imaging angle of view that can be dealt with by the image segmentation engine. Unlike the eighth embodiment, the process propriety determination unit 2803 does not determine the image size.

処理可否判定部2803が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS2940に移行する。一方、処理可否判定部2803が、これら撮影条件に基づいて、画像セグメンテーションエンジンが入力画像を対処不可能であると判定した場合には、処理はステップS2970に移行する。なお、画像処理装置2800の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS2940における画像セグメンテーション処理が実施されてもよい。 The process propriety determination unit 2803 determines the imaging region, the imaging method, and the imaging angle of view, and if it is determined that the input image can be processed, the process proceeds to step S2940. On the other hand, if the processing enable/disable determining unit 2803 determines that the image segmentation engine cannot handle the input image based on these shooting conditions, the process proceeds to step S2970. Note that depending on the settings and implementation of the image processing apparatus 2800, even if it is determined that the input image cannot be processed based on part of the imaging region, imaging method, and imaging angle of view, An image segmentation process may be performed.

処理がステップS2940に移行すると、図35に示される本実施例に係る画像セグメンテーション処理が開始される。本実施例に係る画像セグメンテーション処理では、まず、ステップS3510において、セグメンテーション処理部2804が、入力画像を教師データについて設定された一定の画像サイズに拡大又は縮小し、変形画像を生成する。 When the process moves to step S2940, the image segmentation process according to this embodiment shown in FIG. 35 is started. In the image segmentation processing according to this embodiment, first, in step S3510, the segmentation processing unit 2804 enlarges or reduces the input image to a certain image size set for the teacher data to generate a deformed image.

次に、ステップS3520において、セグメンテーション処理部2804は、生成した変形画像を画像セグメンテーションエンジンに入力し、画像セグメンテーション処理された第一の領域ラベル画像を取得する。 Next, in step S3520, the segmentation processing unit 2804 inputs the generated deformed image to the image segmentation engine, and obtains the first region label image subjected to image segmentation processing.

その後、ステップS3530において、セグメンテーション処理部2804は、第一の領域ラベル画像を入力画像の画像サイズに縮小又は拡大し、最終的な領域ラベル画像を生成する。セグメンテーション処理部2804がステップS3530において最終的な領域ラベル画像を生成したら、本実施例に係る画像セグメンテーション処理は終了し、処理はステップS2950に移行する。ステップS2950以降の処理は、実施例8のステップS2950以降の処理と同様であるため説明を省略する。 Then, in step S3530, the segmentation processor 2804 reduces or enlarges the first region label image to the image size of the input image to generate the final region label image. After the segmentation processor 2804 has generated the final region label image in step S3530, the image segmentation process according to this embodiment ends and the process proceeds to step S2950. Since the processing after step S2950 is the same as the processing after step S2950 in the eighth embodiment, the description thereof is omitted.

上記のように、本実施例に係るセグメンテーション処理部2804は、入力画像の画像サイズを、画像セグメンテーションエンジンが対処可能な画像サイズに調整して画像セグメンテーションエンジンに入力する。また、セグメンテーション処理部2804は、画像セグメンテーションエンジンからの出力画像を入力画像の元の画像サイズに調整することで領域ラベル画像を生成する。これにより、本実施例の画像処理装置2800は、実施例8では対応しなかった画像サイズの入力画像についても画像セグメンテーション処理して、画像診断や画像解析に利用可能なROIやVOIの情報を含む領域ラベル画像を生成することができる。 As described above, the segmentation processing unit 2804 according to this embodiment adjusts the image size of the input image to an image size that can be handled by the image segmentation engine, and inputs the image to the image segmentation engine. Also, the segmentation processing unit 2804 generates a region label image by adjusting the output image from the image segmentation engine to the original image size of the input image. As a result, the image processing apparatus 2800 of the present embodiment performs image segmentation processing on an input image having an image size not supported in the eighth embodiment, and includes ROI and VOI information that can be used for image diagnosis and image analysis. A region label image can be generated.

(実施例12)
次に、図28、29、36及び37を参照して、実施例12に係る画像処理装置について説明する。本実施例では、セグメンテーション処理部が、画像セグメンテーションエンジンによる一定の解像度を基準とした画像セグメンテーション処理により領域ラベル画像を生成する。
(Example 12)
Next, an image processing apparatus according to the twelfth embodiment will be described with reference to FIGS. In this embodiment, the segmentation processing unit generates region label images through image segmentation processing based on a certain resolution by an image segmentation engine.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted.

本実施例に係るセグメンテーション処理部2804には、実施例8と同様の、画像セグメンテーションエンジンが備えられている。ただし、本実施例では、画像セグメンテーションエンジンが含む機械学習モデルの学習に用いる教師データが実施例8における教師データと異なる。具体的には、教師データの入力データと出力データとのペア群を構成する画像群の解像度が一定の解像度となるような画像サイズに当該画像群を拡大又は縮小した後、十分に大きい一定の画像サイズとなるようにパディングしている。ここで、画像群の解像度とは、例えば、撮影装置の空間分解能や撮影領域に対する解像度をいう。 The segmentation processing unit 2804 according to this embodiment includes an image segmentation engine similar to that of the eighth embodiment. However, in this embodiment, the teacher data used for learning the machine learning model included in the image segmentation engine is different from the teacher data in the eighth embodiment. Specifically, after enlarging or reducing the image group to an image size such that the resolution of the image group constituting the pair group of the input data and output data of the teacher data becomes a certain resolution, the image group is enlarged or reduced to a sufficiently large certain size. It is padded to the image size. Here, the resolution of an image group means, for example, the spatial resolution of an imaging device or the resolution of an imaging area.

ここで、図36を参照して、本実施例に係る画像セグメンテーションエンジンの教師データについて説明する。図36に示すように、例えば、教師データについて設定された一定の解像度より低い解像度を持つ画像Im3610と領域ラベル画像Im3620とがある場合を考える。この場合、教師データについて設定された一定の解像度となるように、画像Im3610と領域ラベル画像Im3620のそれぞれを拡大する。さらに、拡大された画像Im3610と領域ラベル画像Im3620のそれぞれに対して、教師データについて設定された一定の画像サイズとなるようにパディングする。そして、拡大及びパディングが行われた画像Im3611と領域ラベル画像Im3621とをペアとし、当該ペアを教師データの一つとして用いる。 Now, with reference to FIG. 36, teacher data for the image segmentation engine according to this embodiment will be described. As shown in FIG. 36, for example, consider a case where there are an image Im3610 and a region label image Im3620 having a resolution lower than the fixed resolution set for the teacher data. In this case, each of the image Im3610 and the area label image Im3620 is enlarged so as to have a constant resolution set for the teacher data. Furthermore, each of the enlarged image Im3610 and the region label image Im3620 is padded so as to have a constant image size set for the teacher data. Then, the enlarged and padded image Im3611 and the area label image Im3621 are paired, and the pair is used as one of the teacher data.

なお、教師データについて設定された一定の画像サイズとは、処理対象(入力画像)として想定される画像を一定の解像度となるように拡大又は縮小したときの最大となりうる画像サイズである。当該一定の画像サイズが十分に大きくない場合には、画像セグメンテーションエンジンに入力された画像を拡大したときに、学習済モデルが対処不可能な画像サイズとなる可能性がある。 Note that the constant image size set for the training data is the maximum possible image size when an image assumed to be a processing target (input image) is enlarged or reduced so as to have a constant resolution. If the fixed image size is not large enough, the trained model may not be able to handle the image size when the image input to the image segmentation engine is scaled up.

また、パディングが行われる領域は、効果的に画像セグメンテーション処理できるように学習済モデルの特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。なお、実施例8と同様に、入力データには、処理対象として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、撮影画角である。つまり、本実施例に係る当該特定の撮影条件には、実施例8と異なり、画像サイズは含まれない。 In addition, the region to be padded is filled with a constant pixel value, filled with neighboring pixel values, or mirror-padded according to the characteristics of the trained model so that the image segmentation process can be performed effectively. As in the eighth embodiment, an image having specific imaging conditions assumed to be processed is used as the input data. is a corner. That is, unlike the eighth embodiment, the image size is not included in the specific imaging conditions according to the present embodiment.

本実施例に係るセグメンテーション処理部2804は、このような教師データで学習が行われた学習済モデルを含む画像セグメンテーションエンジンを用いて、入力画像を画像セグメンテーション処理して領域ラベル画像を生成する。この際、セグメンテーション処理部2804は、入力画像を教師データについて設定された一定の解像度になるように拡大又は縮小した変形画像を生成する。また、セグメンテーション処理部2804は、変形画像について、教師データについて設定された一定の画像サイズとなるようにパディングを行ってパディング画像を生成し、パディング画像を画像セグメンテーションエンジン入力する。 The segmentation processing unit 2804 according to this embodiment uses an image segmentation engine including a trained model trained with such teacher data to perform image segmentation processing on an input image to generate a region label image. At this time, the segmentation processing unit 2804 generates a deformed image by enlarging or reducing the input image to a certain resolution set for the teacher data. Also, the segmentation processing unit 2804 generates a padding image by padding the deformed image so that it has a constant image size set for the teacher data, and inputs the padding image to the image segmentation engine.

また、セグメンテーション処理部2804は、画像セグメンテーションエンジンから出力された第一の領域ラベル画像について、パディングを行った領域分だけトリミングし、第二の領域ラベル画像を生成する。その後、セグメンテーション処理部2804は、生成した第二の領域ラベル画像を入力画像の画像サイズになるように縮小又は拡大し、最終的な領域ラベル画像を生成する。 The segmentation processing unit 2804 also trims the first region label image output from the image segmentation engine by the padded region to generate a second region label image. After that, the segmentation processing unit 2804 reduces or expands the generated second region label image to the image size of the input image to generate a final region label image.

このため、本実施例に係るセグメンテーション処理部2804は、実施例8では対処できなかった画像サイズの入力画像であっても、画像セグメンテーションエンジンによって画像セグメンテーション処理して領域ラベル画像を生成することができる。 For this reason, the segmentation processing unit 2804 according to this embodiment can generate a region label image by performing image segmentation processing using the image segmentation engine even for an input image having an image size that could not be handled in the eighth embodiment. .

次に、図29及び37を参照して、本実施例に係る一連の画像処理について説明する。図37は、本実施例に係る画像セグメンテーション処理のフローチャートである。なお、本実施例に係るステップS2910、ステップS2920、及びステップS2950~ステップS2970の処理は、実施例8におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS2920の処理の後に、ステップS2930の処理を省き、処理をステップS2940に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. FIG. 37 is a flowchart of image segmentation processing according to this embodiment. Note that the processes of steps S2910, S2920, and steps S2950 to S2970 according to the present embodiment are the same as those processes in the eighth embodiment, and thus description thereof is omitted. Note that if image segmentation processing is unconditionally performed on the input image with respect to imaging conditions other than the image size, the processing of step S2930 may be omitted after the processing of step S2920, and the processing may proceed to step S2940.

ステップS2920において、実施例8と同様に、撮影条件取得部2802が入力画像の撮影条件群を取得したら、処理はステップS2930に移行する。ステップS2930では、処理可否判定部2803が、取得された撮影条件群を用いて、画像セグメンテーションエンジンによって入力画像を対処可能であるか否かを判定する。具体的には、処理可否判定部2803は、入力画像の撮影条件について、画像セグメンテーションエンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。処理可否判定部2803は、実施例8と異なり、画像サイズは判定しない。 In step S2920, similarly to the eighth embodiment, after the imaging condition acquisition unit 2802 acquires the imaging condition group of the input image, the process proceeds to step S2930. In step S2930, the process propriety determination unit 2803 determines whether or not the input image can be processed by the image segmentation engine using the acquired imaging condition group. Specifically, the process availability determination unit 2803 determines whether or not the imaging conditions of the input image are the imaging region, imaging method, and imaging angle of view that can be dealt with by the image segmentation engine. Unlike the eighth embodiment, the process propriety determination unit 2803 does not determine the image size.

処理可否判定部2803が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS2940に移行する。一方、処理可否判定部2803が、これら撮影条件に基づいて、画像セグメンテーションエンジンが入力画像を対処不可能であると判定した場合には、処理はステップS2970に移行する。なお、画像処理装置2800の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS2940における画像セグメンテーション処理が実施されてもよい。 The process propriety determination unit 2803 determines the imaging region, the imaging method, and the imaging angle of view, and if it is determined that the input image can be processed, the process proceeds to step S2940. On the other hand, if the processing enable/disable determining unit 2803 determines that the image segmentation engine cannot handle the input image based on these shooting conditions, the process proceeds to step S2970. Note that depending on the settings and implementation of the image processing apparatus 2800, even if it is determined that the input image cannot be processed based on part of the imaging region, imaging method, and imaging angle of view, An image segmentation process may be performed.

処理がステップS2940に移行すると、図37に示される本実施例に係る画像セグメンテーション処理が開始される。本実施例に係る画像セグメンテーション処理では、まず、ステップS3710において、セグメンテーション処理部2804が、入力画像を教師データについて設定された一定の解像度となるように拡大又は縮小し、変形画像を生成する。 When the process moves to step S2940, the image segmentation process according to this embodiment shown in FIG. 37 is started. In the image segmentation process according to this embodiment, first, in step S3710, the segmentation processing unit 2804 expands or reduces the input image to a certain resolution set for the teacher data, and generates a deformed image.

次に、ステップS3720において、セグメンテーション処理部2804は、生成した変形画像について、教師データについて設定された画像サイズとなるように、パディングを行ってパディング画像を生成する。この際、セグメンテーション処理部2804は、パディングを行う領域について、効果的に画像セグメンテーション処理できるように学習済モデルの特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。 Next, in step S3720, the segmentation processing unit 2804 generates a padding image by padding the generated deformed image so that it has the image size set for the teacher data. At this time, the segmentation processing unit 2804 fills the region to be padded with a constant pixel value, with neighboring pixel values, or with mirror padding in accordance with the characteristics of the trained model so that the image segmentation processing can be performed effectively. or

ステップS3730では、セグメンテーション処理部2804がパディング画像を画像セグメンテーションエンジンに入力し画像セグメンテーション処理された第一の領域ラベル画像を取得する。 In step S3730, the segmentation processing unit 2804 inputs the padding image to the image segmentation engine to obtain the first region label image subjected to image segmentation processing.

次に、ステップS3740において、セグメンテーション処理部2804は、第一の領域ラベル画像について、ステップS3720でパディングを行った領域分だけトリミングを行い、第二の領域ラベル画像を生成する。 Next, in step S3740, the segmentation processing unit 2804 trims the first area label image by the area padded in step S3720 to generate a second area label image.

その後、ステップS3750において、セグメンテーション処理部2804は、第二の領域ラベル画像を入力画像の画像サイズに縮小又は拡大し、最終的な領域ラベル画像を生成する。セグメンテーション処理部2804がステップS3750において最終的な領域ラベル画像を生成したら、本実施例に係る画像セグメンテーション処理は終了し、処理はステップS2950に移行する。ステップS2950以降の処理は、実施例8のステップS2950以降の処理と同様であるため説明を省略する。 Then, in step S3750, the segmentation processor 2804 reduces or enlarges the second region label image to the image size of the input image to generate the final region label image. After the segmentation processor 2804 has generated the final region label image in step S3750, the image segmentation process according to this embodiment ends and the process proceeds to step S2950. Since the processing after step S2950 is the same as the processing after step S2950 in the eighth embodiment, the description thereof is omitted.

上記のように、本実施例によるセグメンテーション処理部2804は、入力画像の解像度が所定の解像度となるように、入力画像の画像サイズを調整する。また、セグメンテーション処理部2804は、画像サイズが調整された入力画像について、画像セグメンテーションエンジンによって対処可能な画像サイズとなるように、パディングを行った画像を生成し、画像セグメンテーションエンジンに入力する。その後、セグメンテーション処理部2804は、画像セグメンテーションエンジンからの出力画像について、パディングを行った領域分だけトリミングを行う。そして、セグメンテーション処理部2804は、トリミングが行われた画像の画像サイズを、入力画像の元の画像サイズに調整することで領域ラベル画像を生成する。 As described above, the segmentation processing unit 2804 according to this embodiment adjusts the image size of the input image so that the input image has a predetermined resolution. In addition, the segmentation processing unit 2804 generates an image by performing padding on the input image whose image size has been adjusted so that the image size can be handled by the image segmentation engine, and inputs the image to the image segmentation engine. After that, the segmentation processing unit 2804 trims the output image from the image segmentation engine by the padded area. Then, the segmentation processing unit 2804 generates a region label image by adjusting the image size of the trimmed image to the original image size of the input image.

これにより、本実施例のセグメンテーション処理部2804は、実施例8では対処できなかった画像サイズの入力画像であっても、画像セグメンテーションエンジンによって画像セグメンテーション処理して領域ラベル画像を生成することができる。また、解像度を基準とした教師データで学習した画像セグメンテーションエンジンを用いることで、同一画像サイズの画像を処理する実施例10に係る画像セグメンテーションエンジンより効率よく入力画像を画像セグメンテーション処理できる場合がある。 As a result, the segmentation processing unit 2804 of this embodiment can generate a region label image by performing image segmentation processing with the image segmentation engine even for an input image having an image size that could not be dealt with in the eighth embodiment. Also, by using an image segmentation engine trained with training data based on resolution, an input image may be segmented more efficiently than the image segmentation engine according to the tenth embodiment, which processes images of the same image size.

(実施例13)
次に、図28、29、及び38乃至40を参照して、実施例13に係る画像処理装置について説明する。本実施例では、セグメンテーション処理部が、入力画像を一定の画像サイズの領域毎に画像セグメンテーション処理することにより領域ラベル画像を生成する。
(Example 13)
Next, an image processing apparatus according to the thirteenth embodiment will be described with reference to FIGS. In this embodiment, the segmentation processing unit generates region label images by performing image segmentation processing on an input image for each region of a certain image size.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted.

本実施例に係るセグメンテーション処理部2804には、実施例8と同様の、画像セグメンテーションエンジンが備えられている。ただし、本実施例では、画像セグメンテーションエンジンが含む機械学習モデルの学習に用いる教師データが実施例8における教師データと異なる。具体的には、教師データを構成する、入力画像である入力データと、入力画像に対応する領域ラベル画像である出力データとのペア群を、入力画像と領域ラベル画像における、位置関係が対応する一定の画像サイズの矩形領域画像によって構成している。 The segmentation processing unit 2804 according to this embodiment includes an image segmentation engine similar to that of the eighth embodiment. However, in this embodiment, the teacher data used for learning the machine learning model included in the image segmentation engine is different from the teacher data in the eighth embodiment. Specifically, a group of pairs of input data, which is an input image, and output data, which is a region label image corresponding to the input image, which constitutes the training data, is set so that the positional relationship between the input image and the region label image corresponds. It consists of a rectangular area image of a fixed image size.

ここで、図38を参照して、本実施例に係る画像セグメンテーションエンジンの教師データについて説明する。図38に示すように、教師データを構成するペア群の一つに関して、例えば、入力画像である画像Im3810と、対応する領域ラベル画像である領域ラベル画像Im3820があるとした場合を考える。この場合、実施例8においては、教師データの入力データを画像Im3810、出力データを領域ラベル画像Im3820とした。 Here, the training data of the image segmentation engine according to this embodiment will be described with reference to FIG. As shown in FIG. 38, with respect to one pair group forming teacher data, for example, consider a case where there is an image Im3810 that is an input image and an area label image Im3820 that is a corresponding area label image. In this case, in the eighth embodiment, the input data of the teacher data is the image Im3810, and the output data is the region label image Im3820.

これに対し、本実施例においては、画像Im3810のうちの矩形領域画像R3811を入力データとし、領域ラベル画像Im3820において矩形領域画像R3811と同じ(対応する)撮影領域である矩形領域画像R3821を出力データとする。そして、入力データである矩形領域画像R3811と出力データである矩形領域画像R3821によって教師データのペア(以下、第一の矩形領域画像ペア)を構成する。 In contrast, in this embodiment, the rectangular area image R3811 of the image Im3810 is used as input data, and the rectangular area image R3821, which is the same (corresponding) imaging area as the rectangular area image R3811 in the area label image Im3820, is output data. and A pair of teacher data (hereinafter referred to as a first pair of rectangular region images) is formed by the rectangular region image R3811 as input data and the rectangular region image R3821 as output data.

ここで、矩形領域画像R3811と矩形領域画像R3821は、一定の画像サイズの画像とされる。なお、画像Im3810と領域ラベル画像Im3820は任意方法により位置合わせされてよい。また、矩形領域画像R3811と矩形領域画像R3821の対応する位置関係はテンプレートマッチングなどの任意方法によって特定されてよい。なお、画像セグメンテーションエンジンが含む機械学習モデルの設計によっては、入力データと出力データの、それぞれの画像サイズや次元数は異なっていてもよい。例えば、入力データがBスキャン画像(二次元画像)の一部であり、出力データがAスキャン画像(一次元)の一部とする場合である。 Here, the rectangular area image R3811 and the rectangular area image R3821 are images of a fixed image size. Note that image Im3810 and region label image Im3820 may be aligned by any method. Also, the corresponding positional relationship between the rectangular area image R3811 and the rectangular area image R3821 may be identified by an arbitrary method such as template matching. Depending on the design of the machine learning model included in the image segmentation engine, the image size and the number of dimensions of the input data and the output data may be different. For example, the input data is part of a B-scan image (two-dimensional image) and the output data is part of an A-scan image (one-dimensional).

前述の一定の画像サイズは、例えば、処理対象(入力画像)として想定される画像の画像サイズ群について、対応する各次元の画素数群の公約数から決定することができる。この場合、画像セグメンテーションエンジンが出力する矩形領域画像群の位置関係が重なることを防いでもよい。 The constant image size described above can be determined, for example, from the common divisor of the pixel number groups of the corresponding dimensions for the image size group of images assumed to be processed (input images). In this case, it is possible to prevent overlapping of the positional relationships of the rectangular area images output by the image segmentation engine.

具体的には、例えば、処理対象として想定される画像が二次元画像であり、画像サイズ群のうちの第一の画像サイズが幅500画素、高さ500画素であり、第二の画像サイズが幅100画素、高さ100画素である場合を考える。ここで、各辺の公約数から、矩形領域画像R3811,R3821に関する一定の画像サイズを選択する。この場合には、例えば、一定の画像サイズを、幅100画素、高さ100画素や、幅50画素、高さ50画素や、幅25画素、高さ25画素等から選択する。処理対象として想定される画像が三次元である場合には、幅、高さ、奥行きに関して画素数を決定する。 Specifically, for example, the image assumed to be processed is a two-dimensional image, the first image size in the image size group is 500 pixels wide and 500 pixels high, and the second image size is Consider the case of 100 pixels wide and 100 pixels high. Here, a certain image size is selected for the rectangular area images R3811 and R3821 from the common divisor of each side. In this case, for example, a fixed image size is selected from 100 pixels wide and 100 pixels high, 50 pixels wide and 50 pixels high, and 25 pixels wide and 25 pixels high. When the image assumed to be processed is three-dimensional, the number of pixels is determined with respect to width, height, and depth.

なお、矩形領域は、入力データに対応する画像と出力データに対応する領域ラベル画像のペアの一つに対して、複数設定可能である。このため、例えば、画像Im3810のうちの矩形領域画像R3812を入力データ、領域ラベル画像Im3820において矩形領域画像R3812と同じ撮影領域である矩形領域画像R3822を出力データとする。そして、入力データである矩形領域画像R3812と出力データである矩形領域画像R3822によって教師データのペアを構成する。これにより、第一の矩形領域画像ペアとは別の矩形領域画像ペアを作成できる。 A plurality of rectangular areas can be set for one pair of an image corresponding to input data and an area label image corresponding to output data. Therefore, for example, the rectangular area image R3812 in the image Im3810 is used as input data, and the rectangular area image R3822 in the area label image Im3820, which is the same shooting area as the rectangular area image R3812, is used as output data. The rectangular area image R3812 as the input data and the rectangular area image R3822 as the output data form a pair of teacher data. Thereby, a rectangular area image pair different from the first rectangular area image pair can be created.

なお、矩形領域の画像を異なる座標の画像に変えながら多数の矩形領域画像のペアを作成することで教師データを構成するペア群を充実させることができる。そして、当該教師データを構成するペア群を用いてトレーニングを行った画像セグメンテーションエンジンによって効率的な画像セグメンテーション処理が期待できる。ただし、学習済モデルの画像セグメンテーション処理に寄与しないペアは教師データに加えないようにすることができる。 By creating a large number of pairs of rectangular area images while changing the image of the rectangular area to an image of different coordinates, it is possible to enrich the pair group constituting the teacher data. Efficient image segmentation processing can be expected by an image segmentation engine that has been trained using pairs that constitute the training data. However, pairs that do not contribute to the image segmentation processing of the trained model can be prevented from being added to the training data.

なお、教師データの入力データ及び出力データとしては、一つの層や一つのラベルが付される領域を描画する画像を教師データとして用いることができる。また、教師データの入力データ及び出力データとして、複数の層、例えば2つの層、より好ましくは3つ以上の層を描画する領域の画像を用いることもできる。同様に、領域ラベル画像においてラベルが分けられる領域を複数描画する領域の画像を用いることもできる。これらの場合には、一つの層や一つのラベルが付される領域を描画する画像を教師データとして用いる場合と比べて、学習した層や領域についての位置関係から、学習済モデルを用いてより適切に画像セグメンテーション処理を行えるようになることが期待できる。 As the input data and the output data of the teacher data, an image that draws one layer or one labeled region can be used as the teacher data. Also, as the input data and output data of the teacher data, it is possible to use an image of an area for drawing a plurality of layers, for example two layers, more preferably three or more layers. Similarly, it is also possible to use an area image in which a plurality of labeled areas are drawn in the area label image. In these cases, compared to the case of using an image that draws one layer or one labeled area as training data, the positional relationship of the learned layers and areas makes it easier to use the trained model. We can expect to be able to perform image segmentation processing appropriately.

さらに、例えば、ペアである、入力画像から作成した矩形領域画像と領域ラベル画像から作成した矩形領域画像とに描画される撮影対象の構造や位置が大きく異なる場合を考える。この場合には、そのような教師データを用いて学習を行った画像セグメンテーションエンジンが精度の低い領域ラベル画像を出力してしまう可能性がある。そのため、このようなペアを教師データから取り除くこともできる。 Further, for example, consider a case where the structures and positions of the imaging targets drawn in the pair of rectangular area images created from the input image and the rectangular area images created from the area label images are significantly different. In this case, an image segmentation engine trained using such teacher data may output region label images with low accuracy. Therefore, such pairs can be removed from the training data.

なお、実施例8と同様に、教師データの入力データには、処理対象として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、及び撮影画角である。つまり、本実施例に係る当該特定の撮影条件には、実施例8と異なり、画像サイズは含まれない。 As in the eighth embodiment, an image having specific imaging conditions assumed to be processed is used as input data for teacher data. , and the shooting angle of view. That is, unlike the eighth embodiment, the image size is not included in the specific imaging conditions according to the present embodiment.

本実施例に係るセグメンテーション処理部2804は、このような教師データで学習が行われた画像セグメンテーションエンジンを用いて、入力画像を画像セグメンテーション処理して領域ラベル画像を生成する。この際、セグメンテーション処理部2804は、入力された画像を、隙間なく連続する、教師データについて設定された一定の画像サイズの矩形領域画像群に分割する。セグメンテーション処理部2804は、画像セグメンテーションエンジンを用いて、分割した矩形領域画像群のそれぞれを画像セグメンテーション処理し、分割された領域ラベル画像群を生成する。その後、セグメンテーション処理部2804は、生成した分割された領域ラベル画像群を、入力画像の位置関係に応じて配置して結合し、最終的な領域ラベル画像を生成する。 The segmentation processing unit 2804 according to this embodiment uses an image segmentation engine trained with such teacher data to perform image segmentation processing on an input image to generate a region label image. At this time, the segmentation processing unit 2804 divides the input image into a group of rectangular area images which are continuous without gaps and have a constant image size set for the teacher data. A segmentation processing unit 2804 uses an image segmentation engine to perform image segmentation processing on each of the divided rectangular area image groups, and generates a divided area label image group. After that, the segmentation processing unit 2804 arranges and combines the generated group of divided area label images according to the positional relationship of the input image to generate a final area label image.

このように、本実施例のセグメンテーション処理部2804は、入力された画像を矩形領域単位で画像セグメンテーション処理し、画像セグメンテーション処理した画像を結合する。これにより、実施例8では対応しなかった画像サイズの画像をも画像セグメンテーション処理して領域ラベル画像を生成することができる。 In this manner, the segmentation processing unit 2804 of this embodiment performs image segmentation processing on the input image in units of rectangular regions, and combines the images that have undergone the image segmentation processing. As a result, it is possible to generate an area label image by performing image segmentation processing even on an image having an image size that is not supported in the eighth embodiment.

次に、図29、39及び40を参照して、本実施例に係る一連の画像処理について説明する。図39は、本実施例に係る画像セグメンテーション処理のフローチャートである。なお、本実施例に係るステップS2910、ステップS2920、及びステップS2950~ステップS2970の処理は、実施例8におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS2920の処理の後に、ステップS2930の処理を省き、処理をステップS2940に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIGS. FIG. 39 is a flowchart of image segmentation processing according to this embodiment. Note that the processes of steps S2910, S2920, and steps S2950 to S2970 according to the present embodiment are the same as those processes in the eighth embodiment, and thus description thereof is omitted. Note that if image segmentation processing is unconditionally performed on the input image with respect to imaging conditions other than the image size, the processing of step S2930 may be omitted after the processing of step S2920, and the processing may proceed to step S2940.

ステップS2920において、実施例8と同様に、撮影条件取得部2802が入力画像の撮影条件群を取得したら、処理はステップS2930に移行する。ステップS2930では、処理可否判定部2803が、取得された撮影条件群を用いて、画像セグメンテーションエンジンにより入力画像を対処可能であるか否かを判定する。具体的には、処理可否判定部2803は、入力画像の撮影条件について、画像セグメンテーションエンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。処理可否判定部2803は、実施例8と異なり、画像サイズは判定しない。 In step S2920, as in the eighth embodiment, after the imaging condition acquisition unit 2802 acquires the imaging condition group of the input image, the process proceeds to step S2930. In step S2930, the process propriety determination unit 2803 determines whether or not the input image can be processed by the image segmentation engine using the acquired imaging condition group. Specifically, the process availability determination unit 2803 determines whether or not the imaging conditions of the input image are the imaging region, imaging method, and imaging angle of view that can be dealt with by the image segmentation engine. Unlike the eighth embodiment, the process propriety determination unit 2803 does not determine the image size.

処理可否判定部2803が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS2940に移行する。一方、処理可否判定部2803が、これら撮影条件に基づいて、画像セグメンテーションエンジンが入力画像を対処不可能であると判定した場合には、処理はステップS2970に移行する。なお、画像処理装置2800の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS2940における画像セグメンテーション処理が実施されてもよい。 The process propriety determination unit 2803 determines the imaging region, the imaging method, and the imaging angle of view, and if it is determined that the input image can be processed, the process proceeds to step S2940. On the other hand, if the processing enable/disable determining unit 2803 determines that the image segmentation engine cannot handle the input image based on these shooting conditions, the process proceeds to step S2970. Note that depending on the settings and implementation of the image processing apparatus 2800, even if it is determined that the input image cannot be processed based on part of the imaging region, imaging method, and imaging angle of view, An image segmentation process may be performed.

処理がステップS2940に移行すると、図39に示される本実施例に係る画像セグメンテーション処理が開始される。本実施例に係る画像セグメンテーション処理では、まず、ステップS3910において、図40に示すように、入力画像を隙間なく連続する、教師データについて設定された一定の画像サイズの矩形領域画像群に分割する。ここで、図40は、入力画像Im4010を一定の画像サイズの矩形領域画像R4011~R4026群に分割した一例を示す。なお、画像セグメンテーションエンジンが含む機械学習モデルの設計によっては、入力画像と出力画像の、それぞれの画像サイズや次元数が異なってもよい。その場合には、ステップS3920において生成される結合された領域ラベル画像に欠損が無いよう、前述の入力画像の分割位置を重複させたり、分離させたりして、調整する。 When the process moves to step S2940, the image segmentation process according to this embodiment shown in FIG. 39 is started. In the image segmentation process according to the present embodiment, first, in step S3910, as shown in FIG. 40, the input image is divided into a group of continuously continuous rectangular area images having a constant image size set for the teacher data. Here, FIG. 40 shows an example of dividing the input image Im4010 into a group of rectangular area images R4011 to R4026 each having a fixed image size. Depending on the design of the machine learning model included in the image segmentation engine, the image size and the number of dimensions of the input image and the output image may differ. In that case, adjustment is made by overlapping or separating the division positions of the input image described above so that the combined region label image generated in step S3920 is free of defects.

次に、ステップS3920において、セグメンテーション処理部2804は、矩形領域画像R4011~R4026群のそれぞれを画像セグメンテーションエンジンにより画像セグメンテーション処理し、分割された領域ラベル画像群を生成する。 Next, in step S3920, the segmentation processing unit 2804 performs image segmentation processing on each of the rectangular area images R4011 to R4026 using the image segmentation engine to generate a group of divided area label images.

そして、ステップS3930において、セグメンテーション処理部2804は、生成した分割された領域ラベル画像群のそれぞれを、入力画像について分割した矩形領域画像R4011~R4026群のそれぞれと同じ位置関係に配置して結合する。これにより、セグメンテーション処理部2804は領域ラベル画像を生成することができる。 Then, in step S3930, the segmentation processing unit 2804 arranges and joins each of the generated divided region label image groups with the same positional relationship as each of the rectangular region images R4011 to R4026 divided from the input image. This allows the segmentation processing unit 2804 to generate a region label image.

セグメンテーション処理部2804がステップS3930において領域ラベル画像を生成したら、本実施例に係る画像セグメンテーション処理は終了し、処理はステップS2950に移行する。ステップS2950以降の処理は、実施例8のステップS2950以降の処理と同様であるため説明を省略する。 After the segmentation processing unit 2804 has generated the region label image in step S3930, the image segmentation processing according to this embodiment ends, and the process proceeds to step S2950. Since the processing after step S2950 is the same as the processing after step S2950 in the eighth embodiment, the description thereof is omitted.

上記のように、本実施例に係るセグメンテーション処理部2804は、入力画像を所定の画像サイズの複数の矩形領域画像R4011~R4026に分割する。その後、セグメンテーション処理部2804は、分割した複数の矩形領域画像R4011~R4026を画像セグメンテーションエンジンに入力して複数の分割領域ラベル画像を生成し、複数の分割領域ラベル画像を統合することで、領域ラベル画像を生成する。なお、統合時に矩形領域群間で位置関係が重なる場合には、該矩形領域群の画素値群を統合したり、上書きしたりする。 As described above, the segmentation processing unit 2804 according to this embodiment divides the input image into a plurality of rectangular region images R4011 to R4026 each having a predetermined image size. After that, the segmentation processing unit 2804 inputs the plurality of divided rectangular region images R4011 to R4026 to the image segmentation engine to generate a plurality of divided region label images, and integrates the plurality of divided region label images to obtain a region label image. Generate an image. Note that if the positional relationship between the rectangular area groups overlaps at the time of integration, the pixel value groups of the rectangular area groups are integrated or overwritten.

これにより、本実施例のセグメンテーション処理部2804は、実施例8では対処できなかった画像サイズの入力画像であっても、画像セグメンテーションエンジンを用いて画像セグメンテーション処理して領域ラベル画像を生成することができる。また、教師データを、所定の画像サイズに分割した複数の画像から作成すると、少ない画像から多くの教師データを作成することができる。そのため、この場合には、教師データを作成するための入力画像と領域ラベル画像の数を少なくすることができる。 As a result, the segmentation processing unit 2804 of this embodiment can generate a region label image by performing image segmentation processing using the image segmentation engine even for an input image having an image size that could not be dealt with in the eighth embodiment. can. Also, if the teacher data is created from a plurality of images divided into predetermined image sizes, a large amount of teacher data can be created from a small number of images. Therefore, in this case, the number of input images and region label images for creating teacher data can be reduced.

また、本実施例に係る画像セグメンテーションエンジンが含む学習済モデルは、2つ以上の層を含む断層画像を入力データとし、該断層画像に対応する領域ラベル画像を出力データとして学習を行ったモデルである。このため、一つの層や一つのラベルが付される領域を描画する画像を教師データとして用いる場合と比べて、学習した層や領域についての位置関係から、学習済モデルを用いてより適切に画像セグメンテーション処理を行えるようになることが期待できる。 Also, the trained model included in the image segmentation engine according to the present embodiment is a model trained using a tomographic image including two or more layers as input data and a region label image corresponding to the tomographic image as output data. be. For this reason, compared to the case of using an image that draws one layer or one labeled region as training data, the positional relationship of the learned layers and regions makes it possible to use the trained model to create a more appropriate image. We can expect to be able to perform segmentation processing.

(実施例14)
次に、図28、41及び42を参照して、実施例14に係る画像処理装置について説明する。本実施例では、評価部が、検者の指示に応じて、複数の画像セグメンテーションエンジンから出力された複数の領域ラベル画像のうち最も精度の高い領域ラベル画像を選択する。
(Example 14)
Next, an image processing apparatus according to the fourteenth embodiment will be described with reference to FIGS. In this embodiment, the evaluation unit selects the region label image with the highest accuracy from among the plurality of region label images output from the plurality of image segmentation engines according to the examiner's instructions.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted.

本実施例に係るセグメンテーション処理部2804は、異なる教師データを用いて機械学習が行われたそれぞれの学習済モデルを含む二つ以上の画像セグメンテーションエンジンを用いて、入力画像について画像セグメンテーション処理を行う。 The segmentation processing unit 2804 according to this embodiment performs image segmentation processing on an input image using two or more image segmentation engines each including a trained model machine-learned using different teacher data.

ここで、本実施例に係る教師データ群の作成方法について説明する。具体的には、まず、様々な撮影条件によって撮影された画像である入力データと領域ラベル画像である出力データのペア群を用意する。次に、任意の撮影条件の組み合わせによってペア群をグルーピングすることで、教師データ群を作成する。例えば、第一の撮影条件の組み合わせによって取得されたペア群で構成される第一の教師データ、第二の撮影条件の組み合わせによって取得されたペア群で構成される第二の教師データというように、教師データ群として作成する。 Here, a method of creating a teacher data group according to this embodiment will be described. Specifically, first, pairs of input data, which are images shot under various shooting conditions, and output data, which are area label images, are prepared. Next, a teacher data group is created by grouping the pair groups according to an arbitrary combination of imaging conditions. For example, first training data composed of pairs acquired by combining the first imaging conditions, second training data composed of pairs acquired by combining the second imaging conditions, and so on. , is created as a training data group.

その後、各教師データを用いて、別々の画像セグメンテーションエンジンに含まれる機械学習モデルに機械学習を行わせる。例えば、第一の教師データでトレーニングされた学習済モデルを含む第一の画像セグメンテーションエンジンを用意する。加えて、第二の教師データでトレーニングされた学習済モデルに対応する第二の画像セグメンテーションエンジンを用意する、というように画像セグメンテーションエンジン群を用意する。 Each training data is then used to machine-learn a machine-learning model contained in a separate image segmentation engine. For example, providing a first image segmentation engine that includes a trained model trained on first training data. In addition, a group of image segmentation engines are prepared, such as a second image segmentation engine corresponding to the learned model trained with the second teacher data.

このような画像セグメンテーションエンジンは、それぞれが含む学習済モデルのトレーニングに用いた教師データが異なる。そのため、このような画像セグメンテーションエンジンは、画像セグメンテーションエンジンに入力される画像の撮影条件によって、入力画像を画像セグメンテーション処理できる精度が異なる。具体的には、第一の画像セグメンテーションエンジンは、第一の撮影条件の組み合わせで撮影して取得された入力画像に対しては画像セグメンテーション処理の精度が高い。一方で、第一の画像セグメンテーションエンジンは、第二の撮影条件の組み合わせで撮影して取得された画像に対しては画像セグメンテーション処理の精度が低い。同様に、第二の画像セグメンテーションエンジンは、第二の撮影条件の組み合わせで撮影して取得された入力画像に対しては画像セグメンテーション処理の精度が高い。一方で、第二の画像セグメンテーションエンジンは、第一の撮影条件の組み合わせで撮影して取得された画像に対しては画像セグメンテーション処理の精度が低い。 Such image segmentation engines differ in the training data used to train the learned models they contain. Therefore, such an image segmentation engine differs in the accuracy with which an input image can be subjected to image segmentation processing depending on the photographing conditions of the image input to the image segmentation engine. Specifically, the first image segmentation engine has high accuracy in image segmentation processing for input images acquired by shooting under the first combination of shooting conditions. On the other hand, the first image segmentation engine has low accuracy in image segmentation processing for images acquired by shooting under the second combination of shooting conditions. Similarly, the second image segmentation engine has high accuracy in image segmentation processing for input images acquired by photographing under the second combination of photographing conditions. On the other hand, the second image segmentation engine has low accuracy in image segmentation processing for images acquired by photographing under the first combination of photographing conditions.

教師データのそれぞれが撮影条件の組み合わせによってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、画像セグメンテーションエンジンは対応する撮影条件の組み合わせであれば、実施例8に係る画像セグメンテーションエンジンよりも精度良く画像セグメンテーション処理を行うことができる。なお、教師データのペアをグルーピングするための撮影条件の組み合わせは、任意であってよく、例えば、撮影部位、撮影画角、及び画像の解像度のうちの二つ以上の組み合わせであってよい。また、教師データのグルーピングを、実施例9と同様に、一つの撮影条件に基づいて行ってもよい。 Each of the teacher data is composed of a pair group grouped according to a combination of shooting conditions, so that the image quality tendencies of the image groups forming the pair group are similar. For this reason, the image segmentation engine can perform image segmentation processing with higher accuracy than the image segmentation engine according to the eighth embodiment, provided that the corresponding imaging conditions are combined. Note that the combination of imaging conditions for grouping pairs of teacher data may be arbitrary, and may be, for example, a combination of two or more of the imaging region, imaging angle of view, and image resolution. Also, grouping of teacher data may be performed based on one imaging condition as in the ninth embodiment.

評価部2805は、セグメンテーション処理部2804が、複数の画像セグメンテーションエンジンを用いて生成した複数の領域ラベル画像について、実施例8と同様に評価を行う。その後、評価部2805は、評価結果が真値である領域ラベル画像が複数ある場合、検者の指示に応じて、当該複数の領域ラベル画像のうち最も精度の高い領域ラベル画像を選択し、出力すべき領域ラベル画像として判断する。なお、評価部2805は、実施例8と同様に、学習済モデルを含む領域ラベル画像評価エンジンを用いて評価を行ってもよいし、知識ベースの領域ラベル画像評価エンジンを用いて評価を行ってもよい。 The evaluation unit 2805 evaluates a plurality of region label images generated by the segmentation processing unit 2804 using a plurality of image segmentation engines in the same manner as in the eighth embodiment. After that, when there are a plurality of region label images for which the evaluation result is a true value, the evaluation unit 2805 selects the region label image with the highest accuracy among the plurality of region label images according to the instruction of the examiner, and outputs the region label image. It is judged as the region label image that should be done. Note that the evaluation unit 2805 may perform evaluation using a region label image evaluation engine including a learned model, or a knowledge-based region label image evaluation engine, as in the eighth embodiment. good too.

解析部2806は、評価部2805によって出力すべき領域ラベル画像として判断された領域ラベル画像と入力画像を用いて、入力画像について実施例8と同様に画像解析処理を行う。出力部2807は、出力すべき領域ラベル画像として判断された領域ラベル画像や解析結果を、実施例8と同様に、表示部2820に表示させたり、他の装置に出力したりすることができる。なお、出力部2807は、評価結果が真値である複数の領域ラベル画像を表示部2820に表示させることができ、評価部2805は、表示部2820を確認した検者からの指示に応じて最も精度の高い領域ラベル画像を選択することができる。 The analysis unit 2806 uses the input image and the area label image determined by the evaluation unit 2805 as the area label image to be output, and performs image analysis processing on the input image in the same manner as in the eighth embodiment. The output unit 2807 can display the area label image determined as the area label image to be output and the analysis result on the display unit 2820 or output them to another device, as in the eighth embodiment. Note that the output unit 2807 can display a plurality of region label images whose evaluation results are true values on the display unit 2820, and the evaluation unit 2805 displays the most Region label images with high accuracy can be selected.

これにより、画像処理装置2800は、複数の画像セグメンテーションエンジンを用いて生成された複数の領域ラベル画像のうち、検者の指示に応じた最も精度の高い領域ラベル画像を出力することができる。 As a result, the image processing apparatus 2800 can output the region label image with the highest accuracy according to the examiner's instruction, among the plurality of region label images generated using the plurality of image segmentation engines.

以下、図41及び42を参照して、本実施例に係る一連の画像処理について説明する。図41は、本実施例に係る一連の画像処理のフローチャートである。なお、本実施例に係るステップS4110及びステップS4120の処理は、実施例8におけるステップS2910及びステップS2920での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS4120の処理の後に、ステップS4130の処理を省き、処理をステップS4140に移行してよい。 A series of image processing according to this embodiment will be described below with reference to FIGS. FIG. 41 is a flowchart of a series of image processing according to this embodiment. It should be noted that the processing of steps S4110 and S4120 according to this embodiment is the same as the processing of steps S2910 and S2920 in the eighth embodiment, and thus description thereof will be omitted. Note that if image segmentation processing is to be performed on the input image unconditionally with respect to the imaging conditions, the processing in step S4130 may be omitted after the processing in step S4120, and the processing may proceed to step S4140.

ステップS4120において、実施例8と同様に、撮影条件取得部2802が入力画像の撮影条件群を取得したら、処理はステップS4130に移行する。ステップS4130では、処理可否判定部2803が、取得された撮影条件群を用いて、セグメンテーション処理部2804が用いる画像セグメンテーションエンジン群のいずれかが入力画像を対処可能であるか否かを判定する。 In step S4120, as in the eighth embodiment, after the imaging condition acquisition unit 2802 acquires the imaging condition group of the input image, the process proceeds to step S4130. In step S4130, the process availability determination unit 2803 determines whether or not any of the image segmentation engines used by the segmentation processing unit 2804 can handle the input image, using the acquired imaging condition group.

処理可否判定部2803が、画像セグメンテーションエンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS4180に移行する。一方で、処理可否判定部2803が、画像セグメンテーションエンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS4140に移行する。なお、画像処理装置2800の設定や実装形態によっては、実施例8と同様に、画像セグメンテーションエンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS4140を実施してもよい。 If the process propriety determination unit 2803 determines that none of the image segmentation engines can process the input image, the process proceeds to step S4180. On the other hand, if the process propriety determination unit 2803 determines that any one of the image segmentation engines can process the input image, the process proceeds to step S4140. It should be noted that even if the image segmentation engine determines that part of the imaging conditions cannot be dealt with, as in the eighth embodiment, step S4140 may be executed depending on the settings and implementation of the image processing apparatus 2800. good.

ステップS4140においては、セグメンテーション処理部2804が、画像セグメンテーションエンジン群のそれぞれにステップS4110において取得した入力画像を入力し、領域ラベル画像群を生成する。なお、セグメンテーション処理部2804は、処理可否判定部2803によって入力画像について対処可能であると判定された画像セグメンテーションエンジンにのみ入力画像を入力してもよい。 In step S4140, the segmentation processing unit 2804 inputs the input image obtained in step S4110 to each of the image segmentation engines to generate a region label image group. Note that the segmentation processing unit 2804 may input the input image only to an image segmentation engine that has been determined by the processability determination unit 2803 to be capable of handling the input image.

ステップS4150では、評価部2805が、実施例8と同様に、領域ラベル画像評価エンジンを用いて、ステップS4140において生成された領域ラベル画像群を評価する。ステップS4160では、評価結果(画像評価指数)が真値である領域ラベル画像が複数ある場合には、評価部2805は検者の指示に応じて、出力すべき領域ラベル画像を選択/判断する。 In step S4150, the evaluation unit 2805 evaluates the region label image group generated in step S4140 using the region label image evaluation engine as in the eighth embodiment. In step S4160, if there are a plurality of area label images with true evaluation results (image evaluation indices), the evaluation unit 2805 selects/determines the area label image to be output according to the examiner's instruction.

この場合には、まず、出力部2807が、評価結果が真値である領域ラベル画像群を、表示部2820のユーザーインターフェースに表示させる。ここで、図42に当該インターフェースの一例を示す。当該インターフェースには、入力画像UI4210、及び評価結果が真値であった領域ラベル画像UI4220,UI4230,UI4240,UI4250のそれぞれが表示される。検者は不図示の任意の入力装置を操作して、画像群(領域ラベル画像UI4220~UI4250)のうち、最も精度の高い領域ラベル画像を指示する。評価部2805は、検者によって指示された領域ラベル画像を出力すべき領域ラベル画像として選択する。 In this case, first, the output unit 2807 causes the user interface of the display unit 2820 to display the region label image group for which the evaluation result is true. Here, FIG. 42 shows an example of the interface. The interface displays an input image UI4210 and area label images UI4220, UI4230, UI4240, and UI4250 for which the evaluation result is true. The examiner operates an arbitrary input device (not shown) to designate the region label image with the highest precision among the image group (region label images UI4220 to UI4250). The evaluation unit 2805 selects the region label image designated by the examiner as the region label image to be output.

なお、評価結果が真値である領域ラベル画像が1つである場合には、当該領域ラベル画像を出力すべき領域ラベル画像として選択/判断する。また、評価結果が真値である領域ラベル画像がない場合には、評価部2805は、セグメンテーション処理部2804によって生成された領域ラベル画像を出力しないと判断し、領域ラベル無し画像を生成して出力/選択し、処理をステップS4170に進める。 If there is only one area label image with a true value as the evaluation result, that area label image is selected/determined as the area label image to be output. If there is no region label image with a true value as the evaluation result, the evaluation unit 2805 determines not to output the region label image generated by the segmentation processing unit 2804, and generates and outputs an image without region label. / is selected, and the process advances to step S4170.

ステップS4170では、実施例8と同様に、解析部2806が、評価部2805によって出力すべき領域ラベル画像と判断された領域ラベル画像と入力画像を用いて、入力画像について画像解析処理を行う。なお、評価部2805によって領域ラベル無し画像が出力された場合には、解析部2806は画像解析処理を行わずに処理をステップS4180に進める。 In step S4170, similarly to the eighth embodiment, the analysis unit 2806 uses the input image and the area label image determined by the evaluation unit 2805 to be the area label image to be output, and performs image analysis processing on the input image. Note that if the evaluation unit 2805 outputs an image without region label, the analysis unit 2806 advances the process to step S4180 without performing image analysis processing.

ステップS4180においては、出力部2807が、出力すべき領域ラベル画像として判断された領域ラベル画像や画像解析結果を表示部2820に表示させる。なお、出力部2807は、表示部2820に領域ラベル画像及び画像解析結果を表示させるのに代えて、撮影装置2810や他の装置にこれらを表示させたり、記憶させたりしてもよい。また、出力部2807は、画像処理装置2800の設定や実装形態によっては、これらを撮影装置2810や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。また、出力部2807は、領域ラベル画像及び画像解析結果の両方を出力する構成に限られず、これらのうちのいずれか一方のみを出力してもよい。 In step S4180, the output unit 2807 causes the display unit 2820 to display the region label image determined as the region label image to be output and the image analysis result. Note that the output unit 2807 may cause the imaging device 2810 or another device to display or store the region label image and the image analysis result instead of displaying the region label image and the image analysis result on the display unit 2820 . Depending on the settings and implementation of the image processing apparatus 2800, the output unit 2807 processes these so that they can be used by the imaging apparatus 2810 and other apparatuses, or converts them into data formats that can be transmitted to an image management system or the like. may be converted. Also, the output unit 2807 is not limited to outputting both the region label image and the image analysis result, and may output only one of them.

一方、ステップS4130において画像セグメンテーション処理が不可能であるとされていた場合には、出力部2807は、領域ラベル無し画像を出力し、表示部2820に表示させる。なお、領域ラベル無し画像を出力する代わりに、撮影装置2810に対して、画像セグメンテーション処理が不可能であったことを示す信号を送信してもよい。 On the other hand, if it is determined in step S4130 that the image segmentation processing is impossible, the output unit 2807 outputs an image without region label and causes the display unit 2820 to display it. It should be noted that instead of outputting the region-unlabeled image, a signal indicating that the image segmentation process was not possible may be sent to the imaging device 2810 .

また、ステップS4150において、画像セグメンテーション処理が適切に行えなかった(生成された領域ラベル画像を出力しない)と判断された場合にも、出力部2807は、領域ラベル無し画像を出力し、表示部2820に表示させる。この場合にも、出力部2807は、領域ラベル無し画像を出力する代わりに、撮影装置2810に対して、画像セグメンテーション処理が適切に行えなかったことを示す信号を送信してもよい。ステップS4170における出力処理が終了すると、一連の画像処理が終了する。 Moreover, even if it is determined in step S4150 that the image segmentation processing could not be performed properly (the generated region label image is not output), the output unit 2807 outputs the region labelless image, and the display unit 2820 to display. In this case as well, the output unit 2807 may send a signal indicating that the image segmentation processing could not be properly performed to the imaging device 2810 instead of outputting the region-unlabeled image. When the output processing in step S4170 ends, the series of image processing ends.

上記のように、本実施例に係るセグメンテーション処理部2804は、それぞれ異なる学習済モデルを含む複数の画像セグメンテーションエンジンを用いて、入力画像から複数の領域ラベル画像を生成する。さらに、評価部2805は、検者(ユーザー)の指示に応じて、複数の領域情報を評価して出力すべきと判断した複数の領域情報のうちの少なくとも1つを選択する。より具体的には、評価部2805は、画像評価指数が真値である領域ラベル画像が複数ある場合に、検者の指示に応じて、最も精度の高い領域ラベル画像を出力すべき領域ラベル画像として選択/判断する。これにより、画像処理装置2800は、複数の画像セグメンテーションエンジンを用いて生成された複数の領域ラベル画像のうち、検者の指示に応じた精度の高い領域ラベル画像を出力することができる。 As described above, the segmentation processing unit 2804 according to this embodiment uses multiple image segmentation engines each containing a different trained model to generate multiple region label images from the input image. Further, the evaluation unit 2805 selects at least one of the plurality of pieces of region information determined to be output by evaluating the plurality of pieces of region information according to instructions from the examiner (user). More specifically, when there are a plurality of region label images whose image evaluation index is a true value, the evaluation unit 2805 selects the region label image to be output with the highest accuracy according to the examiner's instruction. Select/determine as Accordingly, the image processing apparatus 2800 can output a highly accurate region label image according to the examiner's instruction, among the plurality of region label images generated using the plurality of image segmentation engines.

本実施例では、評価部2805が、検者の指示に応じて、最も精度の高い領域ラベル画像を出力すべき領域ラベル画像として選択/判断した。これに対して、評価部2805は、検者の指示に応じて、評価結果が真値である複数の領域ラベル画像を出力すべき領域ラベル画像として選択/判断してもよい。この場合には、解析部2806は、出力すべき領域ラベル画像として選択された複数の領域ラベル画像について画像解析処理を行う。また、出力部2807は、選択された複数の領域ラベル画像や当該複数の領域ラベル画像の解析結果を出力する。 In this embodiment, the evaluation unit 2805 selects/determines the region label image with the highest accuracy as the region label image to be output according to the instruction of the examiner. On the other hand, the evaluation unit 2805 may select/determine a plurality of region label images whose evaluation results are true values as region label images to be output in accordance with instructions from the examiner. In this case, the analysis unit 2806 performs image analysis processing on a plurality of area label images selected as area label images to be output. Also, the output unit 2807 outputs the selected plurality of region label images and the analysis results of the plurality of region label images.

また、本実施例では、評価部2805が、検者の指示に応じて、評価結果が真値である複数の領域ラベル画像から出力すべき領域ラベル画像を選択した。これに対して、出力部2807が、セグメンテーション処理部2804によって生成された全ての領域ラベル画像を表示部2820に表示させ、評価部2805が、検者からの指示に応じて、当該複数の領域ラベル画像から出力すべき領域ラベル画像を選択してもよい。この場合にも、評価部2805は、検者からの指示に応じて、複数の領域ラベル画像を出力すべき領域ラベル画像として選択/判断してもよい。 Also, in this embodiment, the evaluation unit 2805 selects the area label image to be output from the plurality of area label images whose evaluation results are true values in accordance with the examiner's instruction. In response to this, the output unit 2807 causes the display unit 2820 to display all the region label images generated by the segmentation processing unit 2804, and the evaluation unit 2805 displays the plurality of region label images according to instructions from the examiner. A region label image to be output from the image may be selected. Also in this case, the evaluation unit 2805 may select/determine a plurality of region label images as region label images to be output according to instructions from the examiner.

(実施例15)
次に、図28及び41を参照して、実施例15に係る画像処理装置について説明する。実施例14に係る画像処理装置では、評価部2805による評価結果が真値である複数の領域ラベル画像について、評価部2805が検者の指示に応じて、出力すべき画像を選択/判断した。これに対し、本実施例では、評価部は、所定の選択基準に基づいて、評価結果が真値である複数の領域ラベル画像のうちから出力すべき領域ラベル画像を選択/判断する。
(Example 15)
Next, an image processing apparatus according to the fifteenth embodiment will be described with reference to FIGS. 28 and 41. FIG. In the image processing apparatus according to the fourteenth embodiment, the evaluation unit 2805 selects/determines an image to be output according to the examiner's instruction from among a plurality of region label images for which the evaluation result by the evaluation unit 2805 is a true value. On the other hand, in this embodiment, the evaluation unit selects/determines the area label image to be output from among the plurality of area label images whose evaluation results are true values, based on a predetermined selection criterion.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例14に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例14に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8及び14に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the fourteenth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the fourteenth embodiment. Note that the configuration of the image processing apparatus according to this embodiment is the same as that of the image processing apparatuses according to the eighth and fourteenth embodiments, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted. do.

本実施例に係る評価部2805は、領域ラベル画像評価エンジンを用いて、セグメンテーション処理部2804によって生成された複数の領域ラベル画像を評価し、画像評価指数及び所定の選択基準に応じて出力すべき領域ラベル画像を選択する。 The evaluation unit 2805 according to the present embodiment uses the region label image evaluation engine to evaluate a plurality of region label images generated by the segmentation processing unit 2804, and output according to the image evaluation index and predetermined selection criteria. Select a region label image.

以下、図41を参照して、本実施例に係る一連の画像処理について説明する。なお、本実施例に係るステップS4160以外の処理は、実施例14における処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS4120の処理の後に、ステップS4130の処理を省き、処理をステップS4140に移行してよい。 A series of image processing according to this embodiment will be described below with reference to FIG. Note that the processes other than step S4160 according to the present embodiment are the same as the processes in the fourteenth embodiment, so description thereof will be omitted. Note that if image segmentation processing is to be performed on the input image unconditionally with respect to the imaging conditions, the processing in step S4130 may be omitted after the processing in step S4120, and the processing may proceed to step S4140.

ステップS4160では、評価部2805は、ステップS4150における評価結果が真値である領域ラベル画像が複数ある場合、所定の選択基準に応じて、当該複数の領域ラベル画像のうち出力すべき領域ラベル画像を選択/判断する。評価部2805は、例えば、時系列的に最初に評価結果として真値が出力された領域ラベル画像を選択する。なお、選択基準はこれに限られず、所望の構成に応じて任意に設定されてよい。評価部2805は、例えば、評価結果が真値である領域ラベル画像のうち、入力画像の撮影条件群と学習データの撮影条件の組み合わせが最も近い(合致する)画像セグメンテーションエンジンにより生成された領域ラベル画像を選択/判断してもよい。 In step S4160, if there are a plurality of region label images for which the evaluation result in step S4150 is a true value, the evaluation unit 2805 selects a region label image to be output among the plurality of region label images according to a predetermined selection criterion. Select/judge. For example, the evaluation unit 2805 selects the region label image for which the true value is output as the first evaluation result in chronological order. Note that the selection criteria are not limited to this, and may be arbitrarily set according to a desired configuration. For example, the evaluation unit 2805 selects the region label generated by the image segmentation engine that has the closest (matching) combination of the shooting conditions of the input image and the shooting conditions of the learning data among the region labeled images for which the evaluation result is a true value. Images may be selected/judged.

また、全ての領域ラベル画像に対しての評価結果が偽値であった場合には、評価部2805は、画像セグメンテーション処理が適切に行えなかったと判断し、領域無しラベル画像を生成し、出力/選択する。ステップS4170以降の処理は、実施例14のステップS4170以降の処理と同様であるため説明を省略する。 Further, when the evaluation results for all region label images are false values, the evaluation unit 2805 determines that the image segmentation processing could not be performed appropriately, generates a regionless label image, and outputs/outputs it. select. Since the processing after step S4170 is the same as the processing after step S4170 in the fourteenth embodiment, the description thereof is omitted.

上記のように、本実施例に係る画像処理装置2800では、セグメンテーション処理部2804は、複数の画像セグメンテーションエンジンを用いて、入力画像から複数の領域ラベル画像を生成する。評価部2805は、所定の選択基準に基づいて、出力すべきと評価された領域ラベル画像のうちの少なくとも1つ、又は領域ラベル無し画像を選択する。出力部2807は、評価部2805によって選択された領域ラベル画像を出力する。 As described above, in the image processing apparatus 2800 according to this embodiment, the segmentation processing unit 2804 uses a plurality of image segmentation engines to generate a plurality of region label images from the input image. The evaluation unit 2805 selects at least one of the evaluated region-labeled images or the region-unlabeled image to be output based on predetermined selection criteria. The output unit 2807 outputs the region label image selected by the evaluation unit 2805. FIG.

これにより、本実施例に係る画像処理装置2800では、領域ラベル画像評価エンジンの出力に基づいて、画像セグメンテーション処理に失敗した領域ラベル画像を出力することを防ぐことができる。また、領域ラベル画像評価エンジンが出力する画像評価指数が真値である領域ラベル画像が複数ある場合に、自動的にその中の一つを選択して表示又は出力することができる。 Accordingly, in the image processing apparatus 2800 according to this embodiment, it is possible to prevent an area label image for which image segmentation processing has failed from being output based on the output of the area label image evaluation engine. Further, when there are a plurality of area label images whose image evaluation index output by the area label image evaluation engine is a true value, one of them can be automatically selected and displayed or output.

なお、本実施例では、画像評価指数が真値である複数の領域ラベル画像のうちの少なくとも一つを選択して出力する構成としたが、画像評価指数が真値である複数の領域ラベル画像の全てを出力する構成としてもよい。この場合には、解析部2806は、評価部2805から出力された全ての領域ラベル画像について画像解析を行う。また、出力部2807は、評価部2805から出力された全ての領域ラベル画像及び対応する解析結果を全て表示部2820に表示させてもよいし、他の装置に出力してもよい。 In this embodiment, at least one of the plurality of area label images whose image evaluation index is the true value is selected and output. may be configured to output all of In this case, the analysis unit 2806 performs image analysis on all region label images output from the evaluation unit 2805 . Also, the output unit 2807 may display all the region label images and the corresponding analysis results output from the evaluation unit 2805 on the display unit 2820, or may output them to another device.

(実施例16)
次に、図28及び29を参照して、実施例16に係る画像処理装置について説明する。本実施例では、まず、セグメンテーション処理部が三次元の入力画像を複数の二次元画像(二次元画像群)に分割する。次に、二次元画像群を画像セグメンテーションエンジンに入力し、セグメンテーション処理部が画像セグメンテーションエンジンからの出力画像群を結合することで三次元の領域ラベル画像を生成する。
(Example 16)
Next, an image processing apparatus according to the sixteenth embodiment will be described with reference to FIGS. 28 and 29. FIG. In this embodiment, first, a segmentation processing unit divides a three-dimensional input image into a plurality of two-dimensional images (two-dimensional image group). Next, the two-dimensional image group is input to the image segmentation engine, and the segmentation processing unit combines the output image group from the image segmentation engine to generate a three-dimensional region label image.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted.

本実施例に係る取得部2801は、構造的に連続する二次元画像群で構成された、三次元画像を取得する。具体的には、三次元画像は、例えば、OCTのBスキャン像(断層画像)群で構成された三次元OCTボリューム画像である。 The acquisition unit 2801 according to this embodiment acquires a three-dimensional image composed of a group of structurally continuous two-dimensional images. Specifically, the three-dimensional image is, for example, a three-dimensional OCT volume image composed of a group of OCT B-scan images (tomographic images).

セグメンテーション処理部2804は、本実施例に係る画像セグメンテーションエンジンを用いて、入力画像である三次元画像についてセグメンテーション処理を行い、複数の二次元の領域ラベル画像を生成する。本実施例に係る画像セグメンテーションエンジンの教師データである入力データと出力データのペア群は、二次元画像の画像群により構成されている。セグメンテーション処理部2804は、取得された三次元画像を複数の二次元画像に分割し、二次元画像毎に画像セグメンテーションエンジンに入力する。これにより、セグメンテーション処理部2804は、複数の二次元の領域ラベル画像を生成することができる。さらに、セグメンテーション処理部2804は、複数の二次元の領域ラベル画像を分割前の二次元画像の配置に並べて結合し、三次元の領域ラベル画像を生成する。 The segmentation processing unit 2804 uses the image segmentation engine according to this embodiment to perform segmentation processing on the three-dimensional image, which is the input image, and generates a plurality of two-dimensional region label images. A pair group of input data and output data, which is training data for the image segmentation engine according to the present embodiment, is composed of an image group of two-dimensional images. A segmentation processing unit 2804 divides the obtained three-dimensional image into a plurality of two-dimensional images, and inputs each two-dimensional image to the image segmentation engine. This allows the segmentation processing unit 2804 to generate a plurality of two-dimensional region label images. Furthermore, the segmentation processing unit 2804 arranges and joins a plurality of two-dimensional area label images in the arrangement of the two-dimensional images before division to generate a three-dimensional area label image.

評価部2805は、領域ラベル画像評価エンジンを用いて、三次元の領域ラベル画像について尤もらしい領域ラベル画像か否かを判断する。評価結果が真値であった場合には、評価部2805は、当該三次元の領域ラベル画像を出力すべき領域ラベル画像として判断し出力する。一方、評価結果が偽値であった場合には、評価部2805は、三次元の領域ラベル無し画像を生成し、出力する。 The evaluation unit 2805 uses the region label image evaluation engine to determine whether the three-dimensional region label image is a plausible region label image. If the evaluation result is a true value, the evaluation unit 2805 determines and outputs the three-dimensional area label image as an area label image to be output. On the other hand, if the evaluation result is a false value, the evaluation unit 2805 generates and outputs a three-dimensional area-unlabeled image.

なお、領域ラベル画像評価エンジンが学習済モデルを含む場合には、当該学習済モデルの教師データとしては、三次元の領域ラベル画像と画像評価指数を用いることができる。また、評価部2805は、結合前の二次元の領域ラベル画像の各々について評価を行ってもよい。 Note that when the region label image evaluation engine includes a trained model, a three-dimensional region label image and an image evaluation index can be used as training data for the trained model. Moreover, the evaluation unit 2805 may evaluate each of the two-dimensional area label images before combination.

解析部2806は、評価部2805によって尤もらしい領域ラベル画像と判断された三次元の領域ラベル画像について画像解析処理を行う。なお、解析部2806は、結合前の二次元の領域ラベル画像の各々について画像解析処理を行ってもよい。また、評価部2805によって三次元の領域ラベル無し画像が出力された場合には、解析部2806は画像解析を行わない。 The analysis unit 2806 performs image analysis processing on the three-dimensional region label image determined by the evaluation unit 2805 to be a plausible region label image. Note that the analysis unit 2806 may perform image analysis processing on each of the two-dimensional area label images before combining. Also, when the evaluation unit 2805 outputs a three-dimensional area-unlabeled image, the analysis unit 2806 does not perform image analysis.

出力部2807は、三次元の領域ラベル画像や解析結果を出力する。なお、出力部2807が、生成された三次元の領域ラベル画像を表示部2820に表示させる際における、三次元の領域ラベル画像の表示態様は任意であってよい。 The output unit 2807 outputs a three-dimensional region label image and analysis results. When the output unit 2807 causes the display unit 2820 to display the generated 3D area label image, the display mode of the 3D area label image may be arbitrary.

次に、図29を参照して、本実施例に係る一連の画像処理について説明する。なお、本実施例に係るステップS2910~ステップS2930、及びステップS2950~ステップS2970の処理は、実施例8におけるこれらの処理と同様であるため、説明を省略する。ただし、ステップS2910では、取得部2801は三次元画像を取得する。なお、入力画像に対して、撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS2920の処理の後に、ステップS2930の処理を省き、処理をステップS2940に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S2910 to S2930 and steps S2950 to S2970 according to the present embodiment are the same as those in the eighth embodiment, and therefore description thereof is omitted. However, in step S2910, the acquisition unit 2801 acquires a three-dimensional image. Note that if image segmentation processing is to be performed on the input image unconditionally with respect to the shooting conditions, the processing of step S2930 may be omitted after the processing of step S2920, and the processing may proceed to step S2940.

ステップS2930において、処理可否判定部2803が、画像セグメンテーションエンジンによって入力画像を対処可能と判定した場合には、処理はステップS2940に移行する。ステップS2940では、セグメンテーション処理部2804が、取得された三次元画像を複数の二次元画像に分割する。セグメンテーション処理部2804は、分割した複数の二次元画像のそれぞれを画像セグメンテーションエンジンに入力し、複数の二次元の領域ラベル画像を生成する。セグメンテーション処理部2804は、取得した三次元画像に基づいて、生成した複数の二次元の領域ラベル画像を結合し、三次元の領域ラベル画像を生成する。ステップS2950以降の処理は、実施例8のステップS2950以降の処理と同様であるため説明を省略する。 In step S2930, if the processability determination unit 2803 determines that the input image can be processed by the image segmentation engine, the process proceeds to step S2940. In step S2940, the segmentation processing unit 2804 divides the acquired 3D image into a plurality of 2D images. The segmentation processing unit 2804 inputs each of the plurality of divided two-dimensional images to the image segmentation engine to generate a plurality of two-dimensional region label images. The segmentation processing unit 2804 combines a plurality of generated two-dimensional region label images based on the acquired three-dimensional image to generate a three-dimensional region label image. Since the processing after step S2950 is the same as the processing after step S2950 in the eighth embodiment, the description thereof is omitted.

上記のように、本実施例に係るセグメンテーション処理部2804は、入力画像を入力画像の次元よりも低い次元の複数の画像に分割し、分割した画像毎にセグメンテーションエンジン入力する。より具体的には、セグメンテーション処理部2804は、三次元の入力画像を複数の二次元の画像に分割して画像セグメンテーションエンジンに入力する。セグメンテーション処理部2804は、画像セグメンテーションエンジンから出力された複数の二次元の領域ラベル画像を結合し、三次元の領域ラベル画像を生成する。 As described above, the segmentation processing unit 2804 according to this embodiment divides the input image into a plurality of images with dimensions lower than that of the input image, and inputs each divided image to the segmentation engine. More specifically, the segmentation processing unit 2804 divides the three-dimensional input image into a plurality of two-dimensional images and inputs them to the image segmentation engine. A segmentation processing unit 2804 combines a plurality of two-dimensional region label images output from the image segmentation engine to generate a three-dimensional region label image.

これにより、本実施例に係るセグメンテーション処理部2804は、二次元画像の教師データを用いて学習が行われた学習済モデルを含む画像セグメンテーションエンジンを用いて、三次元画像を画像セグメンテーション処理することができる。 As a result, the segmentation processing unit 2804 according to this embodiment can perform image segmentation processing on the 3D image using an image segmentation engine that includes a trained model that has been trained using the teacher data of the 2D image. can.

なお、本実施例に係るセグメンテーション処理部2804は、三次元の入力画像を複数の二次元の画像に分割して、画像セグメンテーション処理を行った。しかしながら、当該分割に係る処理を行う対象は三次元の入力画像に限られない。例えば、セグメンテーション処理部2804は、二次元の入力画像を複数の一次元の画像に分割して、画像セグメンテーション処理を行ってもよい。また、セグメンテーション処理部2804は、四次元の入力画像を複数の三次元の画像や複数の二次元の画像に分割して、画像セグメンテーション処理を行ってもよい。 Note that the segmentation processing unit 2804 according to this embodiment divides the three-dimensional input image into a plurality of two-dimensional images and performs image segmentation processing. However, the target for performing the processing related to the division is not limited to the three-dimensional input image. For example, the segmentation processing unit 2804 may divide a two-dimensional input image into a plurality of one-dimensional images and perform image segmentation processing. Also, the segmentation processing unit 2804 may divide a four-dimensional input image into a plurality of three-dimensional images or a plurality of two-dimensional images and perform image segmentation processing.

(実施例17)
次に、図28及び29を参照して、実施例17に係る画像処理装置について説明する。本実施例では、セグメンテーション処理部が三次元の入力画像を複数の二次元画像に分割し、複数の二次元画像を複数の画像セグメンテーションエンジンによって並列に画像セグメンテーション処理する。その後、セグメンテーション処理部が、各画像セグメンテーションエンジンからの出力画像を結合することで三次元の領域ラベル画像を生成する。
(Example 17)
Next, an image processing apparatus according to the seventeenth embodiment will be described with reference to FIGS. 28 and 29. FIG. In this embodiment, the segmentation processing unit divides a three-dimensional input image into a plurality of two-dimensional images, and the plurality of two-dimensional images are subjected to image segmentation processing in parallel by a plurality of image segmentation engines. A segmentation processor then generates a three-dimensional region label image by combining the output images from each image segmentation engine.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例16に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例16に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は、実施例8及び16に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the sixteenth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the sixteenth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatuses according to the eighth and sixteenth embodiments, so the same reference numerals are used for the configuration shown in FIG. 28, and the description thereof is omitted. do.

本実施例に係るセグメンテーション処理部2804は、実施例16と同様な複数の画像セグメンテーションエンジンを用いて、入力画像である三次元画像について画像セグメンテーション処理を行い、三次元の領域ラベル画像を生成する。なお、セグメンテーション処理部2804が用いる複数の画像セグメンテーションエンジン群は、回路やネットワークを介して、二つ以上の装置群に分散処理可能なように実装されていてもよいし、単一の装置に実装されていてもよい。 A segmentation processing unit 2804 according to the present embodiment uses a plurality of image segmentation engines similar to those of the sixteenth embodiment to perform image segmentation processing on a three-dimensional image that is an input image and generate a three-dimensional region label image. Note that the plurality of image segmentation engine groups used by the segmentation processing unit 2804 may be implemented in two or more device groups so as to be able to perform distributed processing via circuits or networks, or may be implemented in a single device. may have been

セグメンテーション処理部2804は、実施例16と同様に、取得された三次元画像を複数の二次元画像に分割する。セグメンテーション処理部2804は、複数の二次元画像について複数の画像セグメンテーションエンジンを用いて、分担して(並列的に)画像セグメンテーション処理を行い、複数の二次元の領域ラベル画像を生成する。セグメンテーション処理部2804は、複数の画像セグメンテーションエンジンから出力された複数の二次元の領域ラベル画像を、処理対象である三次元画像に基づいて結合し、三次元の領域ラベル画像を生成する。より具体的には、セグメンテーション処理部2804は、複数の二次元の領域ラベル画像を分割前の二次元画像の配置に並べて結合し、三次元の領域ラベル画像を生成する。 A segmentation processing unit 2804 divides the acquired three-dimensional image into a plurality of two-dimensional images as in the sixteenth embodiment. A segmentation processing unit 2804 uses a plurality of image segmentation engines for a plurality of two-dimensional images to share (in parallel) image segmentation processing and generate a plurality of two-dimensional area label images. A segmentation processing unit 2804 combines a plurality of two-dimensional region label images output from a plurality of image segmentation engines based on a three-dimensional image to be processed to generate a three-dimensional region label image. More specifically, the segmentation processing unit 2804 arranges and joins a plurality of two-dimensional region label images in the arrangement of the two-dimensional images before division to generate a three-dimensional region label image.

次に、図29を参照して、本実施例に係る一連の画像処理について説明する。なお、本実施例に係るステップS2910~ステップS2930、及びステップS2950~ステップS2970の処理は、実施例16におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS2920の処理の後に、ステップS2930の処理を省き、処理をステップS2940に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. Note that the processes of steps S2910 to S2930 and steps S2950 to S2970 according to the present embodiment are the same as those in the sixteenth embodiment, and thus description thereof is omitted. Note that if image segmentation processing is to be performed on the input image unconditionally with respect to the shooting conditions, the processing of step S2930 may be omitted after the processing of step S2920, and the processing may proceed to step S2940.

ステップS2930において、処理可否判定部2803が、画像セグメンテーションエンジンによって入力画像を対処可能と判定した場合には、処理はステップS2940に移行する。ステップS2940では、セグメンテーション処理部2804が、取得された三次元画像を複数の二次元画像に分割する。セグメンテーション処理部2804は、分割した複数の二次元画像のそれぞれを複数の画像セグメンテーションエンジンに入力し、並列的に画像セグメンテーション処理して、複数の二次元の領域ラベル画像を生成する。セグメンテーション処理部2804は、取得した三次元画像に基づいて、生成した複数の二次元の領域ラベル画像を結合し、三次元の領域ラベル画像を生成する。 In step S2930, if the processability determination unit 2803 determines that the input image can be processed by the image segmentation engine, the process proceeds to step S2940. In step S2940, the segmentation processing unit 2804 divides the acquired 3D image into a plurality of 2D images. The segmentation processing unit 2804 inputs each of the plurality of divided two-dimensional images to a plurality of image segmentation engines, performs image segmentation processing in parallel, and generates a plurality of two-dimensional region label images. The segmentation processing unit 2804 combines a plurality of generated two-dimensional region label images based on the acquired three-dimensional image to generate a three-dimensional region label image.

上記のように、本実施例に係るセグメンテーション処理部2804は、複数の画像セグメンテーションエンジンを含む。セグメンテーション処理部2804は、三次元の入力画像を複数の二次元の画像に分割し、分割した複数の二次元の画像について複数の画像セグメンテーションエンジンを並列的に用いて、複数の二次元の領域ラベル画像を生成する。セグメンテーション処理部2804は複数の二次元の領域ラベル画像を統合することで、三次元の領域ラベル画像を生成する。 As described above, the segmentation processor 2804 according to this embodiment includes multiple image segmentation engines. A segmentation processing unit 2804 divides a three-dimensional input image into a plurality of two-dimensional images, uses a plurality of image segmentation engines in parallel for the plurality of divided two-dimensional images, and generates a plurality of two-dimensional region labels. Generate an image. A segmentation processing unit 2804 integrates a plurality of two-dimensional region label images to generate a three-dimensional region label image.

これにより、本実施例に係るセグメンテーション処理部2804は、二次元画像の教師データを用いて学習が行われた学習済モデルを含む画像セグメンテーションエンジンを用いて、三次元画像を画像セグメンテーション処理することができる。また、実施例16と比べて、より効率的に三次元画像を画像セグメンテーション処理することができる。 As a result, the segmentation processing unit 2804 according to this embodiment can perform image segmentation processing on the 3D image using an image segmentation engine that includes a trained model that has been trained using the teacher data of the 2D image. can. In addition, compared with the sixteenth embodiment, the three-dimensional image can be subjected to image segmentation processing more efficiently.

なお、実施例16と同様に、セグメンテーション処理部2804による分割に係る処理を行う対象は三次元の入力画像に限られない。例えば、セグメンテーション処理部2804は、二次元の入力画像を複数の一次元の画像に分割して、画像セグメンテーション処理を行ってもよい。また、セグメンテーション処理部2804は、四次元の入力画像を複数の三次元の画像や複数の二次元の画像に分割して、画像セグメンテーション処理を行ってもよい。 Note that, as in the sixteenth embodiment, the object for which the segmentation processing by the segmentation processing unit 2804 is to be performed is not limited to the three-dimensional input image. For example, the segmentation processing unit 2804 may divide a two-dimensional input image into a plurality of one-dimensional images and perform image segmentation processing. Also, the segmentation processing unit 2804 may divide a four-dimensional input image into a plurality of three-dimensional images or a plurality of two-dimensional images and perform image segmentation processing.

また、複数の画像セグメンテーションエンジンの教師データは、各画像セグメンテーションエンジンで処理を行う処理対象に応じて異なる教師データであってもよい。例えば、第一の画像セグメンテーションエンジンは第一の撮影領域についての教師データで学習を行い、第二の画像セグメンテーションエンジンは第二の撮影領域についての教師データで学習を行ってもよい。この場合には、それぞれの画像セグメンテーションエンジンが、より精度高く二次元画像の画像セグメンテーション処理を行うことができる。 Also, the training data for the plurality of image segmentation engines may be different training data according to the processing target to be processed by each image segmentation engine. For example, a first image segmentation engine may be trained with training data for a first field of view, and a second image segmentation engine may be trained with training data for a second field of view. In this case, each image segmentation engine can perform image segmentation processing of two-dimensional images with higher accuracy.

さらに、評価部2805が、セグメンテーション処理部2804と同様に、学習済モデルを含む複数の領域ラベル画像評価エンジンを用いて、三次元の領域ラベル画像を並列的に評価することもできる。この場合には、評価部2805は、セグメンテーション処理部2804によって生成された複数の二次元の領域ラベル画像について、複数の領域ラベル画像評価エンジンを並列的に用いて、評価を行う。 Furthermore, similarly to the segmentation processing unit 2804, the evaluation unit 2805 can evaluate three-dimensional region label images in parallel using a plurality of region label image evaluation engines including trained models. In this case, the evaluation unit 2805 evaluates a plurality of two-dimensional region label images generated by the segmentation processing unit 2804 using a plurality of region label image evaluation engines in parallel.

その後、各二次元の領域ラベル画像についての画像評価指数が真値である場合には、評価部2805は、三次元の領域ラベル画像が尤もらしい領域ラベル画像であると判断して出力することができる。この場合、領域ラベル画像評価エンジンが含む学習済モデルの教師データは、二次元の領域ラベル画像と画像評価指数により構成することができる。なお、評価部2805は、各二次元の領域ラベル画像の一部についての画像評価指数が真値である場合に、三次元の領域ラベル画像が尤もらしい領域ラベル画像であると判断して出力することもできる。 Thereafter, when the image evaluation index for each two-dimensional region label image is a true value, the evaluation unit 2805 can determine that the three-dimensional region label image is a plausible region label image and output it. can. In this case, the trained model training data included in the region label image evaluation engine can be composed of two-dimensional region label images and image evaluation indices. Note that the evaluation unit 2805 determines that the three-dimensional region label image is a plausible region label image and outputs it when the image evaluation index for a part of each two-dimensional region label image is a true value. can also

(実施例18)
次に、図29及び43を参照して、実施例18に係る画像処理装置について説明する。本実施例では、取得部が撮影装置ではなく画像管理システムから入力画像を取得する。
(Example 18)
Next, an image processing apparatus according to the eighteenth embodiment will be described with reference to FIGS. 29 and 43. FIG. In this embodiment, the acquisition unit acquires the input image from the image management system instead of the imaging device.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。なお、本実施例に係る画像処理装置の構成は実施例8に係る画像処理装置2800の構成と同様であるため、図28に示す構成について同じ参照符号を用いて説明を省略する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is the same as that of the image processing apparatus 2800 according to the eighth embodiment, so the same reference numerals are used for the configuration shown in FIG. 28 and the description thereof is omitted.

図43は、本実施例に係る画像処理装置2800の概略的な構成を示す。本実施例に係る画像処理装置2800は画像管理システム4300、及び表示部2820と任意の回路やネットワークを介して接続されている。画像管理システム4300は、任意の撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システム4300は、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システム4300は、例えば、画像保存通信システム(PACS)を含むことができる。 FIG. 43 shows a schematic configuration of an image processing apparatus 2800 according to this embodiment. An image processing apparatus 2800 according to this embodiment is connected to an image management system 4300 and a display unit 2820 via arbitrary circuits and networks. The image management system 4300 is a device and system for receiving and storing images captured by an arbitrary image capturing device and images subjected to image processing. In addition, the image management system 4300 can transmit images in response to requests from connected devices, perform image processing on saved images, and request other devices to perform image processing. can be done. Image management system 4300 may include, for example, a picture archival communication system (PACS).

本実施例に係る取得部2801は、画像処理装置2800に接続される画像管理システム4300から入力画像を取得することができる。また、出力部2807は、セグメンテーション処理部2804によって生成された領域ラベル画像を、画像管理システム4300に出力することができる。なお、出力部2807は実施例8と同様に、領域ラベル画像を表示部2820に表示させることもできる The acquisition unit 2801 according to this embodiment can acquire an input image from the image management system 4300 connected to the image processing apparatus 2800 . Also, the output unit 2807 can output the region label image generated by the segmentation processing unit 2804 to the image management system 4300 . Note that the output unit 2807 can also display the area label image on the display unit 2820 as in the eighth embodiment.

次に、図29を参照して、本実施例に係る一連の画像処理について説明する。なお、本実施例に係るステップS2920~ステップS2960の処理は、実施例8におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS2920の処理の後に、ステップS2930の処理を省き、処理をステップS2940に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. It should be noted that the processing of steps S2920 to S2960 according to this embodiment is the same as the processing in the eighth embodiment, so description thereof will be omitted. Note that if image segmentation processing is to be performed on the input image unconditionally with respect to the shooting conditions, the processing of step S2930 may be omitted after the processing of step S2920, and the processing may proceed to step S2940.

ステップS2910において、取得部2801は、回路やネットワークを介して接続された画像管理システム4300から、画像管理システム4300が保存している画像を入力画像として取得する。なお、取得部2801は、画像管理システム4300からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、画像管理システム4300が画像を保存した時や、保存した画像を他の装置に送信する前、保存された画像を表示部2820に表示する時に発行されてよい。また、当該要求は、例えば、画像管理システム4300を利用者が操作して画像セグメンテーション処理の要求を行った時や、画像管理システム4300が備える画像解析機能に領域ラベル画像を利用する時等に発行されてよい。 In step S2910, the acquisition unit 2801 acquires an image stored in the image management system 4300 as an input image from the image management system 4300 connected via a circuit or network. Note that the acquisition unit 2801 may acquire an input image in response to a request from the image management system 4300 . Such a request may be issued, for example, when image management system 4300 saves an image, displays the saved image on display 2820 before sending the saved image to another device. The request is issued, for example, when the user operates the image management system 4300 to request image segmentation processing, or when the region label image is used in the image analysis function of the image management system 4300. may be

ステップS2920~ステップS2960の処理は、実施例8における処理と同様である。ステップS2970においては、出力部2807は、ステップS2950において評価部2805によって領域ラベル画像を出力すると判断されたら、領域ラベル画像を画像管理システム4300に出力画像として出力する。なお、出力部2807は、画像処理装置2800の設定や実装によっては、出力画像を画像管理システム4300が利用可能なように加工したり、出力画像のデータ形式を変換したりしてもよい。また、出力部2807は、解析部2806による解析結果も画像管理システム4300に出力することができる。 The processing from step S2920 to step S2960 is the same as the processing in the eighth embodiment. In step S2970, the output unit 2807 outputs the area label image to the image management system 4300 as an output image if the evaluation unit 2805 determines in step S2950 to output the area label image. Note that the output unit 2807 may process the output image so that it can be used by the image management system 4300 or convert the data format of the output image, depending on the settings and implementation of the image processing apparatus 2800 . The output unit 2807 can also output the analysis result by the analysis unit 2806 to the image management system 4300 .

一方、ステップS2950において、評価部2805によって画像セグメンテーション処理を適切に行えなかったと判断したら、領域ラベル無し画像を画像管理システム4300に出力画像として出力する。また、ステップS2930において、処理可否判定部2803が、入力画像を画像セグメンテーション処理不可能と判定した場合にも、出力部2807は、領域ラベル無し画像を画像管理システム4300に出力する。 On the other hand, if the evaluation unit 2805 determines in step S2950 that the image segmentation processing could not be performed properly, the image without region label is output to the image management system 4300 as an output image. In step S 2930 , the output unit 2807 also outputs the region-unlabeled image to the image management system 4300 when the process availability determination unit 2803 determines that the image segmentation process cannot be performed on the input image.

上記のように、本実施例に係る取得部2801は、画像管理システム4300から入力画像を取得する。このため、本実施例の画像処理装置2800は、画像管理システム4300が保存している画像を元に、画像診断に適した領域ラベル画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。また、出力された領域ラベル画像や画像解析結果は画像管理システム4300に保存されたり、画像管理システム4300が備えるユーザーインターフェースに表示されたりすることができる。また、出力された領域ラベル画像は、画像管理システム4300が備える画像解析機能に利用されたり、画像管理システム4300に接続された他の装置に画像管理システム4300を介して送信されたりすることができる。 As described above, the acquisition unit 2801 according to this embodiment acquires an input image from the image management system 4300 . For this reason, the image processing apparatus 2800 of this embodiment creates region labeled images suitable for image diagnosis based on the images stored in the image management system 4300 to increase the invasiveness of the operator and the subject. It can be output without increasing effort. Also, the output area label image and image analysis result can be saved in the image management system 4300 or displayed on a user interface provided in the image management system 4300 . Also, the output region label image can be used for the image analysis function provided in the image management system 4300, or can be transmitted to another device connected to the image management system 4300 via the image management system 4300. .

なお、画像処理装置2800や画像管理システム4300、表示部2820は、不図示の他の装置と回路やネットワークを介して接続されていてもよい。また、これらの装置は本実施例では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。 Note that the image processing device 2800, the image management system 4300, and the display unit 2820 may be connected to other devices (not shown) via circuits or networks. Moreover, although these devices are separate devices in this embodiment, some or all of these devices may be integrated.

(実施例19)
次に、図44及び45を参照して、実施例19に係る画像処理装置について説明する。本実施例では、修正部が、領域ラベル画像修正エンジンを用いて、画像セグメンテーションエンジンから出力された領域ラベル画像に誤った領域ラベル値が設定されていれば修正する。
(Example 19)
Next, an image processing apparatus according to the nineteenth embodiment will be described with reference to FIGS. 44 and 45. FIG. In this embodiment, the correction unit uses the region label image correction engine to correct incorrect region label values set in the region label image output from the image segmentation engine.

特に明記しない限り、本実施例に係る画像処理装置の構成及び処理は、実施例8に係る画像処理装置2800と同様である。そのため、以下では、本実施例に係る画像処理装置について、実施例8に係る画像処理装置との違いを中心として説明する。 Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 2800 according to the eighth embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below, focusing on the differences from the image processing apparatus according to the eighth embodiment.

図44は、本実施例に係る画像処理装置4400の概略的な構成を示す。本実施例に係る画像処理装置4400には、取得部2801、撮影条件取得部2802、処理可否判定部2803、セグメンテーション処理部2804、評価部2805、解析部2806及び出力部2807に加えて、修正部4408が設けられている。なお、画像処理装置4400は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、本実施例に係る画像処理装置4400における修正部4408以外の構成は、実施例8に係る画像処理装置の構成と同様であるため、図28に示す構成について同一の参照符号を用いて示し、説明を省略する。 FIG. 44 shows a schematic configuration of an image processing device 4400 according to this embodiment. The image processing apparatus 4400 according to the present embodiment includes an acquisition unit 2801, an imaging condition acquisition unit 2802, a processing propriety determination unit 2803, a segmentation processing unit 2804, an evaluation unit 2805, an analysis unit 2806, an output unit 2807, and a correction unit. 4408 is provided. Note that the image processing device 4400 may be composed of a plurality of devices provided with some of these components. Here, since the configuration of the image processing apparatus 4400 according to the present embodiment other than the correction unit 4408 is the same as the configuration of the image processing apparatus according to the eighth embodiment, the same reference numerals are used for the configuration shown in FIG. , and the explanation is omitted.

また、画像処理装置4400は、実施例8に係る画像処理装置2800と同様に撮影装置2810、表示部2820及び不図示の他の装置と、任意の回路やネットワークを介して接続されてよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。なお、これらの装置は本実施例では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。 Also, the image processing apparatus 4400 may be connected to the photographing apparatus 2810, the display unit 2820, and other devices (not shown) via arbitrary circuits or networks, similarly to the image processing apparatus 2800 according to the eighth embodiment. Also, these devices may be connected to any other device via a circuit or network, or may be integrally configured with any other device. Although these devices are separate devices in this embodiment, some or all of these devices may be integrated.

本実施例に係る修正部4408には、入力された領域ラベル画像を修正する領域ラベル画像修正エンジンが備えられている。領域ラベル画像修正エンジンは、用語の説明において上述したような、解剖学的な知識ベース処理による領域ラベル値の修正を行う。なお、例えば、修正対象である領域ラベル値の連続領域を上書きする領域ラベル値については、該連続領域に接している画素の数が最も多い領域ラベル値で上書きするものとする。 The modification unit 4408 according to this embodiment includes an area label image modification engine that modifies the input area label image. The region label image modification engine performs region label value modification by anatomical knowledge-based processing as described above in the explanation of terms. Note that, for example, with regard to the area label value overwriting the continuous area of the area label values to be corrected, the area label value with the largest number of pixels in contact with the continuous area shall be overwritten.

次に図45を参照して、本実施例に係る一連の画像処理について説明する。なお、本実施例に係るステップS4510~ステップS4540の処理は、それぞれ、実施例8におけるステップS2910~ステップS2940の処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で画像セグメンテーション処理する場合には、ステップS4520の処理の後に、ステップS4530の処理を省き、処理をステップS4540に移行してよい。 Next, a series of image processing according to this embodiment will be described with reference to FIG. It should be noted that the processing of steps S4510 to S4540 according to this embodiment is the same as the processing of steps S2910 to S2940 in the eighth embodiment, respectively, so description thereof will be omitted. Note that if the image segmentation process is to be performed on the input image unconditionally with respect to the imaging conditions, the process of step S4530 may be omitted after the process of step S4520, and the process may proceed to step S4540.

ステップS4540において、セグメンテーション処理部2804が、領域ラベル画像を生成したら、処理はステップS4550に移行する。ステップS4550において、評価部2805は、実施例8と同様に、領域ラベル画像評価エンジンを用いて、生成された領域ラベル画像を評価する。評価部2805は、評価結果が真値である場合には、当該領域ラベル画像を出力すべき領域ラベル画像として判断する。一方、本実施例に係る評価部2805は、評価結果が偽値である場合には、当該領域ラベル画像は修正が必要な領域ラベル画像であると判断する。 In step S4540, after the segmentation processing unit 2804 generates the region label image, the process proceeds to step S4550. In step S4550, the evaluation unit 2805 evaluates the generated area label image using the area label image evaluation engine, as in the eighth embodiment. If the evaluation result is a true value, the evaluation unit 2805 determines that the area label image is an area label image to be output. On the other hand, the evaluation unit 2805 according to this embodiment determines that the area label image is an area label image that requires correction when the evaluation result is a false value.

ステップS4560では、修正部4408が、ステップS4540において修正が必要な領域ラベル画像として判断された領域ラベル画像に対し、領域ラベル修正エンジンを用いて領域ラベル値の修正を行う。具体的には、修正部4408が、ステップS4540において修正が必要であると判断された領域ラベル画像を、領域ラベル画像修正エンジンに入力する。領域ラベル画像修正エンジンは、入力された領域ラベル画像について、解剖学的な知識ベース処理に従って、誤って設定された領域ラベル値を修正し、修正された領域ラベル画像を出力する。 In step S4560, the correction unit 4408 uses the region label correction engine to correct the region label values of the region label image determined in step S4540 as a region label image requiring correction. Specifically, modification unit 4408 inputs the region label image determined to require modification in step S4540 to the region label image modification engine. The region label image correction engine corrects erroneously set region label values in the input region label image according to anatomical knowledge base processing, and outputs a corrected region label image.

なお、ステップS4550において、生成された領域ラベル画像が出力すべき領域ラベル画像であると判断された場合には、修正部4408は、領域ラベル画像の修正を行わずに、処理を進める。 If it is determined in step S4550 that the generated area label image is the area label image to be output, modifying unit 4408 advances the process without modifying the area label image.

ステップS4570では、解析部2806が、ステップS4540において出力すべき領域ラベル画像であると判断された領域ラベル画像、又は、ステップS4550において領域ラベルの修正が行われた領域ラベル画像を用いて、入力画像の画像解析処理を行う。画像解析処理の内容は実施例8と同様であってよいため、説明を省略する。 In step S4570, the analysis unit 2806 uses the region label image determined to be the region label image to be output in step S4540 or the region label image corrected in step S4550 to generate the input image. image analysis processing. Since the content of the image analysis processing may be the same as that of the eighth embodiment, the description is omitted.

ステップS4580においては、出力部2807が、出力すべき領域ラベル画像として判断された領域ラベル画像又は領域ラベルが修正された領域ラベル画像及び画像解析結果を表示部2820に表示させる。なお、出力部2807は、表示部2820に領域ラベル画像及び画像解析結果を表示させるのに代えて、撮影装置2810や他の装置にこれらを表示させたり、記憶させたりしてもよい。また、出力部2807は、画像処理装置4400の設定や実装形態によっては、これらを撮影装置2810や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。また、出力部2807は、領域ラベル画像及び画像解析結果の両方を出力する構成に限られず、これらのうちのいずれか一方のみを出力してもよい。 In step S4580, the output unit 2807 causes the display unit 2820 to display the area label image determined as the area label image to be output or the area label image with the corrected area label and the image analysis result. Note that the output unit 2807 may cause the imaging device 2810 or another device to display or store the region label image and the image analysis result instead of displaying the region label image and the image analysis result on the display unit 2820 . The output unit 2807 processes these data so that they can be used by the imaging device 2810 or other devices, or converts them into data formats that can be transmitted to an image management system or the like, depending on the settings and implementation of the image processing device 4400 . may be converted. Also, the output unit 2807 is not limited to outputting both the region label image and the image analysis result, and may output only one of them.

一方、ステップS4530において画像セグメンテーション処理が不可能であるとされていた場合には、出力部2807は、領域ラベル無し画像を出力し、表示部2820に表示させる。なお、領域ラベル無し画像を出力する代わりに、撮影装置2810に対して、画像セグメンテーション処理が不可能であったことを示す信号を送信してもよい。ステップS4580における出力処理が終了すると、一連の画像処理が終了する。 On the other hand, if it is determined in step S4530 that the image segmentation processing is impossible, the output unit 2807 outputs an image without region label and causes the display unit 2820 to display it. It should be noted that instead of outputting the region-unlabeled image, a signal indicating that the image segmentation process was not possible may be sent to the imaging device 2810 . When the output processing in step S4580 ends, the series of image processing ends.

上記のように、本実施例に係る画像処理装置4400は、修正部4408を更に備える。修正部4408は、所定の修正手法による知識ベース処理を行う領域ラベル画像修正エンジンを用いて、セグメンテーション処理部2804によって生成された領域ラベル画像を修正する。出力部2807は、修正部4408によって修正された領域ラベル画像を出力する。 As described above, the image processing apparatus 4400 according to this embodiment further includes the correction unit 4408 . The correction unit 4408 corrects the region label image generated by the segmentation processing unit 2804 using a region label image correction engine that performs knowledge base processing according to a predetermined correction method. The output unit 2807 outputs the region label image corrected by the correction unit 4408. FIG.

特に、本実施例に係る修正部4408は、評価部2805によって、画像セグメンテーション処理が適切に行えなかったと判断された領域ラベル画像について、領域ラベルを修正する。また、解析部2806は、領域ラベルが修正された領域ラベル画像について画像解析処理を行う。 In particular, the correction unit 4408 according to this embodiment corrects the region label for the region label image determined by the evaluation unit 2805 that the image segmentation processing could not be performed appropriately. Also, the analysis unit 2806 performs image analysis processing on the region label image in which the region label has been corrected.

これにより、本実施例に係る画像処理装置2800では、領域ラベル画像修正エンジンによって画像セグメンテーション処理に失敗した領域ラベル画像の誤りを訂正し、出力することができる。 As a result, in the image processing apparatus 2800 according to this embodiment, the region label image correction engine can correct errors in the region label image for which image segmentation processing has failed, and output the corrected region label image.

なお、本実施例では、修正部4408は、評価部2805による評価結果が偽値である領域ラベル画像について領域ラベルを修正した。しかしながら、修正部4408の構成はこれに限られない。修正部4408は、評価部2805による評価結果が真値である領域ラベル画像について、領域ラベルを修正してもよい。この場合、解析部2806は、修正された領域ラベルを用いて入力画像の画像解析処理を行う。また、出力部2807は、修正された領域ラベル画像やその解析結果を出力する。 Note that in this embodiment, the correction unit 4408 corrects the region label for the region label image for which the evaluation result by the evaluation unit 2805 is a false value. However, the configuration of correction unit 4408 is not limited to this. The correction unit 4408 may correct the region label for the region label image for which the evaluation result by the evaluation unit 2805 is a true value. In this case, the analysis unit 2806 performs image analysis processing on the input image using the modified region label. Also, the output unit 2807 outputs the corrected area label image and its analysis result.

さらに、この場合には、評価部2805は、評価結果が偽値である領域ラベル画像については修正部4408によって領域ラベルの修正を行わせないように、評価結果が偽値であったら領域ラベル無し画像を生成することもできる。修正部4408は、評価部2805によって領域ラベル無し画像が生成されたら、修正を行わずに処理を先に進めることができる。 Furthermore, in this case, the evaluation unit 2805 prevents the correcting unit 4408 from correcting the area label of an area label image for which the evaluation result is a false value. Images can also be generated. Once the evaluation unit 2805 has generated the region-unlabeled image, the modification unit 4408 can proceed without modification.

評価部2805による評価結果が真値であるときに、修正部4408によって領域ラベル画像を修正する場合には、画像処理装置2800は、より精度の高い領域ラベル画像や解析結果を出力できる。 If the correction unit 4408 corrects the region label image when the evaluation result by the evaluation unit 2805 is a true value, the image processing apparatus 2800 can output the region label image and the analysis result with higher accuracy.

上述の実施例8乃至19では、セグメンテーション処理部2804が解剖学的な領域を識別可能な領域情報として領域ラベル画像を生成する構成を説明したが、セグメンテーション処理部2804が生成する領域情報はこれに限られない。セグメンテーション処理部が、画像セグメンテーションエンジンを用いて入力画像から生成する領域情報としては、各領域ラベルを有する画素の座標値等の数値データ群等であってもよい。 In the eighth to nineteenth embodiments described above, the configuration in which the segmentation processing unit 2804 generates region label images as region information capable of identifying an anatomical region has been described. Not limited. The region information generated from the input image by the segmentation processing unit using the image segmentation engine may be a group of numerical data such as coordinate values of pixels having each region label.

なお、画像セグメンテーションエンジンや、領域ラベル画像評価エンジン、撮影箇所推定エンジンに含まれるそれぞれ学習済モデルは、画像処理装置2800,4400に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、学習済モデルは、画像処理装置2800,4400と接続される別のサーバの装置等に設けられてもよい。この場合には、画像処理装置2800,4400は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。 Note that the trained models included in the image segmentation engine, region label image evaluation engine, and imaging location estimation engine can be provided in the image processing devices 2800 and 4400, respectively. A trained model may be configured by, for example, a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be configured by a circuit or the like that performs a specific function such as an ASIC. Also, the learned model may be provided in another server device or the like connected to the image processing devices 2800 and 4400 . In this case, the image processing apparatuses 2800 and 4400 can use the trained model by connecting to a server or the like having the trained model via an arbitrary network such as the Internet. Here, the server provided with the learned model may be, for example, a cloud server, a fog server, an edge server, or the like.

実施例8乃至19によれば、従来の画像セグメンテーション処理よりも精度の高い画像セグメンテーション処理を実施できる。 According to the eighth to nineteenth embodiments, image segmentation processing with higher accuracy than conventional image segmentation processing can be performed.

(変形例1)
実施例1乃至7及びそれらの変形例では、処理部222又は第一の処理部822が学習済モデルを用いて、断層画像から網膜層を検出し、境界画像を生成した。また、実施例9乃至19では、セグメンテーション処理部2804が、学習済モデルを含む画像セグメンテーションエンジンを用いて、入力された画像に対応する領域ラベル画像を生成した。
(Modification 1)
In Examples 1 to 7 and their modifications, the processing unit 222 or the first processing unit 822 used the trained model to detect the retinal layer from the tomographic image and generate the boundary image. Also, in Examples 9 to 19, the segmentation processing unit 2804 used an image segmentation engine including a trained model to generate a region label image corresponding to the input image.

これに対し、学習済モデルを用いて検出された網膜層の情報や生成された境界画像又は領域ラベル画像は、操作者からの指示に応じて手動で修正されてもよい。例えば、操作者は、表示部50,2820に表示された、網膜層の検出結果や境界画像又は領域ラベル画像の少なくとも一部を指定し、網膜層の位置やラベルを変更することができる。この場合、検出結果の修正や境界画像又は領域ラベル画像の修正は、処理部222や第一の処理部822、セグメンテーション処理部2804によって、操作者の指示に応じて行われてもよいし、これらとは別の修正部等の構成要素によって行われてもよい。このため、処理部222、第一の処理部822、セグメンテーション処理部2804、又は当該修正部は、操作者の指示に応じて、第一の処理部が検出した網膜層の構造を修正する修正部の一例として機能する。なお、当該修正部等は、CPUやMPU、GPU、FPGA等のプロセッサーによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。 On the other hand, the retinal layer information detected using the trained model and the generated boundary image or region label image may be manually corrected according to instructions from the operator. For example, the operator can specify at least a part of the retinal layer detection result, the boundary image, or the region label image displayed on the display unit 50, 2820 to change the position and label of the retinal layer. In this case, correction of the detection result and correction of the boundary image or the region label image may be performed by the processing unit 222, the first processing unit 822, and the segmentation processing unit 2804 according to the operator's instruction. It may be performed by a component such as a correcting unit that is separate from. Therefore, the processing unit 222, the first processing unit 822, the segmentation processing unit 2804, or the correction unit is a correction unit that corrects the structure of the retinal layers detected by the first processing unit according to the operator's instruction. serves as an example of Note that the correction unit and the like may be composed of a software module or the like executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be composed of a circuit or the like that performs a specific function such as an ASIC.

(変形例2)
変形例1において手動で修正されたデータは、処理部222又は第一の処理部822が用いる学習済モデル、及びセグメンテーション処理部2804が用いる画像セグメンテーションエンジンに含まれる学習済モデルについての追加学習に用いられてもよい。具体的には、処理部222又は第一の処理部822が用いる学習済モデルについて、入力された断層画像を学習データの入力データとし、操作者からの指示に応じて位置が修正された網膜層(層境界)の情報を出力データ(正解データ)として追加学習を行う。なお、操作者からの指示に応じてラベルが修正された境界画像を出力データとしてもよい。また、画像セグメンテーションエンジンに含まれる学習済モデルについて、入力された画像を学習データの入力データとし、操作者からの指示に応じてラベルの位置が変更された領域ラベル画像を出力データとして追加学習を行う。
(Modification 2)
The manually corrected data in Modification 1 is used for additional learning of the trained model used by the processing unit 222 or the first processing unit 822 and the trained model included in the image segmentation engine used by the segmentation processing unit 2804. may be Specifically, for the trained model used by the processing unit 222 or the first processing unit 822, the input tomographic image is used as input data for learning data, and the retinal layer whose position is corrected according to the instruction from the operator. Additional learning is performed using the (layer boundary) information as output data (correct data). The output data may be a boundary image whose label has been corrected according to an instruction from the operator. In addition, for the trained model included in the image segmentation engine, the input image is used as the input data for the training data, and the region label image with the label position changed according to the instruction from the operator is used as the output data for additional learning. conduct.

学習済モデルに対しこのような追加学習を行うことで、学習済モデルを用いた検出処理やセグメンテーション処理の精度を向上させられることが期待できる。また、このような処理を行うことで、学習データに関するラベル付け処理(アノテーション処理)を容易に行うことができ、より精度の高い学習データを容易に作成することができる。 By performing such additional learning on the trained model, it is expected that the accuracy of detection processing and segmentation processing using the trained model can be improved. Moreover, by performing such processing, it is possible to easily perform the labeling processing (annotation processing) on the learning data, and to easily create more accurate learning data.

(変形例3)
変形例2で説明した追加学習は、操作者の指示に応じて行われてもよい。例えば、表示制御部25又は出力部2807は、変形例1に係る操作者の指示に応じた修正が行われた場合に、修正された網膜層の検出結果や領域ラベル画像等を学習データとして用いるか否かを表示部50,2820に表示させることができる。操作者は、表示部50,2820に表示された選択肢を選択することで、追加学習の要否を指示することができる。これにより、画像処理装置20,80,2800,4400は、操作者の指示に応じて、追加学習の要否を決定することができる。
(Modification 3)
The additional learning described in Modification 2 may be performed according to an operator's instruction. For example, the display control unit 25 or the output unit 2807 uses the corrected detection result of the retinal layer, the region label image, etc. as the learning data when the correction is performed according to the operator's instruction according to the first modification. It is possible to display on the display unit 50, 2820 whether or not there is. By selecting options displayed on the display unit 50, 2820, the operator can instruct whether or not additional learning is required. Accordingly, the image processing apparatuses 20, 80, 2800, and 4400 can determine whether or not additional learning is necessary according to the operator's instruction.

なお、上述のように、学習済モデルはサーバ等の装置に設けられることもできる。この場合には、画像処理装置20,80,2800,4400は、追加学習を行うとする操作者の指示に応じて、入力された画像と上述の修正が行われた検出結果又は領域ラベル画像等を学習データのペアとして、当該サーバ等に送信・保存することができる。言い換えると、画像処理装置20,80,2800,4400は、操作者の指示に応じて、学習済モデルを備えるサーバ等の装置に追加学習の学習データを送信するか否かを決定することができる。 Note that, as described above, the trained model can also be provided in a device such as a server. In this case, the image processing apparatuses 20, 80, 2800, and 4400 combine the input image with the above-described modified detection result or region label image, etc., in accordance with the operator's instruction to perform additional learning. can be transmitted and stored in the server or the like as a pair of learning data. In other words, the image processing apparatuses 20, 80, 2800, and 4400 can determine whether or not to transmit learning data for additional learning to a device such as a server having a trained model in accordance with an instruction from the operator. .

(変形例4)
上述した様々な実施例及び変形例では、静止画について、網膜層の検出処理や領域ラベル画像等の生成処理を行う構成について説明した。これに対し、動画像について、上記実施例及び変形例に係る網膜層の検出処理や領域ラベル画像等の生成処理を繰り返し実行してもよい。一般に眼科装置では、本撮影を行う前に、装置の位置合わせ等のためプレビュー画像(動画像)を生成し、表示することが行われている。そのため、例えば、当該プレビュー画像である断層画像の動画像の少なくとも1つのフレーム毎に、上記実施例及び変形例に係る網膜層の検出処理や領域ラベル画像等の生成処理を繰り返し実行してもよい。
(Modification 4)
In the various embodiments and modified examples described above, the configuration for performing the process of detecting the retinal layer and the process of generating the region label image and the like for the still image has been described. On the other hand, the process of detecting the retinal layer and the process of generating the region label image and the like according to the above-described embodiment and modifications may be repeatedly performed on the moving image. Generally, ophthalmologic apparatuses generate and display a preview image (moving image) for purposes such as positioning of the apparatus before actual photographing. Therefore, for example, the process of detecting the retinal layer and the process of generating the region label image and the like according to the above-described embodiments and modifications may be repeatedly executed for each at least one frame of the moving image of the tomographic image, which is the preview image. .

この場合には、表示制御部25又は出力部2807は、プレビュー画像について検出された網膜層や領域ラベル画像等を表示部50,2820に表示させることができる。また、画像処理装置20,80,2800,4400は、プレビュー画像について検出された網膜層や、網膜層のラベル付けがされた領域が、断層画像の表示領域における所定の位置に位置するようにOCT装置を制御することができる。より具体的には、画像処理装置20,80,2800,4400は、プレビュー画像について検出された網膜層や網膜層のラベル付けがされた領域が、断層画像の表示領域における所定の位置に位置するようにコヒーレンスゲート位置を変更する。なお、コヒーレンスゲート位置の調整は、例えば、駆動制御部23によってコヒーレンスゲートステージ14を駆動させる等により行われてよい。 In this case, the display control unit 25 or the output unit 2807 can cause the display units 50 and 2820 to display the retinal layers, region label images, and the like detected in the preview image. In addition, the image processing apparatuses 20, 80, 2800, and 4400 perform OCT so that the retinal layers detected in the preview image and the regions labeled with the retinal layers are positioned at predetermined positions in the display region of the tomographic image. You can control the device. More specifically, the image processing apparatuses 20, 80, 2800, and 4400 position the retinal layers detected in the preview image and the labeled regions of the retinal layers at predetermined positions in the display region of the tomographic image. Change the coherence gate position as follows. Note that the coherence gate position may be adjusted by, for example, driving the coherence gate stage 14 by the drive control unit 23 .

なお、当該コヒーレンスゲート位置の調整は、操作者による指示に応じて手動で行われてもよい。この場合、操作者は、表示部50,2820に表示された、プレビュー画像について検出された網膜層や領域ラベル画像に基づいて、コヒーレンスゲート位置の調整量を画像処理装置20,80,2800,4400に入力することができる。 Note that the adjustment of the coherence gate position may be manually performed according to an instruction from the operator. In this case, the operator sets the adjustment amount of the coherence gate position to the image processing devices 20, 80, 2800, and 4400 based on the retinal layers and region label images detected for the preview images displayed on the display units 50 and 2820. can be entered in

このような処理によれば、学習済モデルを用いて検出された網膜層又は生成された領域ラベル画像に基づいて、被検眼に対するOCT装置の位置合わせ(アライメント)を、適切に行うことができる。 According to such processing, it is possible to appropriately align the OCT apparatus with respect to the subject's eye based on the retinal layers detected using the trained model or the generated region label image.

なお、上記実施例及び変形例に係る網膜層の検出処理や領域ラベル画像等の生成処理を適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部に記憶(保存)された動画像であってもよい。また、コヒーレンスゲート位置等の各種の調整中では、被検眼の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く網膜層の検出結果や領域ラベル画像等が得られない可能性がある。そこで、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、学習済モデルを用いた網膜層の検出処理や領域ラベル画像等の生成処理を自動的に開始するように構成してもよい。また、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、学習済モデルを用いた画像セグメンテーション処理を指示するボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。 Note that moving images to which the retinal layer detection processing and region label image generation processing according to the above-described embodiments and modifications can be applied are not limited to live moving images. It can be an image. In addition, during various adjustments such as the coherence gate position, there is a possibility that the object to be imaged, such as the retina of the subject's eye, has not yet been successfully imaged. Therefore, the difference between the medical image input to the trained model and the medical image used as learning data is large, so there is a possibility that the detection result of the retinal layer, the region label image, etc. cannot be obtained with high accuracy. Therefore, when an evaluation value such as image quality evaluation of a tomographic image (B-scan) exceeds a threshold value, the retinal layer detection processing using the trained model and the generation processing of the region label image, etc. are automatically started. may In addition, when the evaluation value such as the image quality evaluation of the tomographic image (B scan) exceeds the threshold, the button for instructing the image segmentation processing using the trained model is changed to the state where the examiner can specify (active state). may be configured to

(変形例5)
疾病眼では、疾病の種類に応じて画像特徴が異なる。そのため、上述した様々な実施例や変形例において用いられる学習済モデルは、疾病の種類毎又は異常部位毎にそれぞれ生成・用意されてもよい。この場合には、例えば、画像処理装置20,80,2800,4400は、操作者からの被検眼の疾病の種類や異常部位等の入力(指示)に応じて、処理に用いる学習済モデルを選択することができる。なお、疾病の種類や異常部位毎に用意される学習済モデルは、網膜層の検出や領域ラベル画像等の生成に用いられる学習済モデルに限られず、例えば、画像の評価用のエンジンや解析用のエンジン等で用いられる学習済モデルであってもよい。
(Modification 5)
Diseased eyes have different image features depending on the type of disease. Therefore, the learned models used in the various embodiments and modifications described above may be generated and prepared for each type of disease or for each abnormal site. In this case, for example, the image processing apparatuses 20, 80, 2800, and 4400 select a trained model to be used for processing in accordance with an operator's input (instruction) of the type of disease, abnormal site, etc. of the eye to be examined. can do. Note that the trained models prepared for each disease type and abnormal site are not limited to the trained models used for detecting retinal layers and generating region labeled images. It may be a trained model used in an engine or the like.

また、画像処理装置20,80,2800,4400は、別に用意された学習済モデルを用いて、画像から被検眼の疾病の種類や異常部位を識別してもよい。この場合には、画像処理装置20,80,2800,4400は、当該別に用意された学習済モデルを用いて識別された疾病の種類や異常部位に基づいて、上記処理に用いる学習済モデルを自動的に選択することができる。なお、当該被検眼の疾病の種類や異常部位を識別するための学習済モデルは、断層画像や眼底画像等を入力データとし、疾病の種類やこれら画像における異常部位を出力データとした学習データのペアを用いて学習を行ってよい。ここで、学習データの入力データとしては、断層画像や眼底画像等を単独で入力データとしてもよいし、これらの組み合わせを入力データとしてもよい。 Further, the image processing apparatuses 20, 80, 2800, and 4400 may use a separately prepared trained model to identify the type of disease and abnormal site of the subject's eye from the image. In this case, the image processing apparatuses 20, 80, 2800, and 4400 automatically select the learned model used for the above process based on the type of disease and abnormal site identified using the separately prepared learned model. can be selectively selected. The trained model for identifying the type of disease and abnormal site of the eye to be examined uses tomographic images, fundus images, etc. as input data, and learns the type of disease and abnormal sites in these images as output data. Learning may be done in pairs. Here, as input data for learning data, a tomographic image, a fundus image, or the like may be used alone as input data, or a combination thereof may be used as input data.

また、異常部位を検出する場合には、敵対性生成ネットワーク(GAN:Generative Adversarial Netwoks)や変分オートエンコーダ―(VAE:Variational auto-encoder)を用いてもよい。例えば、断層画像の生成を学習して得た生成器と、生成器が生成した新たな断層画像と本物の眼底正面画像との識別を学習して得た識別器とからなるDCGAN(Deep Convolutional GAN)を機械学習モデルとして用いることができる。 In addition, when detecting an abnormal site, an adversarial generation network (GAN: Generative Adversarial Networks) or a variational auto-encoder (VAE: Variational auto-encoder) may be used. For example, DCGAN (Deep Convolutional GAN) consisting of a generator obtained by learning to generate a tomographic image and a discriminator obtained by learning to discriminate between a new tomographic image generated by the generator and a real frontal fundus image. ) can be used as a machine learning model.

DCGANを用いる場合には、例えば、識別器が入力された断層画像をエンコードすることで潜在変数にし、生成器が潜在変数に基づいて新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像との差分を異常部位として抽出することができる。また、VAEを用いる場合には、例えば、入力された断層画像をエンコーダーによりエンコードすることで潜在変数にし、潜在変数をデコーダーによりデコードすることで新たな断層画像を生成する。その後、入力された断層画像と生成された新たな断層画像像との差分を異常部位として抽出することができる。なお、入力データの例として断層画像を例として説明したが、眼底画像や前眼の正面画像等を用いてもよい。 When DCGAN is used, for example, a classifier encodes an input tomographic image into a latent variable, and a generator generates a new tomographic image based on the latent variable. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal site. When VAE is used, for example, an input tomographic image is encoded by an encoder to generate a latent variable, and a decoder decodes the latent variable to generate a new tomographic image. After that, the difference between the input tomographic image and the generated new tomographic image can be extracted as an abnormal site. Although a tomographic image has been described as an example of input data, a fundus image, a front image of the anterior eye, or the like may be used.

(変形例6)
上述した様々な実施例及び変形例において、処理部222や、第一の処理部822、セグメンテーション処理部2804により学習済モデルを用いて、被検眼の領域を検出する場合には、検出した領域毎に所定の画像処理を施すこともできる。例えば、硝子体領域、網膜領域、及び脈絡膜領域のうちの少なくとも2つの領域を検出する場合を考える。この場合には、検出された少なくとも2つの領域に対してコントラスト調整等の画像処理を施す際に、それぞれ異なる画像処理のパラメータを用いることで、各領域に適した調整を行うことができる。各領域に適した調整が行われた画像を表示することで、操作者は領域毎の疾病等をより適切に診断することができる。なお、検出された領域毎に異なる画像処理のパラメータを用いる構成については、例えば、学習済モデルを用いずに被検眼の領域を検出する第二の処理部823によって検出された被検眼の領域について同様に適用されてもよい。
(Modification 6)
In the various embodiments and modifications described above, when detecting a region of the eye to be examined using a trained model by the processing unit 222, the first processing unit 822, and the segmentation processing unit 2804, each detected region can be subjected to predetermined image processing. For example, consider the case of detecting at least two regions of the vitreous region, the retinal region, and the choroidal region. In this case, when performing image processing such as contrast adjustment on at least two detected regions, by using different image processing parameters, it is possible to perform adjustment suitable for each region. By displaying an image adjusted appropriately for each region, the operator can more appropriately diagnose a disease or the like for each region. Regarding the configuration using different image processing parameters for each detected region, for example, the region of the eye to be examined detected by the second processing unit 823 that detects the region of the eye to be examined without using the learned model may be applied as well.

(変形例7)
上述した様々な実施例及び変形例における表示制御部25又は出力部2807は、表示画面のレポート画面において、所望の層の層厚や各種の血管密度等の解析結果を表示させてもよい。また、視神経乳頭部、黄斑部、血管領域、神経線維束、硝子体領域、黄斑領域、脈絡膜領域、強膜領域、篩状板領域、網膜層境界、網膜層境界端部、視細胞、血球、血管壁、血管内壁境界、血管外側境界、神経節細胞、角膜領域、隅角領域、シュレム管等の少なくとも1つを含む注目部位に関するパラメータの値(分布)を解析結果として表示させてもよい。このとき、例えば、各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い解析結果を表示させることができる。なお、アーチファクトは、例えば、血管領域等による光吸収により生じる偽像領域や、プロジェクションアーチファクト、被検眼の状態(動きや瞬き等)によって測定光の主走査方向に生じる正面画像における帯状のアーチファクト等であってもよい。また、アーチファクトは、例えば、被検者の所定部位の医用画像上に撮影毎にランダムに生じるような写損領域であれば、何でもよい。また、表示制御部25又は出力部2807は、上述したような様々なアーチファクト(写損領域)の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示部50,2820に表示させてもよい。また、ドルーゼン、新生血管、白斑(硬性白斑)、及びシュードドルーゼン等の異常部位等の少なくとも1つを含む領域に関するパラメータの値(分布)を解析結果として表示させてもよい。
(Modification 7)
The display control unit 25 or the output unit 2807 in the various embodiments and modifications described above may display analysis results such as desired layer thicknesses and various blood vessel densities on the report screen of the display screen. In addition, optic papilla, macular region, vascular region, nerve fiber bundle, vitreous region, macular region, choroidal region, scleral region, cribriform plate region, retinal layer boundary, retinal layer boundary edge, photoreceptors, blood cells, A value (distribution) of parameters relating to a region of interest including at least one of a blood vessel wall, an inner wall boundary of a blood vessel, an outer boundary of a blood vessel, a ganglion cell, a corneal area, an angle area, Schlemm's canal, etc., may be displayed as an analysis result. At this time, for example, by analyzing a medical image to which various artifact reduction processes have been applied, it is possible to display an accurate analysis result. Artifacts include, for example, false image areas caused by light absorption by blood vessel areas, projection artifacts, and strip-shaped artifacts in the front image that occur in the main scanning direction of the measurement light due to the state of the subject's eye (movement, blinking, etc.). There may be. Also, the artifact may be anything, for example, as long as it is an image failure area that occurs randomly in each imaging on a medical image of a predetermined region of the subject. In addition, the display control unit 25 or the output unit 2807 causes the display unit 50 or 2820 to display the parameter values (distribution) regarding the area including at least one of the above-described various artifacts (imaging area) as the analysis result. may Also, parameter values (distribution) relating to an area including at least one of drusen, new blood vessels, vitiligo (hard vitiligo), and abnormal sites such as pseudodrusen may be displayed as the analysis result.

また、解析結果は、解析マップや、各分割領域に対応する統計値を示すセクター等で表示されてもよい。なお、解析結果は、医用画像の解析結果を学習データとして学習して得た学習済モデル(解析結果生成エンジン、解析結果生成用の学習済モデル)を用いて生成されたものであってもよい。このとき、学習済モデルは、医用画像とその医用画像の解析結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の解析結果とを含む学習データ等を用いた学習により得たものであってもよい。 Further, the analysis result may be displayed as an analysis map, a sector indicating statistical values corresponding to each divided area, or the like. The analysis results may be generated using a trained model (analysis result generation engine, trained model for generating analysis results) obtained by learning analysis results of medical images as learning data. . At this time, the trained model is learned using learning data including medical images and analysis results of the medical images, or learning data including medical images and analysis results of medical images of a different type from the medical images. It may be obtained by

また、学習データは、処理部222、又は第一の処理部822及び/若しくは第二の処理部823による網膜層の検出結果や、セグメンテーション処理部2804で生成された領域ラベル画像と、それらを用いた医用画像の解析結果とを含んだものでもよい。この場合、画像処理装置は、例えば、解析結果生成用の学習済モデルを用いて、第一の検出処理を実行して得た結果から、断層画像の解析結果を生成する、解析結果生成部の一例として機能することができる。 Further, the learning data includes the detection result of the retinal layer by the processing unit 222, or the first processing unit 822 and/or the second processing unit 823, the region label image generated by the segmentation processing unit 2804, and the It may also include the analysis results of the medical image obtained. In this case, the image processing apparatus uses, for example, a trained model for generating analysis results to generate the analysis results of the tomographic image from the results obtained by executing the first detection process. It can serve as an example.

さらに、学習済モデルは、輝度正面画像及びモーションコントラスト正面画像のように、所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データを用いた学習により得たものであってもよい。ここで、輝度正面画像は輝度のEn-Face画像に対応し、モーションコントラスト正面画像はOCTAのEn-Face画像に対応する。 Furthermore, the trained model is obtained by learning using learning data including input data that is a set of a plurality of different types of medical images of predetermined regions, such as a luminance front image and a motion contrast front image. good too. Here, the luminance front image corresponds to the luminance En-Face image, and the motion contrast front image corresponds to the OCTA En-Face image.

また、高画質化用の学習済モデルを用いて生成された高画質画像を用いて得た解析結果が表示されるように構成されてもよい。この場合、学習データに含まれる入力データとしては、高画質化用の学習済モデルを用いて生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。なお、学習データは、学習済モデルを用いて高画質化された画像について、手動又は自動で少なくとも一部に修正が施された画像であってもよい。 Further, it may be configured to display analysis results obtained using a high-quality image generated using a trained model for image quality improvement. In this case, the input data included in the learning data may be a high-quality image generated using a trained model for improving image quality, or a set of a low-quality image and a high-quality image. good too. Note that the learning data may be an image obtained by manually or automatically correcting at least a part of an image whose image quality has been improved using a trained model.

また、学習データは、例えば、解析領域を解析して得た解析値(例えば、平均値や中央値等)、解析値を含む表、解析マップ、画像におけるセクター等の解析領域の位置等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付けしたデータであってもよい。なお、操作者からの指示に応じて、解析結果生成用の学習済モデルを用いて得た解析結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, an analysis value obtained by analyzing the analysis area (e.g., average value, median value, etc.), a table containing the analysis value, an analysis map, the position of the analysis area such as a sector in the image, etc. The input data may be labeled with information containing one as (supervised learning) correct data. Note that the analysis results obtained using the learned model for generating analysis results may be displayed according to instructions from the operator.

また、上述した実施例及び変形例における表示制御部25及び出力部2807は、表示画面のレポート画面において、緑内障や加齢黄斑変性等の種々の診断結果を表示させてもよい。このとき、例えば、上述したような各種のアーチファクトの低減処理が適用された医用画像を解析することで、精度の良い診断結果を表示させることができる。また、診断結果は、特定された異常部位等の位置を画像上に表示されてもよいし、異常部位の状態等を文字等によって表示されてもよい。さらに、異常部位等の分類結果(例えば、カーティン分類)を診断結果として表示させてもよい。 Further, the display control unit 25 and the output unit 2807 in the above-described embodiments and modifications may display various diagnostic results such as glaucoma and age-related macular degeneration on the report screen of the display screen. At this time, for example, by analyzing a medical image to which various artifact reduction processes as described above have been applied, it is possible to display a highly accurate diagnosis result. Further, the diagnosis result may display the position of the identified abnormal site or the like on an image, or may display the state of the abnormal site or the like in characters or the like. Further, classification results (for example, Curtin classification) such as abnormal sites may be displayed as diagnosis results.

なお、診断結果は、医用画像の診断結果を学習データとして学習して得た学習済モデル(診断結果生成エンジン、診断結果生成用の学習済モデル)を用いて生成されたものであってもよい。また、学習済モデルは、医用画像とその医用画像の診断結果とを含む学習データや、医用画像とその医用画像とは異なる種類の医用画像の診断結果とを含む学習データ等を用いた学習により得たものであってもよい。 The diagnosis result may be generated using a trained model (a diagnosis result generating engine, a trained model for generating diagnosis results) obtained by learning the diagnosis results of medical images as learning data. . In addition, the trained model is obtained by learning using learning data including medical images and diagnostic results of the medical images, learning data including medical images and diagnostic results of medical images of a different type from the medical images, and the like. It may be obtained.

また、学習データは、処理部222、又は第一の処理部822及び/若しくは第二の処理部823による網膜層の検出結果や、セグメンテーション処理部2804で生成された領域ラベル画像と、それらを用いた医用画像の診断結果とを含んだものでもよい。この場合、画像処理装置は、例えば、診断結果生成用の学習済モデルを用いて、第一の検出処理を実行して得た結果から、断層画像の診断結果を生成する、診断結果生成部の一例として機能することができる。 Further, the learning data includes the detection result of the retinal layer by the processing unit 222, or the first processing unit 822 and/or the second processing unit 823, the region label image generated by the segmentation processing unit 2804, and the It may also include the diagnostic results of the medical images obtained. In this case, the image processing apparatus uses, for example, a trained model for generating diagnostic results to generate the diagnostic results of the tomographic image from the results obtained by executing the first detection process. It can serve as an example.

さらに、高画質化用の学習済モデルを用いて生成された高画質画像を用いて得た診断結果が表示されるように構成されてもよい。この場合、学習データに含まれる入力データとしては、高画質化用の学習済モデルを用いて生成された高画質画像であってもよいし、低画質画像と高画質画像とのセットであってもよい。なお、学習データは、学習済モデルを用いて高画質化された画像について、手動又は自動で少なくとも一部に修正が施された画像であってもよい。 Furthermore, it may be configured to display the diagnosis result obtained using the high-quality image generated using the trained model for image quality improvement. In this case, the input data included in the learning data may be a high-quality image generated using a trained model for improving image quality, or a set of a low-quality image and a high-quality image. good too. Note that the learning data may be an image obtained by manually or automatically correcting at least a part of an image whose image quality has been improved using a trained model.

また、学習データは、例えば、診断名、病変(異常部位)の種類や状態(程度)、画像における病変の位置、注目領域に対する病変の位置、所見(読影所見等)、診断名の根拠(肯定的な医用支援情報等)、診断名を否定する根拠(否定的な医用支援情報)等の少なくとも1つを含む情報を(教師あり学習の)正解データとして、入力データにラベル付けしたデータであってもよい。なお、検者からの指示に応じて、診断結果生成用の学習済モデルを用いて得た診断結果が表示されるように構成されてもよい。 In addition, the learning data includes, for example, the diagnosis name, the type and state (degree) of the lesion (abnormal site), the position of the lesion in the image, the position of the lesion with respect to the region of interest, findings (interpretation findings, etc.), the basis for the diagnosis name (positive information that contains at least one of the following: correct medical support information, etc.), grounds for denying a diagnosis (negative medical support information), etc., as correct data (supervised learning). may Note that the diagnostic results obtained using the learned model for generating diagnostic results may be displayed according to instructions from the examiner.

また、上述した様々な実施例及び変形例に係る表示制御部25及び出力部2807は、表示画面のレポート画面において、上述したような注目部位、アーチファクト、及び異常部位等の物体認識結果(物体検出結果)やセグメンテーション結果を表示させてもよい。このとき、例えば、画像上の物体の周辺に矩形の枠等を重畳して表示させてもよい。また、例えば、画像における物体上に色等を重畳して表示させてもよい。なお、物体認識結果やセグメンテーション結果は、物体認識やセグメンテーションを示す情報を正解データとして医用画像にラベル付けした学習データを学習して得た学習済モデルを用いて生成されたものであってもよい。なお、上述した解析結果生成や診断結果生成は、上述した物体認識結果やセグメンテーション結果を利用することで得られたものであってもよい。例えば、物体認識やセグメンテーションの処理により得た注目部位に対して解析結果生成や診断結果生成の処理を行ってもよい。 Further, the display control unit 25 and the output unit 2807 according to the various embodiments and modifications described above display the object recognition result (object detection results) or segmentation results may be displayed. At this time, for example, a rectangular frame or the like may be superimposed and displayed around the object on the image. Further, for example, a color or the like may be superimposed on the object in the image and displayed. The object recognition result and segmentation result may be generated using a trained model obtained by learning learning data in which medical images are labeled with information indicating object recognition and segmentation as correct data. . Note that the analysis result generation and diagnosis result generation described above may be obtained by using the object recognition result and segmentation result described above. For example, analysis result generation and diagnosis result generation processing may be performed on a region of interest obtained by object recognition or segmentation processing.

また、特に診断結果生成用の学習済モデルは、被検者の所定部位の異なる種類の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底のモーションコントラスト正面画像及び輝度正面画像(あるいは輝度断層画像)をセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)及びカラー眼底画像(あるいは蛍光眼底画像)をセットとする入力データ等も考えられる。また、異なる種類の複数の医療画像は、異なるモダリティ、異なる光学系、又は異なる原理等により取得されたものであれば何でもよい。 In addition, the trained model for generating diagnostic results in particular may be a trained model obtained by learning using learning data including input data that is a set of a plurality of different types of medical images of a predetermined region of a subject. good. At this time, the input data included in the learning data may be, for example, input data that is a set of a motion contrast front image and a luminance front image (or a luminance tomographic image) of the fundus. As input data included in the learning data, for example, input data such as a set of a fundus tomographic image (B-scan image) and a color fundus image (or a fluorescent fundus image) can be considered. Moreover, the multiple medical images of different types may be acquired by different modalities, different optical systems, or different principles.

また、特に診断結果生成用の学習済モデルは、被検者の異なる部位の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。このとき、学習データに含まれる入力データとして、例えば、眼底の断層画像(Bスキャン画像)と前眼部の断層画像(Bスキャン画像)とをセットとする入力データが考えられる。また、学習データに含まれる入力データとして、例えば、眼底の黄斑の三次元OCT画像(三次元断層画像)と眼底の視神経乳頭のサークルスキャン(又はラスタスキャン)断層画像とをセットとする入力データ等も考えられる。 In addition, the trained model for diagnosis result generation in particular may be a trained model obtained by learning using learning data including input data that is a set of a plurality of medical images of different parts of the subject. At this time, as the input data included in the learning data, for example, input data that is a set of a tomographic image (B-scan image) of the fundus and a tomographic image (B-scan image) of the anterior segment can be considered. In addition, as input data included in the learning data, for example, input data such as a set of a three-dimensional OCT image (three-dimensional tomographic image) of the macula of the fundus and a circle scan (or raster scan) tomographic image of the optic papilla of the fundus. is also conceivable.

なお、学習データに含まれる入力データは、被検者の異なる部位及び異なる種類の複数の医用画像であってもよい。このとき、学習データに含まれる入力データは、例えば、前眼部の断層画像とカラー眼底画像とをセットとする入力データ等が考えられる。また、上述した学習済モデルは、被検者の所定部位の異なる撮影画角の複数の医用画像をセットとする入力データを含む学習データにより学習して得た学習済モデルであってもよい。また、学習データに含まれる入力データは、パノラマ画像のように、所定部位を複数領域に時分割して得た複数の医用画像を貼り合わせたものであってもよい。このとき、パノラマ画像のような広画角画像を学習データとして用いることにより、狭画角画像よりも情報量が多い等の理由から画像の特徴量を精度良く取得できる可能性があるため、処理の結果を向上することができる。また、学習データに含まれる入力データは、被検者の所定部位の異なる日時の複数の医用画像をセットとする入力データであってもよい。 The input data included in the learning data may be a plurality of medical images of different regions and different types of the subject. At this time, the input data included in the learning data may be, for example, input data that is a set of a tomographic image of the anterior segment and a color fundus image. Further, the above-described trained model may be a trained model obtained by learning using learning data including input data that is a set of a plurality of medical images of a predetermined part of the subject with different imaging angles of view. The input data included in the learning data may be obtained by pasting together a plurality of medical images obtained by time-dividing a predetermined site into a plurality of regions, such as a panorama image. At this time, by using a wide-angle image such as a panoramic image as training data, it is possible to acquire the feature amount of the image with high accuracy because the amount of information is larger than that of a narrow-angle image. results can be improved. Also, the input data included in the learning data may be input data that is a set of a plurality of medical images of a predetermined part of the subject taken on different dates.

また、上述した解析結果と診断結果と物体認識結果とセグメンテーション結果とのうち少なくとも1つの結果が表示される表示画面は、レポート画面に限らない。このような表示画面は、例えば、撮影確認画面、経過観察用の表示画面、及び撮影前の各種調整用のプレビュー画面(各種のライブ動画像が表示される表示画面)等の少なくとも1つの表示画面に表示されてもよい。例えば、上述した学習済モデルを用いて得た上記少なくとも1つの結果を撮影確認画面に表示させることにより、操作者は、撮影直後であっても精度の良い結果を確認することができる。また、実施例7等で説明した低画質画像と高画質画像との表示の変更は、例えば、低画質画像の解析結果と高画質画像の解析結果との表示の変更であってもよい。 Further, the display screen on which at least one of the above-described analysis result, diagnosis result, object recognition result, and segmentation result is displayed is not limited to the report screen. Such a display screen is, for example, at least one display screen such as a shooting confirmation screen, a display screen for follow-up observation, and a preview screen for various adjustments before shooting (a display screen on which various live moving images are displayed). may be displayed in For example, by displaying at least one result obtained using the above-described learned model on the photographing confirmation screen, the operator can confirm a highly accurate result even immediately after photographing. Further, the display change between the low image quality image and the high image quality image described in the seventh embodiment may be, for example, the display change between the analysis result of the low image quality image and the analysis result of the high image quality image.

ここで、上述した様々な学習済モデルは、学習データを用いた機械学習により得ることができる。機械学習には、例えば、多階層のニューラルネットワークから成る深層学習(Deep Learning)がある。また、多階層のニューラルネットワークの少なくとも一部には、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いることができる。また、多階層のニューラルネットワークの少なくとも一部には、オートエンコーダ(自己符号化器)に関する技術が用いられてもよい。また、学習には、バックプロパゲーション(誤差逆伝搬法)に関する技術が用いられてもよい。ただし、機械学習としては、深層学習に限らず、画像等の学習データの特徴量を学習によって自ら抽出(表現)可能なモデルを用いた学習であれば何でもよい。機械学習モデルは、例えば、カプセルネットワーク(Capsule Network;CapsNet)でもよい。ここで、一般的なニューラルネットワークでは、各ユニット(各ニューロン)はスカラー値を出力するように構成されることによって、例えば、画像における特徴間の空間的な位置関係(相対位置)に関する空間情報が低減されるように構成されている。これにより、例えば、画像の局所的な歪みや平行移動等の影響が低減されるような学習を行うことができる。一方、カプセルネットワークでは、各ユニット(各カプセル)は空間情報をベクトルとして出力するように構成されることよって、例えば、空間情報が保持されるように構成されている。これにより、例えば、画像における特徴間の空間的な位置関係が考慮されたような学習を行うことができる。 Here, the various trained models described above can be obtained by machine learning using learning data. Machine learning includes, for example, deep learning consisting of multilevel neural networks. In addition, for example, a convolutional neural network (CNN: Convolutional Neural Network) can be used for at least part of the multi-layered neural network. Also, at least a part of the multi-layered neural network may use a technique related to an autoencoder. Also, a technique related to back propagation (error backpropagation method) may be used for learning. However, machine learning is not limited to deep learning, and any learning using a model capable of extracting (expressing) feature amounts of learning data such as images by learning can be used. The machine learning model may be, for example, a Capsule Network (CapsNet). Here, in a general neural network, each unit (each neuron) is configured to output a scalar value, so that spatial information regarding the spatial positional relationship (relative position) between features in an image, for example, can be obtained. configured to be reduced. As a result, for example, learning can be performed in which the effects of local distortion, translation, and the like of an image are reduced. On the other hand, in a capsule network, each unit (each capsule) is configured to output spatial information as a vector, thereby retaining spatial information. As a result, for example, learning can be performed in consideration of the spatial positional relationship between features in the image.

また、高画質化エンジン(高画質化用の学習済モデル)は、高画質化エンジンにより生成された少なくとも1つの高画質画像を含む学習データを追加学習して得た学習済モデルであってもよい。このとき、高画質画像を追加学習用の学習データとして用いるか否かを、検者からの指示により選択可能に構成されてもよい。 In addition, the high image quality engine (learned model for high image quality) is a trained model obtained by additionally learning learning data containing at least one high quality image generated by the high image quality engine. good. At this time, whether or not to use the high-quality image as learning data for additional learning may be selectable by an instruction from the examiner.

(変形例8)
上述した様々な実施例及び変形例におけるプレビュー画面において、ライブ動画像の少なくとも1つのフレーム毎に上述した高画質化用の学習済モデルが用いられるように構成されてもよい。このとき、プレビュー画面において、異なる部位や異なる種類の複数のライブ動画像が表示されている場合には、各ライブ動画像に対応する学習済モデルが用いられるように構成されてもよい。これにより、例えば、ライブ動画像であっても、処理時間を短縮することができるため、検者は撮影開始前に精度の高い情報を得ることができる。このため、例えば、再撮影の失敗等を低減することができるため、診断の精度や効率を向上させることができる。なお、複数のライブ動画像は、例えば、XYZ方向のアライメントのための前眼部の動画像、及び眼底観察光学系のフォーカス調整やOCTフォーカス調整のための眼底の正面動画像であってよい。また、複数のライブ動画像は、例えば、OCTのコヒーレンスゲート調整(測定光路長と参照光路長との光路長差の調整)のための眼底の断層動画像等であってもよい。
(Modification 8)
The preview screens in the various embodiments and modifications described above may be configured to use the above-described learned model for improving image quality for each of at least one frame of the live moving image. At this time, when a plurality of live moving images of different parts or different types are displayed on the preview screen, the learned model corresponding to each live moving image may be used. As a result, the processing time can be shortened even for a live moving image, for example, so that the examiner can obtain highly accurate information before the start of imaging. For this reason, for example, failures in re-imaging can be reduced, so that accuracy and efficiency of diagnosis can be improved. Note that the plurality of live moving images may be, for example, a moving image of the anterior segment for alignment in the XYZ directions, and a front moving image of the fundus for focus adjustment of the fundus oculi observation optical system and OCT focus adjustment. Also, the plurality of live moving images may be, for example, tomographic moving images of the fundus for coherence gate adjustment of OCT (adjustment of the optical path length difference between the measurement optical path length and the reference optical path length).

また、上述した学習済モデルを適用可能な動画像は、ライブ動画像に限らず、例えば、記憶部に記憶(保存)された動画像であってもよい。このとき、例えば、記憶部に記憶(保存)された眼底の断層動画像の少なくとも1つのフレーム毎に位置合わせして得た動画像が表示画面に表示されてもよい。例えば、硝子体を好適に観察したい場合には、まず、フレーム上に硝子体ができるだけ存在する等の条件を基準とする基準フレームを選択してもよい。このとき、各フレームは、XZ方向の断層画像(Bスキャン像)である。そして、選択された基準フレームに対して他のフレームがXZ方向に位置合わせされた動画像が表示画面に表示されてもよい。このとき、例えば、動画像の少なくとも1つのフレーム毎に高画質化用の学習済モデルを用いて順次生成された高画質画像(高画質フレーム)を連続表示させるように構成してもよい。 Further, the moving image to which the above-described trained model can be applied is not limited to the live moving image, and may be, for example, a moving image stored (saved) in the storage unit. At this time, for example, a moving image obtained by aligning at least one frame of the tomographic moving images of the fundus stored (saved) in the storage unit may be displayed on the display screen. For example, when the vitreous body is desired to be properly observed, first, a reference frame may be selected based on conditions such as the presence of as much vitreous body as possible on the frame. At this time, each frame is a tomographic image (B-scan image) in the XZ direction. Then, a moving image in which another frame is aligned in the XZ direction with respect to the selected reference frame may be displayed on the display screen. At this time, for example, high-quality images (high-quality frames) sequentially generated using a learned model for image quality improvement may be continuously displayed for each at least one frame of a moving image.

なお、上述したフレーム間の位置合わせの手法としては、X方向の位置合わせの手法とZ方向(深度方向)の位置合わせの手法とは、同じ手法が適用されてもよいし、全て異なる手法が適用されてもよい。また、同一方向の位置合わせは、異なる手法で複数回行われてもよく、例えば、粗い位置合わせを行った後に、精密な位置合わせが行われてもよい。また、位置合わせの手法としては、例えば、断層画像(Bスキャン像)をセグメンテーション処理して得た網膜層境界を用いた(Z方向の粗い)位置合わせがある。さらに、位置合わせの手法としては、例えば、断層画像を分割して得た複数の領域と基準画像との相関情報(類似度)を用いた(X方向やZ方向の精密な)位置合わせもある。またさらに、位置合わせの手法としては、例えば、断層画像(Bスキャン像)毎に生成した一次元投影像を用いた(X方向の)位置合わせ、2次元正面画像を用いた(X方向の)位置合わせ等がある。また、ピクセル単位で粗く位置合わせが行われてから、サブピクセル単位で精密な位置合わせが行われるように構成されてもよい。 As a method for aligning between frames described above, the same method may be applied to the method of aligning in the X direction and the method of aligning in the Z direction (depth direction), or different methods may be used. may be applied. Also, the alignment in the same direction may be performed multiple times by different techniques. For example, fine alignment may be performed after performing rough alignment. Further, as a method of alignment, for example, there is a (coarse Z-direction) alignment using a retinal layer boundary obtained by segmentation processing of a tomographic image (B-scan image). Furthermore, as a method of alignment, for example, there is also (precise alignment in the X and Z directions) using correlation information (similarity) between a plurality of regions obtained by dividing a tomographic image and a reference image. . Furthermore, as a method of alignment, for example, alignment (in the X direction) using a one-dimensional projection image generated for each tomographic image (B scan image), alignment (in the X direction) using a two-dimensional front image, Alignment, etc. Also, it may be configured such that after rough alignment is performed in units of pixels, fine alignment is performed in units of sub-pixels.

ここで、各種の調整中では、被検眼の網膜等の撮影対象がまだ上手く撮像できていない可能性がある。このため、学習済モデルに入力される医用画像と学習データとして用いられた医用画像との違いが大きいために、精度良く高画質画像が得られない可能性がある。そこで、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質動画像の表示(高画質フレームの連続表示)を自動的に開始するように構成してもよい。また、断層画像(Bスキャン)の画質評価等の評価値が閾値を超えたら、高画質化ボタンを検者が指定可能な状態(アクティブ状態)に変更するように構成されてもよい。 Here, during various adjustments, there is a possibility that the object to be imaged, such as the retina of the subject's eye, has not yet been successfully imaged. For this reason, there is a possibility that a high-quality image cannot be obtained with high accuracy due to the large difference between the medical image input to the trained model and the medical image used as learning data. Therefore, when an evaluation value such as image quality evaluation of a tomographic image (B scan) exceeds a threshold value, display of high-quality moving images (continuous display of high-quality frames) may be automatically started. Further, when an evaluation value such as image quality evaluation of a tomographic image (B-scan) exceeds a threshold value, the image quality improvement button may be changed to a state (active state) in which the examiner can designate.

また、走査パターン等が異なる撮影モード毎に異なる高画質化用の学習済モデルを用意して、選択された撮影モードに対応する高画質化用の学習済モデルが選択されるように構成されてもよい。また、異なる撮影モードで得た様々な医用画像を含む学習データを学習して得た1つの高画質化用の学習済モデルが用いられてもよい。 In addition, a different trained model for improving image quality is prepared for each imaging mode having a different scanning pattern, etc., and the trained model for improving image quality corresponding to the selected imaging mode is selected. good too. Alternatively, one trained model for improving image quality obtained by learning learning data including various medical images obtained in different imaging modes may be used.

(変形例9)
上述した様々な実施例及び変形例においては、各種学習済モデルが追加学習中である場合、追加学習中の学習済モデル自体を用いて出力(推論・予測)することが難しい可能性がある。このため、追加学習中の学習済モデルに対する医用画像の入力を禁止することがよい。また、追加学習中の学習済モデルと同じ学習済モデルをもう一つ予備の学習済モデルとして用意してもよい。このとき、追加学習中には、予備の学習済モデルに対して医用画像の入力が実行できるようにすることがよい。そして、追加学習が完了した後に、追加学習後の学習済モデルを評価し、問題がなければ、予備の学習済モデルから追加学習後の学習済モデルに置き換えればよい。また、問題があれば、予備の学習済モデルが用いられるようにしてもよい。
(Modification 9)
In the various embodiments and modifications described above, when various trained models are undergoing additional learning, it may be difficult to output (infer/predict) using the learned models themselves that are undergoing additional learning. Therefore, it is preferable to prohibit the input of medical images to the trained model during additional learning. Also, another trained model that is the same as the trained model being additionally learned may be prepared as a backup trained model. At this time, during the additional learning, it is preferable to allow input of medical images to the preliminary trained model. After the additional learning is completed, the trained model after the additional learning is evaluated, and if there is no problem, the spare trained model can be replaced with the trained model after the additional learning. Also, if there is a problem, a backup trained model may be used.

また、撮影部位毎に学習して得た学習済モデルを選択的に利用できるようにしてもよい。具体的には、第一の撮影部位(肺、被検眼等)を含む学習データを用いて得た第一の学習済モデルと、第一の撮影部位とは異なる第二の撮影部位を含む学習データを用いて得た第二の学習済モデルと、を含む複数の学習済モデルを用意することができる。そして、制御部200は、これら複数の学習済モデルのいずれかを選択する選択手段を有してもよい。このとき、制御部200は、選択された学習済モデルに対して追加学習を実行する制御手段を有してもよい。制御手段は、検者からの指示に応じて、選択された学習済モデルに対応する撮影部位と該撮影部位の撮影画像とがペアとなるデータを検索し、検索して得たデータを学習データとする学習を、選択された学習済モデルに対して追加学習として実行することができる。なお、選択された学習済モデルに対応する撮影部位は、データのヘッダの情報から取得したり、検者により手動入力されたりしたものであってよい。また、データの検索は、例えば、病院や研究所等の外部施設のサーバ等からネットワークを介して行われてよい。これにより、学習済モデルに対応する撮影部位の撮影画像を用いて、撮影部位毎に効率的に追加学習することができる。 Also, a learned model obtained by learning for each imaging region may be selectively used. Specifically, a first trained model obtained using learning data including a first imaging region (lung, eye to be examined, etc.) and a learning including a second imaging region different from the first imaging region A plurality of trained models can be provided, including a second trained model obtained using the data. The control unit 200 may have selection means for selecting one of these learned models. At this time, the control unit 200 may have control means for performing additional learning on the selected trained model. In response to an instruction from the examiner, the control means searches for data paired with an imaging region corresponding to the selected learned model and a photographed image of the imaging region, and uses the retrieved data as learning data. can be performed as additional learning on the selected trained model. Note that the imaged region corresponding to the selected learned model may be obtained from information in the header of the data or manually input by the examiner. Also, data retrieval may be performed via a network from, for example, a server of an external facility such as a hospital or research institute. As a result, additional learning can be efficiently performed for each imaging part using the photographed image of the imaging part corresponding to the learned model.

なお、選択手段及び制御手段は、制御部200のCPUやMPU等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、選択手段及び制御手段は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。 The selection means and the control means may be configured by software modules executed by a processor such as the CPU or MPU of the control section 200 . Also, the selection means and the control means may be configured by a circuit such as an ASIC that performs a specific function, an independent device, or the like.

また、追加学習用の学習データを、病院や研究所等の外部施設のサーバ等からネットワークを介して取得する際には、改ざんや、追加学習時のシステムトラブル等による信頼性低下を低減することが有用である。そこで、デジタル署名やハッシュ化による一致性の確認を行うことで、追加学習用の学習データの正当性を検出してもよい。これにより、追加学習用の学習データを保護することができる。このとき、デジタル署名やハッシュ化による一致性の確認した結果として、追加学習用の学習データの正当性が検出できなかった場合には、その旨の警告を行い、その学習データによる追加学習を行わないものとする。なお、サーバは、その設置場所を問わず、例えば、クラウドサーバ、フォグサーバ、エッジサーバ等のどのような形態でもよい。 In addition, when acquiring learning data for additional learning from a server of an external facility such as a hospital or research institute via a network, it is necessary to reduce reliability deterioration due to falsification and system troubles during additional learning. is useful. Therefore, the correctness of the learning data for additional learning may be detected by confirming the matching by digital signature or hashing. Thereby, learning data for additional learning can be protected. At this time, if the validity of the learning data for additional learning cannot be detected as a result of confirming the match by digital signature or hashing, a warning to that effect is issued and additional learning is performed using the learning data. Make it not exist. It should be noted that the server may take any form such as a cloud server, a fog server, an edge server, etc., regardless of its installation location.

(変形例10)
上述した様々な実施例及び変形例において、検者からの指示は、手動による指示(例えば、ユーザーインターフェース等を用いた指示)以外にも、音声等による指示であってもよい。このとき、例えば、機械学習により得た音声認識モデル(音声認識エンジン、音声認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、手動による指示は、キーボードやタッチパネル等を用いた文字入力等による指示であってもよい。このとき、例えば、機械学習により得た文字認識モデル(文字認識エンジン、文字認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。また、検者からの指示は、ジェスチャー等による指示であってもよい。このとき、機械学習により得たジェスチャー認識モデル(ジェスチャー認識エンジン、ジェスチャー認識用の学習済モデル)を含む機械学習モデルが用いられてもよい。
(Modification 10)
In the various embodiments and modifications described above, the instruction from the examiner may be an instruction by voice or the like in addition to a manual instruction (for example, an instruction using a user interface or the like). At this time, for example, a machine learning model including a speech recognition model (speech recognition engine, trained model for speech recognition) obtained by machine learning may be used. Further, the manual instruction may be an instruction by character input using a keyboard, touch panel, or the like. At this time, for example, a machine learning model including a character recognition model (a character recognition engine, a learned model for character recognition) obtained by machine learning may be used. Also, the instruction from the examiner may be an instruction by a gesture or the like. At this time, a machine learning model including a gesture recognition model (a gesture recognition engine, a trained model for gesture recognition) obtained by machine learning may be used.

また、検者からの指示は、表示部50,2820上の検者の視線検出結果等であってもよい。視線検出結果は、例えば、表示部50,2820周辺から撮影して得た検者の動画像を用いた瞳孔検出結果であってもよい。このとき、動画像からの瞳孔検出は、上述したような物体認識エンジンを用いてもよい。また、検者からの指示は、脳波、体を流れる微弱な電気信号等による指示であってもよい。 Further, the instruction from the examiner may be the sight line detection result of the examiner on the display unit 50, 2820, or the like. The line-of-sight detection result may be, for example, a pupil detection result using a moving image of the examiner captured from around the display unit 50,2820. At this time, the object recognition engine as described above may be used for pupil detection from moving images. Further, the instructions from the examiner may be instructions based on brain waves, weak electrical signals flowing through the body, or the like.

このような場合、例えば、学習データとしては、上述したような種々の学習済モデルの処理による結果の表示の指示を示す文字データ又は音声データ(波形データ)等を入力データとし、種々の学習済モデルの処理による結果等を実際に表示部に表示させるための実行命令を正解データとする学習データであってもよい。また、学習データとしては、例えば、高画質化用の学習済モデルで得た高画質画像の表示の指示を示す文字データ又は音声データ等を入力データとし、高画質画像の表示の実行命令及び図22(a)及び(b)に示すようなボタン2220をアクティブ状態に変更するための実行命令を正解データとする学習データであってもよい。なお、学習データとしては、例えば、文字データ又は音声データ等が示す指示内容と実行命令内容とが互いに対応するものであれば何でもよい。また、音響モデルや言語モデル等を用いて、音声データから文字データに変換してもよい。また、複数のマイクで得た波形データを用いて、音声データに重畳しているノイズデータを低減する処理を行ってもよい。また、文字又は音声等による指示と、マウス又はタッチパネル等による指示とを、検者からの指示に応じて選択可能に構成されてもよい。また、文字又は音声等による指示のオン・オフを、検者からの指示に応じて選択可能に構成されてもよい。 In such a case, for example, as the learning data, character data or voice data (waveform data) indicating instructions for displaying the results of the processing of the various learned models as described above may be used as input data. The learning data may be learning data in which the correct answer data is an execution command for actually displaying the result of model processing on the display unit. In addition, as learning data, for example, text data or voice data indicating an instruction to display a high-quality image obtained by a trained model for high-quality image is used as input data. 22( a ) and 22 ( b ) may be learning data having an execution instruction for changing the button 2220 to the active state as correct answer data. Any learning data may be used as long as the contents of instructions indicated by character data or voice data and the contents of execution commands correspond to each other. Alternatively, speech data may be converted into character data using an acoustic model, a language model, or the like. Also, waveform data obtained by a plurality of microphones may be used to perform processing for reducing noise data superimposed on audio data. Further, it may be configured such that an instruction by text, voice, or the like and an instruction by a mouse, a touch panel, or the like can be selected according to an instruction from the examiner. Moreover, it may be configured such that ON/OFF of instructions by text, voice, or the like can be selected according to instructions from the examiner.

ここで、機械学習には、上述したような深層学習があり、また、多階層のニューラルネットワークの少なくとも一部には、例えば、再帰型ニューラルネットワーク(RNN:Recurrernt Neural Network)を用いることができる。ここで、本変形例に係る機械学習モデルの一例として、時系列情報を扱うニューラルネットワークであるRNNに関して、図46(a)及び(b)を参照して説明する。また、RNNの一種であるLong short-term memory(以下、LSTM)に関して、図47(a)及び(b)を参照して説明する。 Machine learning includes deep learning as described above, and a recurrent neural network (RNN), for example, can be used for at least a part of the multi-level neural network. Here, as an example of the machine learning model according to this modified example, an RNN, which is a neural network that handles time-series information, will be described with reference to FIGS. Also, a long short-term memory (hereinafter referred to as LSTM), which is a type of RNN, will be described with reference to FIGS.

図46(a)は、機械学習モデルであるRNNの構造を示す。RNN4620は、ネットワークにループ構造を持ち、時刻tにおいてデータx4610が入力され、データh4630を出力する。RNN4620はネットワークにループ機能を持つため、現時刻の状態を次の状態に引き継ぐことが可能であるため、時系列情報を扱うことができる。図46(b)には時刻tにおけるパラメータベクトルの入出力の一例を示す。データx4610にはN個(Params1~ParamsN)のデータが含まれる。また、RNN4620より出力されるデータh4630には入力データに対応するN個(Params1~ParamsN)のデータが含まれる。 FIG. 46(a) shows the structure of RNN, which is a machine learning model. RNN 4620 has a loop structure in the network, receives data x t 4610 at time t, and outputs data h t 4630 . Since the RNN 4620 has a loop function in the network, it is possible to take over the state of the current time to the next state, so it can handle time-series information. FIG. 46(b) shows an example of input and output of parameter vectors at time t. Data x t 4610 includes N (Params1 to ParamsN) data. Data h t 4630 output from RNN 4620 includes N pieces of data (Params1 to ParamsN) corresponding to the input data.

しかしながら、RNNでは誤差逆伝搬時に長期時間の情報を扱うことができないため、LSTMが用いられることがある。LSTMは、忘却ゲート、入力ゲート、及び出力ゲートを備えることで長期時間の情報を学習することができる。ここで、図47(a)にLSTMの構造を示す。LSTM4740において、ネットワークが次の時刻tに引き継ぐ情報は、セルと呼ばれるネットワークの内部状態ct-1と出力データht-1である。なお、図の小文字(c、h、x)はベクトルを表している。 However, since RNN cannot handle long-term information during error backpropagation, LSTM is sometimes used. The LSTM can learn long-term information by having a forget gate, an input gate, and an output gate. Here, FIG. 47(a) shows the structure of the LSTM. In LSTM4740, the information that the network takes over at the next time t is the internal state c t-1 of the network called a cell and the output data h t-1 . Note that the lower case letters (c, h, x) in the figure represent vectors.

次に、図47(b)にLSTM4740の詳細を示す。図47(b)においては、忘却ゲートネットワークFG、入力ゲートネットワークIG、及び出力ゲートネットワークOGが示され、それぞれはシグモイド層である。そのため、各要素が0から1の値となるベクトルを出力する。忘却ゲートネットワークFGは過去の情報をどれだけ保持するかを決め、入力ゲートネットワークIGはどの値を更新するかを判定するものである。また、図47(b)においては、セル更新候補ネットワークCUが示され、セル更新候補ネットワークCUは活性化関数tanh層である。これは、セルに加えられる新たな候補値のベクトルを作成する。出力ゲートネットワークOGは、セル候補の要素を選択し次の時刻にどの程度の情報を伝えるか選択する。 Next, the details of the LSTM 4740 are shown in FIG. 47(b). In FIG. 47(b), a forget gate network FG, an input gate network IG and an output gate network OG are shown, each being a sigmoid layer. Therefore, a vector in which each element is a value between 0 and 1 is output. The forget gate network FG determines how much past information is retained, and the input gate network IG determines which values are updated. Also, in FIG. 47(b), a cell update candidate network CU is shown, and the cell update candidate network CU is the activation function tanh layer. This creates a vector of new candidate values to be added to the cell. The output gating network OG selects elements of the cell candidates and how much information to convey the next time.

なお、上述したLSTMのモデルは基本形であるため、ここで示したネットワークに限らない。ネットワーク間の結合を変更してもよい。LSTMではなく、QRNN(Quasi Recurrent Neural Network)を用いてもよい。さらに、機械学習モデルは、ニューラルネットワークに限定されるものではなく、ブースティングやサポートベクターマシン等が用いられてもよい。また、検者からの指示が文字又は音声等による入力の場合には、自然言語処理に関する技術(例えば、Sequence to Sequence)が適用されてもよい。また、検者に対して文字又は音声等による出力で応答する対話エンジン(対話モデル、対話用の学習済モデル)が適用されてもよい。 Note that the above-described LSTM model is a basic model, so it is not limited to the network shown here. Coupling between networks may be changed. QRNN (Quasi Recurrent Neural Network) may be used instead of LSTM. Furthermore, machine learning models are not limited to neural networks, and boosting, support vector machines, and the like may be used. In addition, when the instruction from the examiner is input by text, voice, or the like, a technique related to natural language processing (for example, sequence to sequence) may be applied. Also, a dialogue engine (dialogue model, learned model for dialogue) that responds to the examiner with text or voice output may be applied.

(変形例11)
上述した様々な実施例及び変形例において、境界画像や領域ラベル画像、高画質画像等は、操作者からの指示に応じて記憶部に保存されてもよい。このとき、例えば、高画質画像を保存するための操作者からの指示の後、ファイル名の登録の際に、推奨のファイル名として、ファイル名のいずれかの箇所(例えば、最初の箇所、又は最後の箇所)に、高画質化用の学習済モデルを用いた処理(高画質化処理)により生成された画像であることを示す情報(例えば、文字)を含むファイル名が、操作者からの指示に応じて編集可能な状態で表示されてもよい。なお、同様に、境界画像や領域ラベル画像等についても、学習済モデルを用いた処理により生成された画像である情報を含むファイル名が表示されてもよい。
(Modification 11)
In the various embodiments and modifications described above, boundary images, region label images, high-quality images, and the like may be stored in the storage unit according to instructions from the operator. At this time, for example, after an instruction from the operator to save a high-quality image, when registering a file name, any part of the file name (for example, the first part, or last part), the file name containing information (for example, characters) indicating that it is an image generated by processing using a trained model for high image quality (high image quality processing) is entered by the operator. It may be displayed in an editable state according to instructions. Similarly, for the boundary image, the area label image, and the like, a file name including information that the image is generated by processing using the trained model may be displayed.

また、レポート画面等の種々の表示画面において、表示部50,2820に高画質画像を表示させる際に、表示されている画像が高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示が、高画質画像とともに表示されてもよい。この場合には、操作者は、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。また、高画質化用の学習済モデルを用いた処理だけでなく、上述したような種々の学習済モデルを用いた処理についても、その種類の学習済モデルを用いた処理により生成された結果であることを示す表示が、その結果とともに表示されてもよい。また、画像セグメンテーション処理用の学習済モデルを用いたセグメンテーション結果の解析結果を表示する際にも、画像セグメンテーション用の学習済モデルを用いた結果に基づいた解析結果であることを示す表示が、解析結果とともに表示されてもよい。 In various display screens such as a report screen, when a high-quality image is displayed on the display unit 50, 2820, the displayed image is a high-quality image generated by processing using a trained model for image quality improvement. An indication indicating that the image is a high quality image may be displayed along with the high quality image. In this case, the operator can easily identify from the display that the displayed high-quality image is not the image itself acquired by photography, thereby reducing misdiagnosis and improving diagnostic efficiency. be able to. It should be noted that the display indicating that the image is a high-quality image generated by processing using a trained model for high image quality should be a display that can distinguish between the input image and the high-quality image generated by the processing. It may be of any aspect. In addition to processing using a trained model for high image quality, processing using various trained models such as those described above is also a result generated by processing using that type of trained model. An indication may be displayed with the results. Also, when displaying the analysis result of the segmentation result using the trained model for image segmentation processing, the display indicating that the analysis result is based on the result of using the trained model for image segmentation May be displayed with results.

このとき、レポート画面等の表示画面は、操作者からの指示に応じて記憶部に保存されてもよい。例えば、高画質画像等と、これらの画像が学習済モデルを用いた処理により生成された画像であることを示す表示とが並んだ1つの画像としてレポート画面が記憶部に保存されてもよい。 At this time, the display screen such as the report screen may be stored in the storage section according to an instruction from the operator. For example, the report screen may be stored in the storage unit as a single image in which high-quality images, etc., and an indication indicating that these images are images generated by processing using the learned model are arranged side by side.

また、高画質化用の学習済モデルを用いた処理により生成された高画質画像であることを示す表示について、高画質化用の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部に表示されてもよい。当該表示としては、学習データの入力データと正解データの種類の説明や、入力データと正解データに含まれる撮影部位等の正解データに関する任意の表示を含んでよい。なお、例えば画像セグメンテーション処理等上述した種々の学習済モデルを用いた処理についても、その種類の学習済モデルがどのような学習データによって学習を行ったものであるかを示す表示が表示部に表示されてもよい。 In addition, regarding the display indicating that the image is a high-quality image generated by processing using the trained model for high image quality, what kind of training data the trained model for high image quality learned. A display indicating whether there is any may be displayed on the display unit. The display may include an explanation of the types of input data and correct data of the learning data, and any display related to correct data such as imaging regions included in the input data and correct data. For example, for processing using the various trained models described above, such as image segmentation processing, a display indicating what kind of learning data the trained model of that type has learned is displayed on the display unit. may be

また、学習済モデルを用いた処理により生成された画像であることを示す情報(例えば、文字)を、画像等に重畳した状態で表示又は保存されるように構成されてもよい。このとき、画像上に重畳する箇所は、撮影対象となる注目部位等が表示されている領域には重ならない領域(例えば、画像の端)であればどこでもよい。また、重ならない領域を判定し、判定された領域に重畳させてもよい。なお、高画質化用の学習済モデルを用いた処理だけでなく、例えば画像セグメンテーション処理等の上述した種々の学習済モデルを用いた処理により得た画像についても、同様に処理してよい。 Further, information (for example, characters) indicating that the image is generated by processing using a trained model may be displayed or stored in a state superimposed on the image or the like. At this time, the portion to be superimposed on the image may be any region (for example, the end of the image) that does not overlap the region where the region of interest to be imaged is displayed. Alternatively, a non-overlapping region may be determined and superimposed on the determined region. It should be noted that not only the processing using the trained model for image quality improvement, but also images obtained by processing using the various trained models described above, such as image segmentation processing, may be similarly processed.

また、レポート画面の初期表示画面として、図22(a)及び(b)に示すようなボタン2220がアクティブ状態(高画質化処理がオン)となるようにデフォルト設定されている場合には、検者からの指示に応じて、高画質画像等を含むレポート画面に対応するレポート画像がサーバに送信されるように構成されてもよい。また、ボタン2220がアクティブ状態となるようにデフォルト設定されている場合には、検査終了時(例えば、検者からの指示に応じて、撮影確認画面やプレビュー画面からレポート画面に変更された場合)に、高画質画像等を含むレポート画面に対応するレポート画像がサーバに(自動的に)送信されるように構成されてもよい。このとき、デフォルト設定における各種設定(例えば、レポート画面の初期表示画面におけるEn-Face画像の生成のための深度範囲、解析マップの重畳の有無、高画質画像か否か、経過観察用の表示画面か否か等の少なくとも1つに関する設定)に基づいて生成されたレポート画像がサーバに送信されるように構成されもよい。なお、ボタン2220が画像セグメンテーション処理の切り替えを表す場合に関しても、同様に処理されてよい。 22(a) and 22(b) as the initial display screen of the report screen, if the default setting is such that the button 2220 is in an active state (image quality enhancement processing is ON), the A report image corresponding to a report screen including a high-quality image or the like may be transmitted to the server in response to an instruction from the user. Also, if the button 2220 is set to be in an active state by default, at the end of the examination (for example, when the imaging confirmation screen or preview screen is changed to the report screen in response to an instruction from the examiner) Alternatively, the report image corresponding to the report screen including the high-quality image and the like may be (automatically) transmitted to the server. At this time, various settings in the default settings (for example, the depth range for generating the En-Face image on the initial display screen of the report screen, whether or not the analysis map is superimposed, whether or not it is a high-quality image, the display screen for follow-up observation setting regarding at least one of whether or not the report image generated based on the setting is transmitted to the server. It should be noted that similar processing may be performed when the button 2220 indicates switching of image segmentation processing.

(変形例12)
上述した様々な実施例及び変形例において、上述したような種々の学習済モデルのうち、第一の種類の学習済モデルで得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、網膜層を示す画像、セグメンテーション結果を示す画像)を、第一の種類とは異なる第二の種類の学習済モデルに入力してもよい。このとき、第二の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、網膜層の検出結果、セグメンテーション結果)が生成されるように構成されてもよい。
(Modification 12)
In the various embodiments and modifications described above, among the various trained models as described above, an image obtained by the first type of trained model (for example, a high-quality image, an analysis map showing analysis results such as images, images showing object recognition results, images showing retinal layers, images showing segmentation results) may be input to a second type of trained model different from the first type. At this time, the result (for example, analysis result, diagnosis result, object recognition result, retinal layer detection result, segmentation result) of processing of the second type of trained model may be generated.

また、上述したような種々の学習済モデルのうち、第一の種類の学習済モデルの処理による結果(例えば、解析結果、診断結果、物体認識結果、網膜層の検出結果、セグメンテーション結果)を用いて、第一の種類の学習済モデルに入力した画像から、第一の種類とは異なる第一の種類の学習済モデルに入力する画像を生成してもよい。このとき、生成された画像は、第二の種類の学習済モデルを用いて処理する画像として適した画像である可能性が高い。このため、生成された画像を第二の種類の学習済モデルに入力して得た画像(例えば、高画質画像、解析マップ等の解析結果を示す画像、物体認識結果を示す画像、網膜層を示す画像、セグメンテーション結果を示す画像)の精度を向上することができる。 In addition, among the various trained models described above, the results of the processing of the first type of trained model (for example, analysis results, diagnosis results, object recognition results, retinal layer detection results, segmentation results) are used. Therefore, an image to be input to a first type of trained model different from the first type may be generated from an image input to the first type of trained model. At this time, the generated image is highly likely to be an image suitable for processing using the second type of trained model. For this reason, images obtained by inputting the generated images into the second type of trained model (for example, high-quality images, images showing analysis results such as analysis maps, images showing object recognition results, retinal layers, etc.) images showing segmentation results) can be improved in accuracy.

また、上述したような学習済モデルの処理による解析結果や診断結果等を検索キーとして、サーバ等に格納された外部のデータベースを利用した類似画像検索を行ってもよい。なお、データベースにおいて保存されている複数の画像が、既に機械学習等によって該複数の画像それぞれの特徴量を付帯情報として付帯された状態で管理されている場合等には、画像自体を検索キーとする類似画像検索エンジン(類似画像検索モデル、類似画像検索用の学習済モデル)が用いられてもよい。 Further, a similar image search may be performed using an external database stored in a server or the like using the analysis results, diagnosis results, etc. obtained by processing the learned model as described above as a search key. In addition, when the plurality of images stored in the database are already managed in a state in which the feature values of each of the plurality of images are attached as incidental information by machine learning, etc., the image itself is used as the search key. A similar image search engine (similar image search model, trained model for similar image search) may be used.

(変形例13)
なお、上記実施例及び変形例におけるモーションコントラストデータの生成処理は、断層画像の輝度値に基づいて行われる構成に限られない。上記各種処理は、OCT装置10又は撮影装置2810で取得された干渉信号、干渉信号にフーリエ変換を施した信号、該信号に任意の処理を施した信号、及びこれらに基づく断層画像等を含む断層データに対して適用されてよい。これらの場合も、上記構成と同様の効果を奏することができる。
(Modification 13)
Note that the motion contrast data generation processing in the above embodiments and modifications is not limited to being performed based on the luminance value of the tomographic image. The above-described various processes include an interference signal obtained by the OCT apparatus 10 or the imaging apparatus 2810, a signal obtained by subjecting the interference signal to Fourier transform, a signal obtained by subjecting the signal to arbitrary processing, and a tomographic image based thereon. may be applied to the data. Also in these cases, the same effect as the above configuration can be obtained.

分割手段としてカプラを使用したファイバ光学系を用いているが、コリメータとビームスプリッタを使用した空間光学系を用いてもよい。また、OCT装置10又は撮影装置2810の構成は、上記の構成に限られず、OCT装置10又は撮影装置2810に含まれる構成の一部をOCT装置10又は撮影装置2810と別体の構成としてもよい。 Although a fiber optical system using a coupler is used as the splitting means, a spatial optical system using a collimator and a beam splitter may be used. Also, the configuration of the OCT apparatus 10 or the imaging apparatus 2810 is not limited to the above configuration, and part of the configuration included in the OCT apparatus 10 or the imaging apparatus 2810 may be configured separately from the OCT apparatus 10 or the imaging apparatus 2810. .

また、上記実施例及び変形例では、OCT装置10又は撮影装置2810の干渉光学系としてマッハツェンダー型干渉計の構成を用いているが、干渉光学系の構成はこれに限られない。例えば、OCT装置10又は撮影装置2810の干渉光学系はマイケルソン干渉計の構成を有していてもよい。 In addition, in the above-described embodiments and modifications, the configuration of the Mach-Zehnder interferometer is used as the interference optical system of the OCT apparatus 10 or imaging device 2810, but the configuration of the interference optical system is not limited to this. For example, the interferometric optics of the OCT device 10 or imager 2810 may have the configuration of a Michelson interferometer.

さらに、上記実施例及び変形例では、OCT装置として、SLDを光源として用いたスペクトラルドメインOCT(SD-OCT)装置について述べたが、本発明によるOCT装置の構成はこれに限られない。例えば、出射光の波長を掃引することができる波長掃引光源を用いた波長掃引型OCT(SS-OCT)装置等の他の任意の種類のOCT装置にも本発明を適用することができる。また、ライン光を用いたLine-OCT装置に対して本発明を適用することもできる。 Furthermore, in the above embodiments and modifications, the spectral domain OCT (SD-OCT) apparatus using an SLD as a light source has been described as the OCT apparatus, but the configuration of the OCT apparatus according to the present invention is not limited to this. For example, the present invention can be applied to any other type of OCT apparatus such as a wavelength swept OCT (SS-OCT) apparatus using a wavelength swept light source capable of sweeping the wavelength of emitted light. The present invention can also be applied to a Line-OCT apparatus using line light.

また、上記実施例及び変形例では、取得部21,2801は、OCT装置10又は撮影装置2810で取得された干渉信号や画像処理装置で生成された三次元断層画像等を取得した。しかしながら、取得部21,2801がこれらの信号や画像を取得する構成はこれに限られない。例えば、取得部21,2801は、制御部とLAN、WAN、又はインターネット等を介して接続されるサーバや撮影装置からこれらの信号を取得してもよい。 In addition, in the above-described embodiment and modification, the acquisition units 21 and 2801 acquire interference signals acquired by the OCT device 10 or the imaging device 2810, three-dimensional tomographic images generated by the image processing device, and the like. However, the configuration in which the acquisition unit 21, 2801 acquires these signals and images is not limited to this. For example, the acquisition unit 21, 2801 may acquire these signals from a server or imaging device connected to the control unit via LAN, WAN, Internet, or the like.

なお、学習済モデルは、画像処理装置20,80,152,172,2800に設けられることができる。学習済モデルは、例えば、CPU等のプロセッサーによって実行されるソフトウェアモジュール等で構成されることができる。また、学習済モデルは、画像処理装置20,80,152,172,2800と接続される別のサーバ等に設けられてもよい。この場合には、画像処理装置20,80,152,172,2800は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバに接続することで、学習済モデルを用いて画質向上処理を行うことができる。 Note that the learned model can be provided in the image processing apparatuses 20, 80, 152, 172, and 2800. FIG. A trained model can be composed of, for example, a software module or the like executed by a processor such as a CPU. Also, the learned model may be provided in another server or the like connected to the image processing apparatuses 20, 80, 152, 172, and 2800. FIG. In this case, the image processing apparatuses 20, 80, 152, 172, and 2800 connect to a server having a trained model via an arbitrary network such as the Internet, and perform image quality improvement processing using the trained model. It can be carried out.

(変形例14)
また、上述した様々な実施例及び変形例による画像処理装置又は画像処理方法によって処理される画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された医用画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や、上記実施例及び変形例による画像処理装置又は画像処理方法によって作成された画像を含むことができる。
(Modification 14)
Images processed by the image processing apparatuses or image processing methods according to the various embodiments and modifications described above include medical images acquired using any modality (imaging device, imaging method). Medical images to be processed can include medical images acquired by any imaging device or the like, and images created by the image processing devices or image processing methods according to the above embodiments and modifications.

さらに、処理される医用画像は、被検者(被検体)の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。 Furthermore, the medical image to be processed is an image of a predetermined region of a subject (subject), and the image of the predetermined region includes at least part of the predetermined region of the subject. Also, the medical image may include other parts of the subject. Also, the medical image may be a still image or a moving image, and may be a black-and-white image or a color image. Further, the medical image may be an image representing the structure (morphology) of a predetermined site, or an image representing its function. Images representing functions include, for example, images representing blood flow dynamics (blood flow, blood flow velocity, etc.) such as OCTA images, Doppler OCT images, fMRI images, and ultrasound Doppler images. In addition, the predetermined part of the subject may be determined according to the object to be imaged. Includes optional parts such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータ(三次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn-Face画像を含む。En-Face画像は、三次元のOCTAデータ(三次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn-Face画像(モーションコントラスト正面画像)でもよい。また、三次元のOCTデータや三次元のモーションコントラストデータは、三次元の医用画像データの一例である。 Further, the medical image may be a tomographic image or a front image of the subject. The front image is, for example, a front image of the fundus, a front image of the anterior segment of the eye, a fundus image obtained by fluorescence imaging, or data acquired by OCT (three-dimensional OCT data). Includes En-Face images generated using data from The En-Face image is an OCTA En-Face image (motion contrast frontal image) generated using data of at least a partial range in the depth direction of the imaging target for three-dimensional OCTA data (three-dimensional motion contrast data) ) can be used. Three-dimensional OCT data and three-dimensional motion contrast data are examples of three-dimensional medical image data.

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、上述した様々な実施例及び変形例に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。 Also, the imaging device is a device for capturing an image used for diagnosis. The imaging device is, for example, a device that obtains an image of a predetermined portion of a subject by irradiating the predetermined portion of the subject with radiation such as light, X-rays, electromagnetic waves, or ultrasonic waves, or detects radiation emitted from the subject. It includes a device for obtaining an image of a predetermined site by means of More specifically, the imaging apparatuses according to the various embodiments and modifications described above include at least an X-ray imaging apparatus, a CT apparatus, an MRI apparatus, a PET apparatus, a SPECT apparatus, an SLO apparatus, an OCT apparatus, an OCTA apparatus, and a fundus. Including cameras and endoscopes.

なお、OCT装置としては、タイムドメインOCT(TD-OCT)装置やフーリエドメインOCT(FD-OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD-OCT)装置や波長掃引型OCT(SS-OCT)装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO-SLO)装置や波面補償OCT(AO-OCT)装置等を含んでよい。また、SLO装置やOCT装置として、偏光位相差や偏光解消に関する情報を可視化するための偏光SLO(PS-SLO)装置や偏光OCT(PS-OCT)装置等を含んでよい。 The OCT apparatus may include a time domain OCT (TD-OCT) apparatus and a Fourier domain OCT (FD-OCT) apparatus. Fourier-domain OCT devices may also include spectral-domain OCT (SD-OCT) devices and wavelength-swept OCT (SS-OCT) devices. Further, the SLO device and the OCT device may include a wavefront compensation SLO (AO-SLO) device and a wavefront compensation OCT (AO-OCT) device using a wavefront compensation optical system. In addition, the SLO device and the OCT device may include a polarization SLO (PS-SLO) device and a polarization OCT (PS-OCT) device for visualizing information on polarization phase difference and depolarization.

また、上述の様々な実施例及び変形例に係る網膜層検出用や画像セグメンテーション処理用の学習済モデルでは、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。同様に、領域ラベル画像の評価用や高画質化用、画像解析用、診断結果生成用の学習済モデルでも、断層画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推定処理に用いているものと考えらえる。一方で、音声認識用や文字認識用、ジェスチャー認識用等の学習済モデルでは、時系列のデータを用いて学習を行っているため、入力される連続する時系列のデータ値間の傾きを特徴量の一部として抽出し、推定処理に用いているものと考えられる。そのため、このような学習済モデルは、具体的な数値の時間的な変化による影響を推定処理に用いることで、精度のよい推定を行うことができると期待される。 Further, in the trained models for retinal layer detection and image segmentation processing according to the various embodiments and modifications described above, the magnitude of the luminance value of the tomographic image, the order and inclination of the bright and dark portions, the position, distribution, continuity, etc. It can be considered that the characteristics and the like are extracted as part of the feature amount and used for the estimation process. Similarly, the trained model for evaluation of region label images, image quality improvement, image analysis, and diagnosis result generation also includes the magnitude of the brightness value of the tomographic image, the order and inclination of the bright and dark portions, the position, distribution, It is conceivable that the continuity or the like is extracted as part of the feature amount and used for the estimation process. On the other hand, pre-trained models for voice recognition, character recognition, gesture recognition, etc. use time-series data for learning, so the gradient between input continuous time-series data values is a feature. It is thought that it is extracted as part of the quantity and used for the estimation process. Therefore, such a trained model is expected to be able to perform accurate estimation by using the influence of temporal changes in specific numerical values in the estimation process.

(様々な実施態様)
本開示の実施態様1は医用画像処理装置に関する。該医用画像処理装置は、被検眼の断層画像を取得する取得部と、被検眼の断層画像において複数の網膜層のうち少なくとも一つの網膜層が示されたデータを学習して得た学習済モデルを用いて、前記取得された断層画像において複数の網膜層のうち少なくとも一つの網膜層を検出するための第一の検出処理を実行する第一の処理部とを備える。
(various implementations)
Embodiment 1 of the present disclosure relates to a medical image processing apparatus. The medical image processing apparatus includes an acquisition unit that acquires a tomographic image of an eye to be inspected, and a trained model obtained by learning data representing at least one retinal layer among a plurality of retinal layers in the tomographic image of the eye to be inspected. and a first processing unit that performs a first detection process for detecting at least one retinal layer among a plurality of retinal layers in the acquired tomographic image using a.

実施態様2は、実施態様1に係る医用画像処理装置を含み、機械学習により得られる学習済モデルを用いずに、前記取得された断層画像において前記複数の網膜層のうち少なくとも一つの網膜層を検出するための第二の検出処理を実行する第二の処理部を更に備える。 Embodiment 2 includes the medical image processing apparatus according to Embodiment 1, wherein at least one retinal layer among the plurality of retinal layers is detected in the acquired tomographic image without using a trained model obtained by machine learning. It further comprises a second processing unit that executes a second detection process for detecting.

実施態様3は、実施態様2に係る医用画像処理装置を含み、前記第二の検出処理は、前記第一の検出処理を実行することにより検出された少なくとも一つの網膜層以外の少なくとも一つの網膜層を検出する処理である。 Embodiment 3 includes the medical image processing apparatus according to Embodiment 2, wherein the second detection process detects at least one retina other than at least one retinal layer detected by performing the first detection process. This is a process for detecting layers.

実施態様4は、実施態様2又は3に係る医用画像処理装置を含み、前記第一の検出処理は、前記少なくとも一つの網膜層として、前記取得された断層画像において網膜領域を検出する処理であり、前記第二の検出処理は、前記第一の検出処理を実行することにより検出された網膜領域における少なくとも一つの網膜層を検出する処理である。 Embodiment 4 includes the medical image processing apparatus according to Embodiment 2 or 3, wherein the first detection process is a process of detecting a retinal region in the acquired tomographic image as the at least one retinal layer. , the second detection process is a process of detecting at least one retinal layer in the retinal region detected by executing the first detection process.

実施態様5は、実施態様2乃至4のいずれか一つに係る医用画像処理装置を含み、前記第一の検出処理は、被検眼の内境界膜と神経線維層との境界から視細胞内節外節接合部、網膜色素上皮層、及びブルッフ膜のいずれかまでの層を検出する処理であり、前記第二の検出処理は、前記第一の検出処理により検出した層の間の少なくとも一つの網膜層を検出する処理である。 Embodiment 5 includes the medical image processing apparatus according to any one of Embodiments 2 to 4, wherein the first detection processing is performed from the boundary between the inner limiting membrane and the nerve fiber layer of the eye to be examined to the inner segment of photoreceptors. Outer segment junction, retinal pigment epithelium layer, and processing for detecting layers up to one of Bruch's membrane, wherein the second detection processing includes at least one layer between the layers detected by the first detection processing This is a process for detecting retinal layers.

実施態様6は、実施態様2乃至5のいずれか一つに係る医用画像処理装置を含み、前記第二の処理部は、前記第一の処理部による前記第一の検出処理の後に、前記第二の検出処理を実行する。 Embodiment 6 includes the medical image processing apparatus according to any one of Embodiments 2 to 5, wherein the second processing unit performs the first detection processing after the first detection processing by the first processing unit. The second detection process is executed.

実施態様7は、実施態様2に係る医用画像処理装置を含み、表示部を制御する表示制御部を更に備え、前記第一の検出処理及び前記第二の検出処理は、同一の網膜層を検出する処理であり、前記表示制御部は、前記第一の検出処理及び前記第二の検出処理の処理結果を前記表示部に表示させる。 Embodiment 7 includes the medical image processing apparatus according to Embodiment 2, further comprising a display control unit that controls a display unit, wherein the first detection process and the second detection process detect the same retinal layer. The display control unit causes the display unit to display the processing results of the first detection processing and the second detection processing.

実施態様8は、実施態様7に係る医用画像処理装置を含み、前記表示制御部は、前記第一の検出処理及び前記第二の検出処理の処理結果の不一致部分を前記表示部に表示させる。 Embodiment 8 includes the medical image processing apparatus according to Embodiment 7, wherein the display control unit causes the display unit to display a mismatched portion of the processing results of the first detection process and the second detection process.

実施態様9は、実施態様7又は8に係る医用画像処理装置を含み、前記第一の検出処理及び前記第二の検出処理は、被検眼の内境界膜と神経線維層との境界から視細胞内節外節接合部、網膜色素上皮層、及びブルッフ膜のいずれかまでの層を検出する処理であり、前記第二の処理部は、操作者の指示に応じて、前記第一の検出処理及び前記第二の検出処理のいずれか一方により検出した層の間の少なくとも一つの網膜層を検出する第三の検出処理を更に実行する。 Embodiment 9 includes the medical image processing apparatus according to Embodiment 7 or 8, wherein the first detection process and the second detection process detect photoreceptor cells from the boundary between the inner limiting membrane and the nerve fiber layer of the eye to be examined. This is a process of detecting a layer up to one of the junction of the inner segment and the outer segment, the retinal pigment epithelium layer, and Bruch's membrane, and the second processing unit performs the first detection process according to the operator's instruction. and a third detection process of detecting at least one retinal layer between the layers detected by either one of the second detection processes.

実施態様10は、実施態様2乃至9のいずれか一つに係る医用画像処理装置を含み、前記取得された断層画像に関する撮影条件に基づいて、前記第一の検出処理と前記第二の検出処理のうち少なくとも一つの選択を行う選択部を更に備える。 Embodiment 10 includes the medical image processing apparatus according to any one of Embodiments 2 to 9, wherein the first detection process and the second detection process are performed based on imaging conditions related to the acquired tomographic image. further comprising a selection unit that selects at least one of

実施態様11は、実施態様2乃至10のいずれか一つに係る医用画像処理装置を含み、前記第一の処理部は、異なる学習データを用いて機械学習が行われた複数の学習済モデルのうち、前記取得された断層画像に関する撮影条件に対応する学習データを用いて機械学習が行われた学習済モデルを用いて、前記第一の検出処理を実行する。 Embodiment 11 includes the medical image processing apparatus according to any one of Embodiments 2 to 10, wherein the first processing unit processes a plurality of trained models machine-learned using different learning data. Among them, the first detection process is executed using a learned model that has been machine-learned using learning data corresponding to imaging conditions related to the acquired tomographic image.

実施態様12は、実施態様10又は11に係る医用画像処理装置を含み、前記撮影条件は、撮影部位、撮影方式、撮影領域、撮影画角、及び画像の解像度のうち少なくとも一つを含む。 Embodiment 12 includes the medical image processing apparatus according to Embodiment 10 or 11, wherein the imaging conditions include at least one of imaging region, imaging method, imaging region, imaging angle of view, and image resolution.

実施態様13は、実施態様2乃至12のいずれか一つに係る医用画像処理装置を含み、前記第一の検出処理及び前記第二の検出処理の結果に基づいて、被検眼の形状特徴が計測される。 Embodiment 13 includes the medical image processing apparatus according to any one of Embodiments 2 to 12, wherein the shape feature of the subject's eye is measured based on the results of the first detection process and the second detection process. be done.

実施態様14は、実施態様1乃至13のいずれか一つに係る医用画像処理装置を含み、網膜層における医学的特徴に基づいて、前記第一の処理部が検出した網膜層の構造を補正する補正部を更に備える。 Embodiment 14 includes the medical image processing apparatus according to any one of Embodiments 1 to 13, and corrects the structure of the retinal layer detected by the first processing unit based on the medical characteristics of the retinal layer. A corrector is further provided.

実施態様15は、実施態様1乃至14のいずれか一つに係る医用画像処理装置を含み、前記第一の処理部は、前記学習済モデルを用いて、入力された画像について撮影部位毎に予め定められた境界を検出する。 Embodiment 15 includes the medical image processing apparatus according to any one of Embodiments 1 to 14, wherein the first processing unit uses the learned model to pre-process an input image for each imaging region. Detect defined boundaries.

実施態様16は、実施態様1乃至15のいずれか一つに係る医用画像処理装置を含み、被検眼の三次元の断層画像における少なくとも一部の深度範囲であって、前記検出された少なくとも一つの網膜層に基づいて決定された深度範囲に対応する正面画像を生成する生成部を更に備える。 Embodiment 16 includes the medical image processing apparatus according to any one of Embodiments 1 to 15, wherein the detected at least one It further comprises a generation unit that generates a frontal image corresponding to the depth range determined based on the retinal layers.

実施態様17は、実施態様16に係る医用画像処理装置を含み、前記生成部は、前記三次元の断層画像に対応する三次元のモーションコントラストデータを用いて、前記決定された深度範囲に対応するモーションコントラスト正面画像を生成する。 Embodiment 17 includes the medical image processing apparatus according to Embodiment 16, wherein the generator corresponds to the determined depth range using three-dimensional motion contrast data corresponding to the three-dimensional tomographic image. Generate a motion-contrast frontal image.

実施態様18は、実施態様1乃至15のいずれか一つに係る医用画像処理装置を含み、高画質化用の学習済モデルを用いて、前記取得された断層画像から、前記取得された断層画像と比べて高画質化された断層画像を生成する生成部を更に備え、前記第一の処理部は、前記生成された断層画像に前記第一の検出処理を実行する。 Embodiment 18 includes the medical image processing apparatus according to any one of Embodiments 1 to 15, and uses a trained model for improving image quality to obtain the acquired tomographic image from the acquired tomographic image. The first processing unit performs the first detection process on the generated tomographic image.

実施態様19は、実施態様1乃至18のいずれか一つに係る医用画像処理装置を含み、操作者の指示に応じて、前記第一の処理部が検出した網膜層の情報を修正する修正部を更に備え、前記修正された網膜層の情報は、前記第一の処理部が用いる前記学習済モデルについての追加学習に用いられる。 Embodiment 19 includes the medical image processing apparatus according to any one of Embodiments 1 to 18, and a correction unit that corrects the information of the retinal layers detected by the first processing unit in accordance with an operator's instruction. wherein the modified retinal layer information is used for additional learning of the trained model used by the first processing unit.

実施態様20は、実施態様1乃至18のいずれか一つに係る医用画像処理装置を含み、診断結果生成用の学習済モデルを用いて、前記第一の検出処理を実行して得た結果から、前記取得された断層画像の診断結果を生成する、診断結果生成部を更に備える。 Embodiment 20 includes the medical image processing apparatus according to any one of Embodiments 1 to 18, and uses a trained model for generating diagnosis results, and from the result obtained by executing the first detection process and a diagnostic result generating unit for generating a diagnostic result of the acquired tomographic image.

実施態様21は、医用画像処理方法に関する。該医用画像処理方法は、被検眼の断層画像を取得する工程と、学習済モデルを用いて、前記断層画像において被検眼の複数の網膜層のうち少なくとも一つの網膜層を検出するための第一の検出処理を実行する工程とを含む。 Embodiment 21 relates to a medical image processing method. The medical image processing method includes the steps of acquiring a tomographic image of an eye to be inspected, and using a trained model to detect at least one retinal layer of a plurality of retinal layers of the eye to be inspected in the tomographic image. and performing a detection process for.

実施態様22は、プログラムに関する。該プログラムは、プロセッサーによって実行されると、該プロセッサーに実施態様21に係る医用画像処理方法の各工程を実行させる。 Embodiment 22 relates to a program. The program, when executed by a processor, causes the processor to perform each step of the medical image processing method according to Embodiment 21.

本開示の更なる実施態様1は、医用画像処理装置に関する。該医用画像処理装置は、学習済モデルを含むセグメンテーションエンジンを用いて、被検者の所定部位の断層画像である入力画像から解剖学的な領域を識別可能な領域情報を生成するセグメンテーション処理部と、学習済モデルを含む評価エンジン又は解剖学的な知識を用いた知識ベース処理を行う評価エンジンを用いて前記領域情報を評価する評価部とを備える。 A further embodiment 1 of the present disclosure relates to a medical image processing apparatus. The medical image processing apparatus uses a segmentation engine including a trained model to generate region information capable of identifying an anatomical region from an input image, which is a tomographic image of a predetermined region of a subject. and an evaluation unit that evaluates the region information using an evaluation engine that includes a trained model or an evaluation engine that performs knowledge-based processing using anatomical knowledge.

更なる実施態様2は、更なる実施態様1に係る医用画像処理装置を含み、前記入力画像の撮影条件を取得する撮影条件取得部を更に備え、前記セグメンテーション処理部は、前記撮影条件に基づいて、それぞれ異なる学習済モデルを含む複数のセグメンテーションエンジンを切り替えて用いる。 A further embodiment 2 includes the medical image processing apparatus according to the further embodiment 1, further comprising an imaging condition acquisition unit that acquires imaging conditions for the input image, wherein the segmentation processing unit performs , switching between multiple segmentation engines each containing a different pre-trained model.

更なる実施態様3は、更なる実施態様2に係る医用画像処理装置を含み、前記撮影条件取得部が、学習済モデルを含む撮影箇所推定エンジンを用いて、前記入力画像から撮影部位及び撮影領域の少なくとも一方を推定する。 A further embodiment 3 includes the medical image processing apparatus according to the further embodiment 2, wherein the imaging condition acquisition unit uses an imaging location estimation engine including a learned model to obtain an imaging region and an imaging region from the input image. Estimate at least one of

更なる実施態様4は、更なる実施態様1乃至3のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーション処理部は、前記入力画像の画像サイズを、前記セグメンテーションエンジンが対処可能な画像サイズに調整してセグメンテーションエンジンに入力する。 Further embodiment 4 includes the medical image processing apparatus according to any one of further embodiments 1 to 3, wherein the segmentation processing unit sets the image size of the input image to an image that the segmentation engine can handle. Adjust to size and input to the segmentation engine.

更なる実施態様5は、更なる実施態様1乃至3のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーション処理部は、前記入力画像の画像サイズが、前記セグメンテーションエンジンによって対処可能な画像サイズとなるように、前記入力画像にパディングを行った画像をセグメンテーションエンジンに入力する。 Further embodiment 5 includes the medical image processing apparatus according to any one of further embodiments 1 to 3, wherein the segmentation processing unit is configured such that the image size of the input image is an image that can be handled by the segmentation engine. An image obtained by padding the input image to the size is input to the segmentation engine.

更なる実施態様6は、更なる実施態様1乃至3のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーション処理部は、前記入力画像を複数の領域の画像に分割し、分割された領域の画像毎に前記セグメンテーションエンジンに入力する。 Further embodiment 6 includes the medical image processing apparatus according to any one of further embodiments 1 to 3, wherein the segmentation processing unit divides the input image into images of a plurality of regions, Each image of the region is input to the segmentation engine.

更なる実施態様7は、更なる実施態様1乃至6のいずれか一つに係る医用画像処理装置を含み、前記評価部は、前記評価の結果に応じて前記領域情報を出力するか否かを判断する。 A further embodiment 7 includes the medical image processing apparatus according to any one of the further embodiments 1 to 6, wherein the evaluation unit determines whether or not to output the region information according to the evaluation result. to decide.

更なる実施態様8は、更なる実施態様1乃至7のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーション処理部は、それぞれ異なる学習済モデルを含む複数のセグメンテーションエンジンを用いて、前記入力画像から前記複数の領域情報を生成し、前記評価部は、ユーザーの指示に応じて、前記複数の領域情報を評価して出力すべきと判断した複数の領域情報のうちの少なくとも1つを選択する。 Further embodiment 8 includes the medical image processing apparatus according to any one of further embodiments 1 to 7, wherein the segmentation processing unit uses a plurality of segmentation engines each including a different trained model to perform the The plurality of area information are generated from the input image, and the evaluation unit evaluates the plurality of area information and selects at least one of the plurality of area information determined to be output according to a user instruction. select.

更なる実施態様9は、更なる実施態様1乃至7のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーション処理部は、それぞれ異なる学習済モデルを含む複数のセグメンテーションエンジンを用いて、前記入力画像から前記複数の領域情報を生成し、前記評価部は、所定の選択基準に基づいて、前記複数の領域情報を評価して出力すべきと判断した複数の領域情報のうちの少なくとも1つを選択する。 Further embodiment 9 includes the medical image processing apparatus according to any one of further embodiments 1 to 7, wherein the segmentation processing unit uses a plurality of segmentation engines each including a different trained model to perform the The plurality of region information are generated from the input image, and the evaluation unit evaluates the plurality of region information based on a predetermined selection criterion and determines at least one of the plurality of region information to be output. to select.

更なる実施態様10は、更なる実施態様1乃至9のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーションエンジンを用いて前記入力画像から前記領域情報を生成可能であるか否か判定する判定部を更に備える。 A further embodiment 10 includes the medical image processing apparatus according to any one of further embodiments 1 to 9, wherein the segmentation engine is used to determine whether the region information can be generated from the input image. It further comprises a determination unit for determining.

更なる実施態様11は、更なる実施態様1乃至10のいずれか一つに係る医用画像処理装置を含み、前記セグメンテーション処理部は、前記入力画像を該入力画像の次元よりも低い次元の複数の画像に分割し、分割した画像毎に前記セグメンテーションエンジンに入力する。 Further Embodiment 11 includes the medical image processing apparatus according to any one of Further Embodiments 1 to 10, wherein the segmentation processing unit divides the input image into a plurality of segments having a dimension lower than that of the input image. It is divided into images, and each divided image is input to the segmentation engine.

更なる実施態様12は、更なる実施態様11に係る医用画像処理装置を含み、前記セグメンテーション処理部は、複数のセグメンテーションエンジンを用いて前記複数の画像を並列的に処理する。 Further embodiment 12 includes the medical image processing apparatus according to further embodiment 11, wherein the segmentation processor processes the plurality of images in parallel using a plurality of segmentation engines.

更なる実施態様13は、更なる実施態様1乃至12のいずれか一つに係る医用画像処理装置を含み、前記領域情報は、画素毎に領域のラベルが付されたラベル画像である。 A further embodiment 13 includes the medical image processing apparatus according to any one of further embodiments 1 to 12, wherein the region information is a labeled image in which regions are labeled for each pixel.

更なる実施態様14は、更なる実施態様13に係る医用画像処理装置を含み、前記セグメンテーションエンジンは、断層画像を入力とし、前記ラベル画像を出力とする。 Further embodiment 14 includes the medical image processing apparatus according to further embodiment 13, wherein the segmentation engine receives the tomographic image and outputs the label image.

更なる実施態様15は、更なる実施態様14に係る医用画像処理装置を含み、前記セグメンテーションエンジンの学習済モデルは、2つ以上の層を含む断層画像を入力データとし、該断層画像に対応するラベル画像を出力データとして学習を行ったモデルである。 Further embodiment 15 includes the medical image processing apparatus according to further embodiment 14, wherein the trained model of the segmentation engine receives a tomographic image including two or more layers as input data, and corresponds to the tomographic image. This is a model trained using label images as output data.

更なる実施態様16は、更なる実施態様1乃至15のいずれか一つに係る医用画像処理装置を含み、前記入力画像を撮影装置から取得する、又は該撮影装置から前記被検者の前記所定部位のデータを取得し、前記データに基づく前記入力画像を取得する。 Further embodiment 16 includes the medical image processing apparatus according to any one of further embodiments 1 to 15, wherein the input image is acquired from an imaging device, or the predetermined image of the subject is obtained from the imaging device. Part data is obtained, and the input image based on the data is obtained.

更なる実施態様17は、更なる実施態様1乃至15のいずれか一つに係る医用画像処理装置を含み、前記入力画像を画像管理システムから取得する、前記領域情報を該画像管理システムに出力する、又は、該入力画像を該画像管理システムから取得し、且つ該領域情報を該画像管理システムに出力する。 Further embodiment 17 includes the medical image processing apparatus according to any one of further embodiments 1 to 15, wherein the input image is obtained from an image management system, and the area information is output to the image management system. or obtaining the input image from the image management system and outputting the area information to the image management system.

更なる実施態様18は、更なる実施態様1乃至17のいずれか一つに係る医用画像処理装置を含み、前記領域情報を解剖学的な知識ベース処理によって修正する修正部を更に備える。 Further embodiment 18 includes the medical image processing apparatus according to any one of further embodiments 1 to 17, further comprising a correction unit that corrects the region information by anatomical knowledge base processing.

更なる実施態様19は、更なる実施態様1乃至18のいずれか一つに係る医用画像処理装置を含み、前記評価部から出力された前記領域情報を用いて、前記入力画像の画像解析を行う解析部を更に備える。 A further embodiment 19 includes the medical image processing apparatus according to any one of the further embodiments 1 to 18, and performs image analysis of the input image using the region information output from the evaluation unit. It further comprises an analysis unit.

更なる実施態様20は、更なる実施態様1乃至19のいずれか一つに係る医用画像処理装置を含み、前記領域情報は学習済モデルを用いて生成された情報であることを出力する。 A further embodiment 20 includes the medical image processing apparatus according to any one of further embodiments 1 to 19, outputting that the region information is information generated using a trained model.

更なる実施態様21は、医用画像処理方法に係る。該医用画像処理方法は、学習済モデルを含むセグメンテーションエンジンを用いて、被検者の所定部位の断層画像である入力画像から解剖学的な領域を識別可能な領域情報を生成することと、学習済モデルを含む評価エンジン又は解剖学的な知識を用いた知識ベースの評価エンジンを用いて前記領域情報を評価することとを含む。 A further embodiment 21 relates to a medical image processing method. The medical image processing method uses a segmentation engine including a trained model to generate region information capable of identifying an anatomical region from an input image that is a tomographic image of a predetermined region of a subject; evaluating the regional information using an evaluation engine that includes a pre-existing model or a knowledge-based evaluation engine that uses anatomical knowledge.

更なる実施態様22は、プログラムに係る。該プログラムは、プロセッサーによって実行されると、該プロセッサーに更なる実施態様21に係る医用画像処理方法の各工程を実行させる。 A further embodiment 22 relates to a program. The program, when executed by a processor, causes the processor to perform the steps of the medical image processing method according to further embodiment 21.

(その他の実施例)
本発明は、上述の実施例及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1つ又は複数のプロセッサー若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサー若しくは回路のネットワークを含みうる。
(Other examples)
The present invention provides a program that implements one or more functions of the above-described embodiments and modifications to a system or device via a network or a storage medium, and the computer of the system or device reads and executes the program. It is feasible. A computer has one or more processors or circuits and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.

プロセッサー又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサー又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。 A processor or circuit may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA). Also, the processor or circuitry may include a digital signal processor (DSP), data flow processor (DFP), or neural processing unit (NPU).

本発明は上記実施例に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。 The present invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the following claims are included to publicize the scope of the invention.

20:画像処理装置、21:取得部、222:処理部(第一の処理部) 20: Image processing device, 21: Acquisition unit, 222: Processing unit (first processing unit)

Claims (26)

被検眼の断層画像を取得する取得部と、
被検眼の断層画像と該断層画像における少なくとも一つの層に関する位置情報を含む画像とを含む学習データを用いて学習して得た学習済モデルであって、該学習済モデルの入力データとして前記取得された断層画像を用いることで、該学習済モデルの出力データとして前記取得された断層画像における少なくとも一つの層に関する位置情報を含む画像を出力することにより、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する検出部と、
被検眼の三次元の断層画像における少なくとも一部の深度範囲であって、前記検出された少なくとも一つの層に関する位置情報を用いて決定された深度範囲に対応する正面画像を生成し、前記学習済モデルとは異なる学習済モデルの入力データとして前記正面画像を用いることにより、前記正面画像よりも高画質な正面画像を生成する生成部と、
前記正面画像と前記高画質な正面画像との少なくとも一方を表示部に表示させる表示制御部と、
を備える、医用画像処理装置。
an acquisition unit that acquires a tomographic image of an eye to be inspected;
A trained model obtained by learning using learning data including a tomographic image of an eye to be inspected and an image containing position information about at least one layer in the tomographic image, wherein the acquired model is input data for the trained model. By using the obtained tomographic image, by outputting an image containing position information about at least one layer in the obtained tomographic image as output data of the learned model, at least one layer in the obtained tomographic image a detector that detects positional information about the layer;
generating a front image corresponding to at least a partial depth range in a three-dimensional tomographic image of the eye to be inspected, the depth range being determined using the position information regarding the detected at least one layer; a generation unit that generates a front image with higher image quality than the front image by using the front image as input data for a trained model different from the model;
a display control unit that causes a display unit to display at least one of the front image and the high-quality front image;
A medical image processing apparatus comprising:
前記生成部は、前記三次元の断層画像に対応する三次元のモーションコントラストデータを用いて、前記決定された深度範囲に対応するモーションコントラスト正面画像を生成する、請求項1に記載の医用画像処理装置。 2. The medical image processing according to claim 1, wherein said generator generates a motion contrast front image corresponding to said determined depth range using three-dimensional motion contrast data corresponding to said three-dimensional tomographic image. Device. 前記三次元の断層画像は、前記取得された断層画像を含む複数の二次元の断層画像であって、被検眼の異なる位置の複数の二次元の断層画像により構成される、請求項1又は2に記載の医用画像処理装置。 3. The three-dimensional tomographic image is a plurality of two-dimensional tomographic images including the acquired tomographic image, and is composed of a plurality of two-dimensional tomographic images at different positions of the subject's eye. 3. The medical image processing apparatus according to . 前記生成部は、前記検出された少なくとも一つの層に関する位置情報を用いて、前記取得された断層画像に関する画像解析結果を生成する、請求項1乃至3のいずれか一項に記載の医用画像処理装置。 4. The medical image processing according to any one of claims 1 to 3, wherein the generating unit generates an image analysis result regarding the acquired tomographic image using position information regarding the detected at least one layer. Device. 前記生成部は、前記検出された少なくとも一つの層に関する位置情報を用いて、前記取得された断層画像における少なくとも一つの層の厚みを示す厚みグラフ及び該厚みをカラーマップで示す厚みマップの少なくとも一方を、前記画像解析結果として生成する、請求項4に記載の医用画像処理装置。 The generation unit uses the detected position information about the at least one layer to generate at least one of a thickness graph showing the thickness of the at least one layer in the acquired tomographic image and a thickness map showing the thickness in a color map. is generated as the image analysis result. 前記検出部は、操作者からの指示に応じて、前記検出された少なくとも一つの層に関する位置情報を修正する、請求項1乃至5のいずれか一項に記載の医用画像処理装置。 6. The medical image processing apparatus according to any one of claims 1 to 5, wherein the detection unit corrects the position information regarding the detected at least one layer in accordance with an instruction from an operator. 前記検出部は、前記検出された少なくとも一つの層に関する位置情報では得られない他の層に関する位置情報を、前記検出された少なくとも一つの層に関する位置情報を用いて検出する、請求項1乃至のいずれか一項に記載の医用画像処理装置。 7. The detection unit uses the detected position information about the at least one layer to detect position information about another layer that cannot be obtained from the detected position information about the at least one layer. The medical image processing apparatus according to any one of . 前記検出部は、前記検出された少なくとも一つの層に関する位置情報では得られない他の層に関する位置情報を、機械学習により得られる学習済モデルを用いずに検出する、請求項1乃至のいずれか一項に記載の医用画像処理装置。 8. The detector according to any one of claims 1 to 7 , wherein the detection unit detects position information about other layers that cannot be obtained from the detected position information about the at least one layer without using a trained model obtained by machine learning. or the medical image processing apparatus according to claim 1. 前記検出部は、前記学習済モデルの入力データとして前記取得された断層画像を用いることにより、前記取得された断層画像における少なくとも一つの層に関する位置情報として、前記取得された断層画像における複数の層に関する位置情報を検出し、前記他の層に関する位置情報として、前記複数の層の間における少なくとも一つの層に関する位置情報を検出する、請求項又はに記載の医用画像処理装置。 By using the acquired tomographic image as input data for the trained model, the detection unit detects a plurality of layers in the acquired tomographic image as position information related to at least one layer in the acquired tomographic image. 9 . The medical image processing apparatus according to claim 7 , wherein the position information about at least one layer among the plurality of layers is detected as the position information about the other layer. 前記検出部は、前記学習済モデルの入力データとして前記取得された断層画像を用いることにより、前記複数の層に関する位置情報として、被検眼の内境界膜と神経線維層との境界から強膜までの複数の層境界を検出し、前記複数の層の間における少なくとも一つの層に関する位置情報として、前記複数の層境界の間における少なくとも一つの層境界を検出する、請求項に記載の医用画像処理装置。 The detection unit uses the acquired tomographic images as input data for the trained model to obtain positional information about the plurality of layers from the boundary between the inner limiting membrane and the nerve fiber layer of the eye to be examined to the sclera. 10. The medical image according to claim 9 , wherein a plurality of layer boundaries between the plurality of layer boundaries are detected, and at least one layer boundary between the plurality of layer boundaries is detected as position information regarding at least one layer between the plurality of layers processing equipment. 前記検出部は、同じ演算装置又は異なる演算装置を用いて、前記取得された断層画像における少なくとも一つの層に関する位置情報及び前記他の層に関する位置情報を検出する、請求項乃至10のいずれか一項に記載の医用画像処理装置。 11. The detector according to any one of claims 7 to 10 , wherein the detecting unit detects the positional information about at least one layer and the positional information about the other layer in the acquired tomographic image using the same arithmetic device or different arithmetic devices. 1. The medical image processing apparatus according to item 1. 前記表示制御部は、検者からの指示に応じて決定された位置に対応する二次元の断層画像を、前記検出された少なくとも一つの層に関する位置情報が重畳された状態で前記表示部に表示させる、請求項1乃至11のいずれか一項に記載の医用画像処理装置。 The display control unit displays a two-dimensional tomographic image corresponding to a position determined according to an instruction from an examiner on the display unit with position information about the detected at least one layer superimposed thereon . 12. The medical image processing apparatus according to any one of claims 1 to 11 , wherein 前記表示制御部は、前記検出部による前記取得された断層画像における少なくとも一つの層に関する位置情報の検出が適切に行えなかったことを前記表示部に表示させる、請求項1乃至12のいずれか一項に記載の医用画像処理装置。 13. The display control unit according to any one of claims 1 to 12 , wherein the display control unit causes the display unit to display that position information regarding at least one layer in the acquired tomographic image was not properly detected by the detection unit. 1. The medical image processing apparatus according to item 1. 前記表示制御部は、前記検出された少なくとも一つの層に関する位置情報が学習済モデルを用いて検出されたことを前記表示部に表示させる、請求項1乃至13のいずれか一項に記載の医用画像処理装置。 14. The display control unit according to any one of claims 1 to 13 , wherein the display control unit causes the display unit to display that position information regarding the detected at least one layer has been detected using a learned model. Medical image processing equipment. 前記学習データに含まれる断層画像における少なくとも一つの層に関する位置情報を含む画像は画素毎にラベル付けされた画像である、請求項1乃至14のいずれか一項に記載の医用画像処理装置。 15. The medical image processing apparatus according to any one of claims 1 to 14 , wherein an image containing position information relating to at least one layer in the tomographic image included in said learning data is an image labeled for each pixel. 前記取得部は、被検眼の眼底正面画像を更に取得し、
前記検出部は、被検眼の眼底正面画像と該眼底正面画像における視神経乳頭部の領域に関する情報とを含む学習データを用いて学習して得た学習済モデルの入力データとして前記取得された眼底正面画像を用いることにより、前記取得された眼底正面画像における視神経乳頭部の領域に関する情報を検出する、請求項1乃至15のいずれか一項に記載の医用画像処理装置。
The acquisition unit further acquires a front fundus image of the subject's eye,
The detection unit uses the acquired front fundus image as input data for a trained model obtained by learning using learning data including a front fundus image of the subject eye and information about an optic papilla region in the front fundus image. 16. The medical image processing apparatus according to any one of claims 1 to 15 , wherein the image is used to detect information about the region of the optic papilla in the acquired front fundus image.
前記検出部は、前記検出された少なくとも一つの層に関する位置情報及び前記検出された視神経乳頭部の領域に関する情報を用いて、前記取得された断層画像における視神経乳頭部の少なくとも一つの層に関する位置情報を検出する、請求項16に記載の医用画像処理装置。 The detection unit uses the detected positional information about the at least one layer and the detected information about the optic papilla region to obtain positional information about at least one layer of the optic papilla in the acquired tomographic image. 17. The medical image processing apparatus according to claim 16 , which detects 前記検出部は、前記検出された視神経乳頭部の領域に関する情報を用いて、視神経乳頭陥凹/視神経乳頭比を算出する、請求項16又は17に記載の医用画像処理装置。 The medical image processing apparatus according to claim 16 or 17 , wherein the detection unit calculates an optic disc recession/optic disc ratio using information about the detected optic disc region. 前記学習済モデルは、複数の学習済モデルを含み、
前記検出部は、
前記取得された断層画像の撮影条件と前記複数の学習済モデルの学習データとに基づいて、前記取得された断層画像における少なくとも一つの層に関する位置情報の検出に用いる学習済モデルを選択し、
前記選択された学習済モデルの入力データとして前記取得された断層画像を用いることで、前記選択された学習済モデルの出力データとして前記取得された断層画像における少なくとも一つの層に関する位置情報を含む画像を出力することにより、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する、請求項1乃至18のいずれか一項に記載の医用画像処理装置。
The trained model includes a plurality of trained models,
The detection unit is
selecting a trained model to be used for detecting position information about at least one layer in the acquired tomographic image based on the acquired tomographic image acquisition conditions and learning data of the plurality of learned models;
An image containing position information about at least one layer in the acquired tomographic image as output data of the selected trained model by using the acquired tomographic image as input data of the selected trained model 19. The medical image processing apparatus according to any one of claims 1 to 18 , wherein the position information regarding at least one layer in the acquired tomographic image is detected by outputting .
前記学習済モデルは、複数の学習済モデルを含み、
前記検出部は、操作者からの指示に応じて、前記取得された断層画像を前記複数の学習済モデルの入力データとして用いて得た複数の検出結果のいずれかを出力として選択する、請求項1乃至18のいずれか一項に記載の医用画像処理装置。
The trained model includes a plurality of trained models,
3. The detection unit selects, as an output, one of a plurality of detection results obtained by using the acquired tomographic image as input data for the plurality of trained models in accordance with an instruction from an operator. 19. The medical image processing apparatus according to any one of 1 to 18 .
前記検出部は、
前記取得された断層画像における少なくとも一つの層に関する位置情報を検出するための学習済モデルとは異なる学習済モデルの入力データとして前記取得された断層画像を用いることにより、該取得された断層画像よりも高画質な断層画像を生成し、
前記生成された断層画像を前記取得された断層画像における少なくとも一つの層に関する位置情報を検出するための学習済モデルの入力データとして用いて、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する、請求項1乃至20のいずれか一項に記載の医用画像処理装置。
The detection unit is
by using the acquired tomographic image as input data for a trained model different from the trained model for detecting position information about at least one layer in the acquired tomographic image, also generates high-quality tomographic images,
Position information about at least one layer in the acquired tomographic image, using the generated tomographic image as input data for a trained model for detecting position information about at least one layer in the acquired tomographic image 21. The medical image processing apparatus according to any one of claims 1 to 20 , which detects
前記取得部は、被検眼の三次元の断層画像を取得し、
前記検出部は、前記取得した三次元の断層画像を複数の二次元画像に分割し、該分割した二次元画像毎に前記取得された断層画像における少なくとも一つの層に関する位置情報を検出するための学習済モデルの入力データとして用いる、請求項1乃至21のいずれか一項に記載の医用画像処理装置。
The acquisition unit acquires a three-dimensional tomographic image of an eye to be examined,
The detection unit divides the acquired three-dimensional tomographic image into a plurality of two-dimensional images, and detects position information regarding at least one layer in the acquired tomographic image for each of the divided two-dimensional images. The medical image processing apparatus according to any one of claims 1 to 21 , which is used as input data for a trained model.
前記検出部は、前記学習済モデルの出力データとして前記取得された断層画像における少なくとも一つの層に関する位置情報を含む画像を出力し、前記学習済モデルの出力データを用いて、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する、請求項1乃至22のいずれか一項に記載の医用画像処理装置。 The detection unit outputs an image including position information about at least one layer in the acquired tomographic image as output data of the learned model, and uses the output data of the learned model to detect the acquired tomographic image. 23. The medical image processing apparatus of any one of claims 1-22 , wherein the apparatus detects positional information for at least one layer in an image. 被検眼を撮影する撮影装置と、
前記撮影装置と通信可能に接続された、請求項1乃至23のいずれか一項に記載の医用画像処理装置と、
を含む、医用画像処理システム。
a photographing device for photographing an eye to be examined;
The medical image processing apparatus according to any one of claims 1 to 23 , communicably connected to the imaging apparatus;
A medical imaging system, comprising:
被検眼の断層画像を取得する工程と、
被検眼の断層画像と該断層画像における少なくとも一つの層に関する位置情報を含む画像とを含む学習データを用いて学習して得た学習済モデルであって、該学習済モデルの入力データとして前記取得された断層画像を用いることで、該学習済モデルの出力データとして前記取得された断層画像における少なくとも一つの層に関する位置情報を含む画像を出力することにより、前記取得された断層画像における少なくとも一つの層に関する位置情報を検出する工程と、
被検眼の三次元の断層画像における少なくとも一部の深度範囲であって、前記検出された少なくとも一つの層に関する位置情報を用いて決定された深度範囲に対応する正面画像を生成し、前記学習済モデルとは異なる学習済モデルの入力データとして前記正面画像を用いることにより、前記正面画像よりも高画質な正面画像を生成する工程と、
前記正面画像と前記高画質な正面画像との少なくとも一方を表示部に表示させる工程と、
を含む、医用画像処理方法。
a step of acquiring a tomographic image of an eye to be examined;
A trained model obtained by learning using learning data including a tomographic image of an eye to be inspected and an image containing position information about at least one layer in the tomographic image, wherein the acquired model is input data for the trained model. By using the obtained tomographic image, by outputting an image containing position information about at least one layer in the obtained tomographic image as output data of the learned model, at least one layer in the obtained tomographic image detecting location information about the layer;
generating a front image corresponding to at least a partial depth range in a three-dimensional tomographic image of the eye to be inspected, the depth range being determined using the position information regarding the detected at least one layer; generating a front image with higher image quality than the front image by using the front image as input data for a trained model different from the model;
displaying at least one of the front image and the high-quality front image on a display unit;
A medical image processing method, comprising:
プロセッサーによって実行されると、該プロセッサーに請求項25に記載の医用画像処理方法の各工程を実行させる、プログラム。 A program which, when executed by a processor, causes the processor to perform the steps of the medical image processing method according to claim 25 .
JP2022074057A 2018-08-14 2022-04-28 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM Active JP7269413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023024953A JP2023054179A (en) 2018-08-14 2023-02-21 Medical image processing device, medical image processing system, medical image processing method, and program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018152632 2018-08-14
JP2018152632 2018-08-14
JP2018230612 2018-12-10
JP2018230612 2018-12-10
JP2019147739A JP7229881B2 (en) 2018-08-14 2019-08-09 MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019147739A Division JP7229881B2 (en) 2018-08-14 2019-08-09 MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023024953A Division JP2023054179A (en) 2018-08-14 2023-02-21 Medical image processing device, medical image processing system, medical image processing method, and program

Publications (2)

Publication Number Publication Date
JP2022103221A JP2022103221A (en) 2022-07-07
JP7269413B2 true JP7269413B2 (en) 2023-05-08

Family

ID=69525427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022074057A Active JP7269413B2 (en) 2018-08-14 2022-04-28 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Country Status (3)

Country Link
JP (1) JP7269413B2 (en)
GB (1) GB2614130B (en)
WO (1) WO2020036182A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018119077A1 (en) 2016-12-21 2018-06-28 Acucela Inc. Miniaturized mobile, low cost optical coherence tomography system for home based ophthalmic applications
CN112638233A (en) 2018-06-20 2021-04-09 奥克塞拉有限公司 Miniature mobile low-cost optical coherence tomography system based on home ophthalmic applications
JP2023508946A (en) 2019-12-26 2023-03-06 アキュセラ インコーポレイテッド Optical Coherence Tomography Patient Alignment System for Home-Based Ophthalmic Applications
US10959613B1 (en) 2020-08-04 2021-03-30 Acucela Inc. Scan pattern and signal processing for optical coherence tomography
EP4195998A1 (en) 2020-08-14 2023-06-21 Acucela Inc. System and method for optical coherence tomography a-scan decurving
US11393094B2 (en) 2020-09-11 2022-07-19 Acucela Inc. Artificial intelligence for evaluation of optical coherence tomography images
CA3192083A1 (en) 2020-09-30 2022-04-07 Acucela Inc. Myopia prediction, diagnosis, planning, and monitoring device
CN112419244B (en) * 2020-11-11 2022-11-01 浙江大学 Concrete crack segmentation method and device
CN112614568A (en) * 2020-12-28 2021-04-06 东软集团股份有限公司 Inspection image processing method and device, storage medium and electronic equipment
EP4312717A1 (en) 2021-03-24 2024-02-07 Acucela Inc. Axial length measurement monitor
WO2022209574A1 (en) * 2021-03-31 2022-10-06 株式会社ニデック Medical image processing device, medical image processing program, and medical image processing method
CN113554593B (en) * 2021-06-15 2023-07-25 汕头大学 Choroid thickness estimation method, apparatus, equipment and medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011520503A (en) 2008-05-14 2011-07-21 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Automatic concave nipple ratio measurement system
JP2012019958A (en) 2010-07-14 2012-02-02 Canon Inc Image processor, program, and storage medium
JP2017047111A (en) 2015-09-04 2017-03-09 キヤノン株式会社 Ophthalmologic apparatus, display control method, and program
JP2018030013A (en) 2017-11-02 2018-03-01 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program
JP2018114068A (en) 2017-01-17 2018-07-26 キヤノン株式会社 Image processing apparatus, optical coherence tomographic imaging apparatus, image processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6240064B2 (en) * 2011-04-29 2017-11-29 ザ ジェネラル ホスピタル コーポレイション Method for determining depth-resolved physical and / or optical properties of a scattering medium
US10878574B2 (en) * 2018-02-21 2020-12-29 Topcon Corporation 3D quantitative analysis of retinal layers with deep learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011520503A (en) 2008-05-14 2011-07-21 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Automatic concave nipple ratio measurement system
JP2012019958A (en) 2010-07-14 2012-02-02 Canon Inc Image processor, program, and storage medium
JP2017047111A (en) 2015-09-04 2017-03-09 キヤノン株式会社 Ophthalmologic apparatus, display control method, and program
JP2018114068A (en) 2017-01-17 2018-07-26 キヤノン株式会社 Image processing apparatus, optical coherence tomographic imaging apparatus, image processing method, and program
JP2018030013A (en) 2017-11-02 2018-03-01 株式会社ニデック Ophthalmic analysis apparatus and ophthalmic analysis program

Also Published As

Publication number Publication date
GB2614130B (en) 2023-09-27
GB2614130A (en) 2023-06-28
GB202217205D0 (en) 2023-01-04
WO2020036182A1 (en) 2020-02-20
JP2022103221A (en) 2022-07-07

Similar Documents

Publication Publication Date Title
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
US20210104313A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP7250653B2 (en) Image processing device, image processing method and program
JP7341874B2 (en) Image processing device, image processing method, and program
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
US11887288B2 (en) Image processing apparatus, image processing method, and storage medium
JP7305401B2 (en) Image processing device, method of operating image processing device, and program
CN113557714A (en) Medical image processing apparatus, medical image processing method, and program
JP7362403B2 (en) Image processing device and image processing method
JP7332463B2 (en) Control device, optical coherence tomography device, control method for optical coherence tomography device, and program
WO2020138128A1 (en) Image processing device, image processing method, and program
WO2020075719A1 (en) Image processing device, image processing method, and program
JP2021164535A (en) Image processing device, image processing method and program
JP2022011912A (en) Image processing apparatus, image processing method and program
JP2022121202A (en) Image processing device and image processing method
WO2020049828A1 (en) Image processing apparatus, image processing method, and program
JP2023010308A (en) Image processing device and image processing method
JP2021069667A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220526

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230221

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230302

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230421

R151 Written notification of patent or utility model registration

Ref document number: 7269413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151