JP2021079013A - Medical image processing device, processing method for medical image processing device and program - Google Patents

Medical image processing device, processing method for medical image processing device and program Download PDF

Info

Publication number
JP2021079013A
JP2021079013A JP2019211631A JP2019211631A JP2021079013A JP 2021079013 A JP2021079013 A JP 2021079013A JP 2019211631 A JP2019211631 A JP 2019211631A JP 2019211631 A JP2019211631 A JP 2019211631A JP 2021079013 A JP2021079013 A JP 2021079013A
Authority
JP
Japan
Prior art keywords
image
image processing
eye
inspected
trained model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019211631A
Other languages
Japanese (ja)
Inventor
住谷 利治
Toshiji Sumiya
利治 住谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019211631A priority Critical patent/JP2021079013A/en
Publication of JP2021079013A publication Critical patent/JP2021079013A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

To properly output an image in which image quality of an input image is improved.SOLUTION: A medical image processing device includes: multiple image processing means (404a, 404b); and image processing choosing means (402) for choosing any one of the multiple image processing means. The chosen image processing means sets an image of subject's eye as an input image and outputs an image in which image quality of the input image is improved.SELECTED DRAWING: Figure 2

Description

本発明は、医用画像処理装置、医用画像処理装置の処理方法およびプログラムに関する。 The present invention relates to a medical image processing apparatus, a processing method and a program of the medical image processing apparatus.

近年、低コヒーレンス光による干渉を利用した光断層画像撮像装置(Optical Coherence Tomography: 以下、OCTという)が眼科用検査機器として実用化されている。また、走査レーザー検眼鏡(Scanning Laser Ophthalmoscope:以下、SLOという)が眼科用検査機器として実用化されている。OCTやSLOは、特に眼科診断のための画像を取得する眼科装置として広く利用されている。 In recent years, an optical coherence tomography (hereinafter referred to as OCT) using interference due to low coherence light has been put into practical use as an ophthalmic examination device. Further, scanning laser ophthalmoscope (hereinafter referred to as SLO) has been put into practical use as an ophthalmologic examination device. OCT and SLO are widely used as an ophthalmic apparatus for acquiring an image for ophthalmic diagnosis.

OCTは、測定対象から反射した光と参照鏡から反射した光を干渉させ、その干渉光強度を解析することにより、測定対象の断層画像を得ている。このようなOCTとして、低コヒーレンス光を用いて干渉光を分光し、深さ情報を周波数情報に置き換えて取得するスペクトラルドメインOCT(SD−OCT)、波長掃引光源を用いて先に波長を分光する波長掃引OCT(SS−OCT)が知られている。また、SLOは、スポット光を眼底に照射・走査して反射光の強度を測定することで、眼底の2次元平面画像を得ている。 The OCT obtains a tomographic image of the measurement target by interfering the light reflected from the measurement target with the light reflected from the reference mirror and analyzing the interference light intensity. As such an OCT, the interference light is separated by using low coherence light, and the wavelength is first separated by using a spectral domain OCT (SD-OCT) obtained by replacing the depth information with frequency information and a wavelength sweeping light source. Wavelength sweep OCT (SS-OCT) is known. Further, SLO obtains a two-dimensional plane image of the fundus by irradiating and scanning the fundus with spot light and measuring the intensity of the reflected light.

近年は、さらに補償光学(Adaptive Optics:以下、AOという)を搭載し、高分解能に網膜の微細構造を描出するAO−OCTやAO−SLOが研究開発されている(非特許文献1参照)。眼底撮影において、人眼の光学系(角膜、水晶体、硝子体)は不均一であり、眼底を撮影する光の波面に収差が生じるため、高分解能に網膜を描画することは一般に困難である。AO−OCTやAO−SLOでは、波面センサを用いて光波面の収差を計測し、波面補正デバイスを用いて収差を打ち消すため、高分解能な眼底画像を取得することが可能となる。 In recent years, AO-OCT and AO-SLO, which are further equipped with adaptive optics (hereinafter referred to as AO) and depict the fine structure of the retina with high resolution, have been researched and developed (see Non-Patent Document 1). In fundus photography, it is generally difficult to draw the retina with high resolution because the optical system (cornea, crystalline lens, vitreous body) of the human eye is non-uniform and aberration occurs in the wavefront of the light that photographs the fundus. In AO-OCT and AO-SLO, the aberration of the light wave surface is measured by using the wave surface sensor, and the aberration is canceled by using the wave surface correction device, so that it is possible to acquire a high-resolution fundus image.

また、OCTを用いて造影剤を用いない血管造影法が提案されている。この血管造影法は、OCTアンギオグラフィー(以下、OCTAという)と呼ばれる。OCTAでは、取得される三次元のモーションコントラストデータを深度方向に統合し、二次元平面上に投影することで平面血管画像(以下、OCTA画像ともいう)を生成する。ここで、モーションコントラストデータとは、同一断面を繰り返し撮影し、その撮影間における被写体の時間的な変化を検出したデータである。このデータは、例えば、複素OCT信号の位相差やベクトル差分、或いは強度の時間的な変化を計算することによって得られる(特許文献1参照)。一方で、同一断面の繰り返し回数が少ない場合、得られるOCTA画像の画質が低いという課題がある。 In addition, an angiography method using OCT and not using a contrast medium has been proposed. This angiography method is called OCT angiography (hereinafter referred to as OCTA). In OCTA, a plane blood vessel image (hereinafter, also referred to as OCTA image) is generated by integrating the acquired three-dimensional motion contrast data in the depth direction and projecting it on a two-dimensional plane. Here, the motion contrast data is data obtained by repeatedly photographing the same cross section and detecting a temporal change of the subject during the photographing. This data can be obtained, for example, by calculating the phase difference, vector difference, or temporal change in intensity of the complex OCT signal (see Patent Document 1). On the other hand, when the number of repetitions of the same cross section is small, there is a problem that the image quality of the obtained OCTA image is low.

また、近年では、機械学習等の人工知能を用いて、医用画像の高画質化を行う手法も開示されている。例えば、低解像度の画像を人工知能エンジンを用いて高解像度化する手法が開示されている(特許文献2参照)。人工知能エンジンは、入力となる低解像度画像と出力となる高解像度画像との複数の組み合わせ(学習サンプル)を学習させて、それに基づく推論を行って解像度変換を行っている。 Further, in recent years, a method of improving the image quality of medical images by using artificial intelligence such as machine learning has also been disclosed. For example, a method for increasing the resolution of a low-resolution image using an artificial intelligence engine is disclosed (see Patent Document 2). The artificial intelligence engine trains a plurality of combinations (learning samples) of a low-resolution image as an input and a high-resolution image as an output, and performs inference based on the combination (learning sample) to perform resolution conversion.

特開2015−131107号公報JP 2015-131107 特開2018−5841号公報JP-A-2018-5841

“Adaptive optics optical coherence tomography for high−resolution and high−speed 3D retinal in vivo imaging”,R.Zawadzki et.al,Optics Express,Vol.13,pp.8532−8546"Adaptive optics optical coherence tomography for high-resolution and high-speed 3D retinal in vivo imaging", R. et al. Zawadzki et. al, Optics Express, Vol. 13, pp. 8532-8546

しかしながら、機械学習を利用した画像処理は、被写体に対応した学習データで学習した学習済みモデルが必要となる。画像に描出される血管等の構造物の形態や撮影上条件が異なると、一つの学習済みモデルで全ての被写体に対応することが困難になることがあった。被写体や撮影条件、目的が変われば、その都度、ユーザが学習済みモデルを選択する必要があった。例えば、AO−OCTでは、毛細血管や視細胞、血管壁、ドルーゼンなど形態が大幅に異なる網膜の微細構造が被写体となる場合があり、対応する学習済みモデルに切り替える必要があった。さらに、被写体が静止画像のみならず、血流や血管の拍動などの動画像の場合もある。また、例えば、画像の画角や解像度、撮像する部位に応じても、学習済みモデルを切り替える必要があった。同一の被写体であっても、フォーカス位置のずれや光量の過不足によるSN比やコントラストの変動によっても適した学習済みモデルが変わる場合がある。また、同じ画像に対しても、目的によって観察用に輝度の階調性がある方が望ましい場合と解析用に二値化された方が望ましい場合とがあり、各々異なる学習済みモデルが必要となっていた。以上のように、ユーザにとって、適切な学習済みモデルを選択するのが煩雑となっていた。 However, image processing using machine learning requires a trained model learned with learning data corresponding to the subject. If the morphology of structures such as blood vessels depicted in the image and the shooting conditions are different, it may be difficult for one trained model to handle all subjects. Each time the subject, shooting conditions, or purpose changed, the user had to select a trained model. For example, in AO-OCT, microstructures of the retina, such as capillaries, photoreceptor cells, blood vessel walls, and drusen, which have significantly different morphologies, may be the subject, and it was necessary to switch to the corresponding trained model. Further, the subject may be not only a still image but also a moving image such as a blood flow or a pulsation of a blood vessel. Further, for example, it is necessary to switch the trained model according to the angle of view and resolution of the image and the part to be imaged. Even for the same subject, the suitable trained model may change depending on the fluctuation of the SN ratio and the contrast due to the shift of the focus position and the excess or deficiency of the amount of light. Also, even for the same image, there are cases where it is desirable to have a gradation of brightness for observation and cases where it is desirable to binarize it for analysis, depending on the purpose, and different trained models are required for each. It was. As described above, it has been complicated for the user to select an appropriate trained model.

本発明の目的は、入力画像の画質を向上させた画像を適切に出力することができるようにすることである。 An object of the present invention is to enable an image having improved image quality of an input image to be appropriately output.

本発明の医用画像処理装置は、複数の画像処理手段と、前記複数の画像処理手段のうちのいずれかを選択する画像処理選択手段とを有し、前記選択された画像処理手段は、被検眼の画像を入力画像とし、前記入力画像の画質を向上させた画像を出力する。 The medical image processing apparatus of the present invention has a plurality of image processing means and an image processing selection means for selecting one of the plurality of image processing means, and the selected image processing means is the eye to be inspected. Is used as an input image, and an image with improved image quality of the input image is output.

本発明によれば、入力画像の画質を向上させた画像を適切に出力することができる。 According to the present invention, it is possible to appropriately output an image in which the image quality of the input image is improved.

眼科撮影装置の構成例を表す図である。It is a figure which shows the structural example of the ophthalmologic imaging apparatus. 眼科撮影装置の画像生成部の構成例を表す図である。It is a figure which shows the structural example of the image generation part of the ophthalmologic imaging apparatus. 信号処理の例を表すフロー図である。It is a flow chart which shows an example of signal processing. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 学習データの例を表す図である。It is a figure which shows the example of the training data. 眼科撮影装置の構成例を表す図である。It is a figure which shows the structural example of the ophthalmologic imaging apparatus. 信号処理の例を表すフロー図である。It is a flow chart which shows an example of signal processing. 表示画面の例を表す図である。It is a figure which shows the example of the display screen. 撮影手順の例を表すフロー図である。It is a flow chart which shows an example of a shooting procedure. 画像の例を表す図である。It is a figure which shows the example of an image. 信号処理の変形例を表すフロー図である。It is a flow chart which shows the modification of the signal processing. 画像の例を表す図である。It is a figure which shows the example of an image. 画像処理の例を表す図である。It is a figure which shows the example of image processing. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 信号処理の変形例を表すフロー図である。It is a flow chart which shows the modification of the signal processing. 画像の例を表す図である。It is a figure which shows the example of an image. 画像の例を表す図である。It is a figure which shows the example of an image. 表示画面の例を表す図である。It is a figure which shows the example of the display screen.

[第1の実施形態]
[眼科撮影装置の全体構成]
図1は、第1の実施形態による眼科撮影装置200の構成例を示す図である。眼科撮影装置200は、医用画像処理装置であり、光学系100と、制御部300と、画像生成部400と、表示制御部500と、記憶部600を有する。光学系100は、制御部300により制御され、被検眼118に対して測定光を照射し、被検眼118からの戻り光を検出する。画像生成部400は、信号を処理して画像を生成し、その生成した画像を表示制御部500に出力する。生成する画像は、撮像手段や表示内容によって異なる。例えば、OCTの場合、画像生成部400は、光学系100が出力する信号SOCTを基に、2次元の断層像TOCTや3次元のOCT画像VOCT、3次元のOCT画像を2次元に投影した2次元眼底正面画像などを生成する。SLOの場合は、画像生成部400は、光学系100が出力するSLO信号SSLOを基に、2次元の眼底正面画像MSLOを生成する。表示制御部500は、液晶ディスプレイ等の表示デバイスを含み、画像生成部400により生成された画像を表示する。また、信号や生成された画像は、記憶部600に被検眼118を特定する情報と共に記憶される。
[First Embodiment]
[Overall configuration of ophthalmic imaging equipment]
FIG. 1 is a diagram showing a configuration example of the ophthalmologic imaging apparatus 200 according to the first embodiment. The ophthalmologic imaging apparatus 200 is a medical image processing apparatus and includes an optical system 100, a control unit 300, an image generation unit 400, a display control unit 500, and a storage unit 600. The optical system 100 is controlled by the control unit 300, irradiates the eye to be inspected 118 with the measurement light, and detects the return light from the eye to be inspected 118. The image generation unit 400 processes a signal to generate an image, and outputs the generated image to the display control unit 500. The image to be generated differs depending on the imaging means and the display content. For example, in the case of OCT, the image generation unit 400 converts a two-dimensional tomographic image T OCT , a three-dimensional OCT image V OCT , and a three-dimensional OCT image into two dimensions based on the signal S OCT output by the optical system 100. Generates a projected two-dimensional frontal image of the fundus. In the case of SLO, the image generation unit 400 generates a two-dimensional frontal fundus image M SLO based on the SLO signal S SLO output by the optical system 100. The display control unit 500 includes a display device such as a liquid crystal display, and displays an image generated by the image generation unit 400. Further, the signal and the generated image are stored in the storage unit 600 together with the information for identifying the eye to be inspected 118.

また、眼科撮影装置200は、特定の機能を持つハードウェアに接続されたPC(パーソナルコンピュータ)によって実現することが出来る。例えば、光学系100をハードウェアで実現し、制御部300、画像生成部400および表示制御部500をPCに搭載可能なプログラム(ソフトウェアモジュール)で実現することが出来る。以下、PCの演算処理装置であるCPUがプログラムを実行することで機能を実現するが、このような方法に限定されるものではない。画像生成部400は、例えばASIC等の専用のハードウェアで実現してもよい。表示制御部500は、CPUとは異なるGPU等の専用プロセッサで実現してもよい。あるいは、画像生成部400は、画像取得後のポスト処理をするプログラムで実現し、光学系100とは切り離して、記憶部600から画像データをやり取りする形態でもよい。また、光学系100とPCとの接続は、ネットワークを介した構成によっても実現が可能である。 Further, the ophthalmologic imaging apparatus 200 can be realized by a PC (personal computer) connected to hardware having a specific function. For example, the optical system 100 can be realized by hardware, and the control unit 300, the image generation unit 400, and the display control unit 500 can be realized by a program (software module) that can be mounted on a PC. Hereinafter, the function is realized by the CPU, which is the arithmetic processing unit of the PC, executing the program, but the method is not limited to such a method. The image generation unit 400 may be realized by dedicated hardware such as ASIC. The display control unit 500 may be realized by a dedicated processor such as a GPU different from the CPU. Alternatively, the image generation unit 400 may be realized by a program that performs post processing after image acquisition, and may be in a form in which image data is exchanged from the storage unit 600 separately from the optical system 100. Further, the connection between the optical system 100 and the PC can also be realized by a configuration via a network.

<画像生成部400>
図2は、画像生成部400の構成を示す図である。画像生成部400は、再構成部401と、画像処理選択部402と、画像処理部403を有する。画像処理部403は、複数の学習済みモデル404aおよび404b等を有する。以下、学習済みモデル404aおよび404b等を学習済みモデル404という。複数の学習済みモデル404は、複数の画像処理部であり、被検眼118の画像を入力画像とし、その入力画像の画質を向上させた画像を出力する。
<Image generation unit 400>
FIG. 2 is a diagram showing the configuration of the image generation unit 400. The image generation unit 400 includes a reconstruction unit 401, an image processing selection unit 402, and an image processing unit 403. The image processing unit 403 has a plurality of trained models 404a, 404b, and the like. Hereinafter, the trained models 404a and 404b and the like are referred to as trained models 404. The plurality of trained models 404 are a plurality of image processing units, and the image of the eye to be inspected 118 is used as an input image, and an image in which the image quality of the input image is improved is output.

図3は、画像生成部400の処理方法を示すフローチャートである。ステップS401では、再構成部401は、光学系100から出力された信号に対して、様々な処理を行い、被検眼118に関する画像を生成する。具体的には、再構成部401は、所定のOCT画像やSLO画像、あるいはOCTA画像などを再構成する。その詳細は、後述する。生成される画像は、2次元の断層像や正面画像、3次元のボリュームデータや3次元OCT画像、網膜の層毎に切り出した画像などが挙げられる。また、再構成部401は、光学系100の代わりに、記憶部600に記憶された信号から画像を生成してもよい。 FIG. 3 is a flowchart showing a processing method of the image generation unit 400. In step S401, the reconstruction unit 401 performs various processes on the signal output from the optical system 100 to generate an image relating to the eye to be inspected 118. Specifically, the reconstruction unit 401 reconstructs a predetermined OCT image, SLO image, OCTA image, or the like. The details will be described later. Examples of the generated image include a two-dimensional tomographic image, a frontal image, a three-dimensional volume data, a three-dimensional OCT image, and an image cut out for each layer of the retina. Further, the reconstruction unit 401 may generate an image from the signal stored in the storage unit 600 instead of the optical system 100.

ステップS402では、画像処理選択部402は、再構成部401で生成された被検眼118の画像および画像に関する情報を基に、画像処理部403の複数の学習済みモデル404のうちのいずれかを選択する。画像処理選択部402は、再構成部401で生成された画像の代わりに、記憶部600に記憶された画像を読み込んでもよい。 In step S402, the image processing selection unit 402 selects one of the plurality of trained models 404 of the image processing unit 403 based on the image of the eye to be inspected 118 generated by the reconstruction unit 401 and the information about the image. To do. The image processing selection unit 402 may read the image stored in the storage unit 600 instead of the image generated by the reconstruction unit 401.

ステップS403では、選択された学習済みモデル404は、再構成部401で生成された被検眼118の画像を入力画像として、入力画像の画質を向上させた画像を推論処理により出力する。被検眼118の画像は、被検眼の前眼部、被検眼の後眼部、または被検眼の微細構造の画像である。微細構造は、血管、毛細血管、視細胞、または血管壁、あるいは軟性白斑、硬性白斑(ドルーゼン)である。 In step S403, the selected trained model 404 uses the image of the eye to be inspected 118 generated by the reconstruction unit 401 as an input image, and outputs an image with improved image quality of the input image by inference processing. The image of the eye to be inspected 118 is an image of the anterior segment of the eye to be inspected, the posterior segment of the eye to be inspected, or the microstructure of the eye to be inspected. The ultrastructure is blood vessels, capillaries, photoreceptor cells, or blood vessel walls, or soft vitiligo, hard vitiligo (drusen).

学習済みモデル404は、ディープラーニング等を含む機械学習アルゴリズムを用いる。学習済みモデル404は、特定の被写体の入力画像から画質向上した教師画像と同等の画像となる画像を推論処理により出力する学習を事前に済ませておく。被写体毎に学習データを用意し、複数の学習済みモデル404を用意する。個々の学習済みモデル404は、学習対象とした特定の被写体と対応付けがなされている。 The trained model 404 uses a machine learning algorithm including deep learning and the like. The trained model 404 is preliminarily trained to output an image equivalent to the teacher image with improved image quality from the input image of a specific subject by inference processing. Training data is prepared for each subject, and a plurality of trained models 404 are prepared. Each trained model 404 is associated with a specific subject to be trained.

画像処理選択部402は、学習済みモデル404を選択するために、第2の学習済みモデルを用いてもよい。第2の学習済みモデルも、ディープラーニング等を含む機械学習アルゴリズムを用いればよい。第2の学習済みモデルは、再構成部401で生成された画像を入力として、被写体に適した学習済みモデル404を推論処理により選択する学習を事前に済ませておく。第2の学習済みモデルは、学習済みモデル404を選択する代わりに、被写体を推論処理により出力するようにしてもよい。画像処理選択部402は、第2の学習済みモデルを用いて、被写体を推論することにより、被写体に対応付けされた学習済みモデル404を選択できる。 The image processing selection unit 402 may use the second trained model in order to select the trained model 404. The second trained model may also use a machine learning algorithm including deep learning. In the second trained model, the image generated by the reconstruction unit 401 is used as an input, and learning to select a trained model 404 suitable for the subject by inference processing is completed in advance. The second trained model may output the subject by inference processing instead of selecting the trained model 404. The image processing selection unit 402 can select the trained model 404 associated with the subject by inferring the subject using the second trained model.

第2の学習済みモデルへの入力は、画像に加えて画像に付随する情報も入力としてもよい。付随する情報の例としては、患者情報や検査情報、および撮影データが挙げられる。患者情報の例としては、患者の年齢や人種、疾患や既往症などが挙げられる。また、検査情報の例としては、左右眼のどちらであるか、検査モードやスキャンパターン、測定位置・画角、直前の測定結果や以前の測定での学習済みモデル404の選択結果などが挙げられる。撮影データの例としては、撮影時の信号強度、ノイズの強度、SN比、コントラスト、フォーカス位置、OCTのコヒーレンスゲート位置、あるいは光源の光量やセンサゲインなど撮影時に被写体の信号以外に取得できる情報が挙げられる。画像に付随する情報を加えて学習することで、適切な学習済みモデル404あるいは被写体を特定しやすくなる効果が期待できる。 The input to the second trained model may be input to information accompanying the image in addition to the image. Examples of accompanying information include patient information, examination information, and imaging data. Examples of patient information include the age and race of the patient, illness and pre-existing illness. In addition, examples of inspection information include inspection mode, scan pattern, measurement position / angle of view, previous measurement result, selection result of trained model 404 in previous measurement, and so on. .. Examples of shooting data include signal strength at the time of shooting, noise strength, SN ratio, contrast, focus position, OCT coherence gate position, or information that can be acquired other than the subject signal at the time of shooting, such as the amount of light from the light source and sensor gain. Can be mentioned. By learning by adding the information accompanying the image, it is expected that the appropriate trained model 404 or the subject can be easily identified.

画像処理選択部402は、第2の学習済みモデルを用いる代わりに、画像に付随する情報を基に条件分岐等で学習済みモデル404を選択してもよい。例えば、画像処理選択部402は、撮影モードと連動して、学習済みモデル404を選択してもよい。画像処理選択部402は、視細胞観察、毛細血管観察などの特定の被写体を撮影するモードの場合、その情報を基に対応する学習済みモデルを選択してもよい。また、画像処理選択部402は、血流や拍動の様子を観察する動画モードの場合、動画用の学習済みモデルを選択すればよい。動画用の学習済みモデルは、動画を連続した1枚1枚の静止画として処理するものであってもよいし、動画の各コマの前後の画像との関係を含めて処理するものであってもよい。 Instead of using the second trained model, the image processing selection unit 402 may select the trained model 404 by conditional branching or the like based on the information accompanying the image. For example, the image processing selection unit 402 may select the trained model 404 in conjunction with the shooting mode. In the case of a mode for photographing a specific subject such as observation of photoreceptor cells and observation of capillaries, the image processing selection unit 402 may select a corresponding trained model based on the information. Further, in the case of the moving image mode for observing the state of blood flow and pulsation, the image processing selection unit 402 may select a trained model for moving images. The trained model for a moving image may process the moving image as a continuous still image, or may process the moving image including the relationship with the images before and after each frame of the moving image. May be good.

画像処理選択部402は、被検眼118の画像が静止画の場合には、静止画を入力画像とする学習済みモデル404を選択し、被検眼118の画像が動画の場合には、動画を入力画像とする学習済みモデル404を選択する。 The image processing selection unit 402 selects the trained model 404 that uses the still image as the input image when the image of the eye to be inspected 118 is a still image, and inputs the moving image when the image of the eye to be inspected 118 is a moving image. Select the trained model 404 to be the image.

また、対応する学習済みモデルが無い場合に備えて、汎用的な学習済みモデルを用意してもよい。汎用的な学習済みモデルは、フォーカス位置ずれ、輝度やコントラスト補正、ノイズ除去など被写体の形態に依存が少ないと考えられる学習データで学習した学習済みモデルとすればよい。なお、被写体に対応する学習済みモデルが無い場合とは、推論処理した結果に加えて、確からしさも出力させ、確からしさが所定の値以下である場合を学習済みモデルが無いとしてもよい。画像処理選択部402は、複数の学習済みモデル404を選択する確からしさが閾値以下である場合には、汎用の学習済みモデルを選択する。 In addition, a general-purpose trained model may be prepared in case there is no corresponding trained model. The general-purpose trained model may be a trained model trained with learning data that is considered to be less dependent on the shape of the subject, such as focus position shift, brightness and contrast correction, and noise removal. In addition, when there is no trained model corresponding to the subject, in addition to the result of the inference processing, the certainty is also output, and when the certainty is equal to or less than a predetermined value, there may be no trained model. The image processing selection unit 402 selects a general-purpose trained model when the certainty of selecting a plurality of trained models 404 is less than or equal to the threshold value.

また、対応する学習済みモデルが無い場合、撮影後に学習済みモデルを追加できる構成としてもよい。例えば、画像生成部400は、記憶部600やサーバなどの外部の記憶手段から対応する学習済みモデルを追加で読み出してもよい。また、プログラムの機能拡張として、学習済みモデルを外部から追加できるようにしてもよい。第1の学習済みモデルを追加する場合、第1の学習済みモデルを選択する第2の学習済みモデルも更新する。 Further, if there is no corresponding trained model, the trained model may be added after shooting. For example, the image generation unit 400 may additionally read the corresponding trained model from an external storage means such as the storage unit 600 or the server. Further, as an extension of the function of the program, a trained model may be added from the outside. When adding the first trained model, the second trained model that selects the first trained model is also updated.

また、学習済みモデルをユーザが追加で作成出来るようにしてもよい。画像処理選択部402は、画像に対応する学習済みモデルが推論処理できない場合、特定の被写体に対応する元データと教師画像のペアをユーザが取得し、学習データとして蓄積する。推論できなかった被写体の特定は、ユーザが行ってもよいし、機械学習を用いて似た被写体毎にグルーピングを行ってもよい。蓄積した学習データを使って学習を行い、新たな被写体に対応する学習済みモデルを追加で作成すればよい。作成する学習済みモデルは、第1および第2の学習済みモデルを対象とすればよい。なお、学習データの蓄積は、記憶部600でもよいし、サーバなどの外部の記憶手段であってもよい。また、他の装置や別の施設で取得した学習データと合わせてもよい。ユーザが学習データを作成する代わりに、推論できなかった被写体を蓄積してもよい。蓄積した被写体に似た被写体をサーバ等の外部の記憶手段から探して対応する学習済みモデルを探して、追加してもよい。 In addition, the trained model may be additionally created by the user. When the trained model corresponding to the image cannot be inferred, the image processing selection unit 402 acquires a pair of the original data and the teacher image corresponding to a specific subject and accumulates them as training data. The user may identify the subject that could not be inferred, or grouping may be performed for each similar subject using machine learning. Learning may be performed using the accumulated learning data, and a trained model corresponding to a new subject may be additionally created. The trained model to be created may target the first and second trained models. The learning data may be stored in the storage unit 600 or in an external storage means such as a server. In addition, it may be combined with learning data acquired by another device or another facility. Instead of creating learning data by the user, subjects that could not be inferred may be accumulated. A subject similar to the stored subject may be searched for from an external storage means such as a server, a corresponding trained model may be searched, and added.

<画像の例>
次に、取得する画像の例を図4から図7に示す。2次元正面画像の例を図4に示す。2次元正面画像は、OCTの2次元の投影画像、SLO像、あるいは眼底カメラにより取得することができる。同様に、特定の網膜層から切り出したEn−Face像や、モーションコントラストによるOCTA像も2次元正面画像の例として挙げられる。OCTにより取得することができる2次元断層像の例を図5に示し、3次元ボリュームの例を図6に示す。3次元ボリュームは、OCTの断層像を複数個所取得することで得られ、例えば網膜層に相当する部分を抽出し、表示することで得られる。3次元断層像の例を図7に示す。3次元断層像は、3次元ボリュームを任意の断面で切断し、3次元ボリューム中に2次元断層像を表示することで得られる。
<Example of image>
Next, examples of the images to be acquired are shown in FIGS. 4 to 7. An example of a two-dimensional front image is shown in FIG. The two-dimensional front image can be acquired by an OCT two-dimensional projected image, an SLO image, or a fundus camera. Similarly, an En-Face image cut out from a specific retinal layer and an OCTA image by motion contrast can be mentioned as examples of a two-dimensional front image. An example of a two-dimensional tomographic image that can be acquired by OCT is shown in FIG. 5, and an example of a three-dimensional volume is shown in FIG. The three-dimensional volume is obtained by acquiring a plurality of OCT tomographic images, for example, by extracting and displaying a portion corresponding to the retinal layer. An example of a three-dimensional tomographic image is shown in FIG. A three-dimensional tomographic image can be obtained by cutting a three-dimensional volume at an arbitrary cross section and displaying a two-dimensional tomographic image in the three-dimensional volume.

AO−OCTやAO−SLOを用いて、高分解能に網膜の微細構造を描出する画像の例を図8から図11に示す。視細胞の2次元正面画像の例を図8に、血管の例を図9に、血管壁の例を図10に、軟性白斑や硬性白斑(ドルーゼン)の例を図11に示す。なお、図4から図11に示したのは一例であり、他の被写体にも適用可能である。 8 to 11 show examples of images that depict the fine structure of the retina with high resolution using AO-OCT and AO-SLO. An example of a two-dimensional front image of photoreceptor cells is shown in FIG. 8, an example of a blood vessel is shown in FIG. 9, an example of a blood vessel wall is shown in FIG. 10, and an example of soft vitiligo and hard vitiligo (drusen) is shown in FIG. It should be noted that the examples shown in FIGS. 4 to 11 are examples, and can be applied to other subjects.

学習済みモデル404に学習させるための学習データの例について説明する。前述の特定の被写体毎に学習データを用意する。学習データは、同一部位の低画質の入力画像と高画質の教師画像を1ペアとする複数のペアからなる。2次元正面画像の入力画像と教師画像の模式図をそれぞれ図12(a)と図12(b)に示す。入力画像は、再構成部401で生成される画像と同程度の画質の画像とすればよい。教師画像は、入力画像に対し高画質な画像とすればよい。高画質な画像とは、例えば、高解像度の画像、ランダムなスペックルノイズやアーチファクト等のノイズ、暗線や輝線によるスジムラが低減処理された画像が挙げられる。また、高画質な画像は、被写体の輝度やコントラスト、階調性が適切な画像、境界が明瞭な画像、ゆがみの少ない画像、色や輝度ムラの少ない画像などが挙げられる。教師画像の取得方法は、例えば、入力画像に相当する画像を複数回取得し、重ね合わせにより平均化処理をした画像が挙げられる。また、教師画像は、入力画像と同じ画角に対し、高密度にスキャンした画像を画像処理した画像であってもよい。あるいは、教師画像は、より高画質な別の撮影手段を用いてもよい。別の撮影手段の例としては、AO−OCTやAO−SLOなどの補償光学を用いる装置や、より小さいビーム径や別の波長を用いて縦と横の分解能、深達度を向上した装置が挙げられる。 An example of training data for training the trained model 404 will be described. Learning data is prepared for each specific subject described above. The learning data is composed of a plurality of pairs in which a low-quality input image of the same portion and a high-quality teacher image are one pair. Schematic diagrams of the input image and the teacher image of the two-dimensional front image are shown in FIGS. 12 (a) and 12 (b), respectively. The input image may be an image having the same image quality as the image generated by the reconstruction unit 401. The teacher image may be a high-quality image with respect to the input image. Examples of the high-quality image include a high-resolution image, noise such as random speckle noise and artifacts, and an image in which stigma due to dark lines and bright lines is reduced. Examples of high-quality images include images having appropriate brightness, contrast, and gradation of the subject, images with clear boundaries, images with less distortion, and images with less color and brightness unevenness. Examples of the method of acquiring the teacher image include an image in which an image corresponding to the input image is acquired a plurality of times and averaged by superimposition. Further, the teacher image may be an image processed by image processing of an image scanned at a high density with the same angle of view as the input image. Alternatively, the teacher image may use another photographing means having a higher image quality. Examples of other imaging means include devices that use adaptive optics such as AO-OCT and AO-SLO, and devices that use smaller beam diameters and different wavelengths to improve vertical and horizontal resolution and depth of penetration. Can be mentioned.

また、撮影条件の悪い低画質を入力画像とし、適切な条件で撮影できた時の画像を教師画像とし、入力画像と教師画像のペアの学習データでもよい。実際に撮影される画像は、何らかの制約により適切な条件の撮影よりも画質が劣る画像しか得られない場合がある。制約の例としては、被検眼の状態や撮影時の調整が不十分な場合が挙げられる。被検眼の状態の例としては、白内障などの疾病がある場合や、眼底に出血がある場合、眼底の形状に異常がある場合、固視が安定せず平均化処理が十分にできない場合などがある。撮影時の調整の例としては、何らかの原因で撮影時の信号強度が弱い場合や、ノイズの強度が大きい場合、SN比が低い場合、コントラストが不適切な場合がある。あるいは、フォーカス位置、OCTのコヒーレンスゲート位置が最適でない場合がある。光学系100の構成によっては、光源の光量や光学フィルタ、センサゲインの設定値、干渉計の偏光状態の調整が最適でない場合なども挙げられる。これらの学習データは、対応する制約を課して取得した入力画像と適正に撮影した教師画像のペアを用意すればよい。あるいは、適正に取得できた画像に画質を劣化させる処理をして疑似的に入力画像を生成してもよい。 Further, a low image quality with poor shooting conditions may be used as an input image, an image taken under appropriate conditions may be used as a teacher image, and learning data of a pair of the input image and the teacher image may be used. As for the image actually taken, there are cases where only an image whose image quality is inferior to that taken under appropriate conditions can be obtained due to some restrictions. Examples of restrictions include cases where the condition of the eye to be inspected and adjustment at the time of imaging are insufficient. Examples of eye conditions to be inspected include cataracts and other illnesses, bleeding in the fundus, abnormal shape of the fundus, unstable fixation and inadequate averaging. is there. As an example of adjustment at the time of shooting, there are cases where the signal strength at the time of shooting is weak for some reason, the noise strength is high, the SN ratio is low, and the contrast is inappropriate. Alternatively, the focus position and the OCT coherence gate position may not be optimal. Depending on the configuration of the optical system 100, the amount of light of the light source, the optical filter, the set value of the sensor gain, and the adjustment of the polarization state of the interferometer may not be optimal. For these learning data, a pair of the input image acquired by imposing the corresponding constraint and the teacher image taken appropriately may be prepared. Alternatively, a pseudo input image may be generated by performing a process of degrading the image quality on the properly acquired image.

撮影時の調整の例として、補償光学を用いた光学系100の場合について説明する。補償光学を用いて高解像度の画像を取得する場合、高分解能になる代わりに被写界深度が浅くなる。従って、フォーカスの位置ずれに対して、画質が敏感になってしまう。予めフォーカス位置ずれに対応した学習済みモデル404を用意することで、フォーカス位置ずれがある画像でも高画質(適正なフォーカスの画像)化ができる。 As an example of adjustment at the time of shooting, the case of the optical system 100 using adaptive optics will be described. When a high-resolution image is acquired using adaptive optics, the depth of field becomes shallow at the cost of high resolution. Therefore, the image quality becomes sensitive to the shift of the focus position. By preparing the trained model 404 corresponding to the focus position shift in advance, it is possible to improve the image quality (appropriate focus image) even for an image having the focus position shift.

<眼科撮影装置200の具体的な構成>
次に、眼科撮影装置200の具体的な構成の一例を説明する。
<Specific configuration of the ophthalmologic imaging device 200>
Next, an example of a specific configuration of the ophthalmologic imaging apparatus 200 will be described.

<光学系100の構成>
図13は、光学系100の構成例を示す図である。光学系100の主要な構成要素は、光源101、AO部140、参照光学系150、受光光学系160、前眼部観察部170、固視灯光学系180、およびSLO部190である。
<Structure of optical system 100>
FIG. 13 is a diagram showing a configuration example of the optical system 100. The main components of the optical system 100 are a light source 101, an AO unit 140, a reference optical system 150, a light receiving optical system 160, an anterior segment observation unit 170, a fixation lamp optical system 180, and an SLO unit 190.

光源101は、低コヒーレンス光源であり、例えば、中心波長840nm、波長幅100nmのSuper Luminescent Diode(以下、SLDという)が用いられる。光源101は、SLD光源を用いたが、その他にチタンサファイアレーザー等を用いてもよい。 The light source 101 is a low coherence light source, and for example, a Super Luminate Diode (hereinafter referred to as SLD) having a center wavelength of 840 nm and a wavelength width of 100 nm is used. The light source 101 uses an SLD light source, but a titanium sapphire laser or the like may also be used.

光源101から出射された光は、シングルモードファイバ(以下、SMファイバという)102−1を介して、ファイバカプラ103に導かれ、測定光と参照光に分岐される。ファイバカプラ103の分岐比は、90(参照光):10(測定光)である。 The light emitted from the light source 101 is guided to the fiber coupler 103 via a single mode fiber (hereinafter referred to as SM fiber) 102-1 and branched into measurement light and reference light. The branching ratio of the fiber coupler 103 is 90 (reference light): 10 (measurement light).

分岐された測定光は、SMファイバ102−4を介してAO部140に導かれ、コリメータ105−1によって平行光とされ、ビーム径可変部141に入射する。 The branched measurement light is guided to the AO section 140 via the SM fiber 102-4, is converted into parallel light by the collimator 105-1, and is incident on the beam diameter variable section 141.

ビーム径可変部141は、測定光のビーム径を変更し、被検眼118の眼底Erを照射するNAを変えるユニットである。ビーム径可変部141は、複数のレンズが調整可能な位置に挿脱可能に構成されている。ビーム径可変部141は、制御部300と通信可能に構成されており、制御部300からの指示により、ビーム径を変更することが可能である。このことにより、通常のOCTと同様の分解能で撮影するOCTモードと、高い分解能で撮影するAO−OCTモードを切り替えることが可能となる。OCTモードでは、ビーム径を狭く、低いNAで撮影を行い、AO−OCTモードでは、ビーム径を広く、高いNAで撮影を行う。OCTモードでは、被検眼118の瞳上で2mm以下となるようにビーム径を設定し、AO−OCTモードでは、6mm以上のビーム径となるようにビーム径可変部141を動作させるのが望ましい。ただし、被検眼118の瞳孔が6mm以上に開かなかったり、白内障の疾患などにより被検眼118の入射瞳が狭かったりする場合のため、2mmから6mmの間のビーム径でAO−OCTを撮影できるような撮影モードを有していてもよい。 The beam diameter variable unit 141 is a unit that changes the beam diameter of the measurement light and changes the NA that irradiates the fundus Er of the eye 118 to be inspected. The beam diameter variable portion 141 is configured so that a plurality of lenses can be inserted and removed at adjustable positions. The beam diameter variable unit 141 is configured to be able to communicate with the control unit 300, and the beam diameter can be changed by an instruction from the control unit 300. This makes it possible to switch between an OCT mode in which an image is taken with the same resolution as a normal OCT and an AO-OCT mode in which an image is taken with a high resolution. In the OCT mode, the beam diameter is narrow and the image is taken with a low NA, and in the AO-OCT mode, the beam diameter is wide and the image is taken with a high NA. In the OCT mode, it is desirable to set the beam diameter so that it is 2 mm or less on the pupil of the eye to be inspected 118, and in the AO-OCT mode, it is desirable to operate the beam diameter variable portion 141 so that the beam diameter is 6 mm or more. However, if the pupil of the eye 118 to be examined does not open more than 6 mm or the entrance pupil of the eye 118 to be examined is narrow due to a cataract disease or the like, AO-OCT can be imaged with a beam diameter between 2 mm and 6 mm. It may have various shooting modes.

次に、測定光は、光分割部107を透過し、リレー光学素子130−1〜130−6で波面補正デバイス104、スキャン光学系108、被検眼118に導光される。リレー光学素子130−1〜130−6は、レンズで構成されている。リレー光学素子130−1〜130−6は、波面補正デバイス104、スキャン光学系108および被検眼118の入射瞳が略位相共役となるように調整されている。 Next, the measurement light passes through the optical dividing unit 107 and is guided by the relay optical elements 130-1 to 130-6 to the wave surface correction device 104, the scanning optical system 108, and the eye to be inspected 118. The relay optical elements 130-1 to 130-6 are composed of a lens. The relay optical elements 130-1 to 130-6 are adjusted so that the entrance pupils of the wavefront correction device 104, the scan optical system 108, and the eye to be inspected 118 are substantially phase-conjugated.

スキャン光学系108は、xとyの2次元のスキャンができるものとし、単一のミラーで2次元スキャンするものであっても、複数のスキャナから構成されるものであってもよい。例えば、スキャン光学系108は、y(鉛直)方向とx(水平)方向のいずれもガルバノスキャナからなる。また、スキャン光学系108は、制御部300の指示に基づき、撮影位置を変更(ステアリング)することも可能である。 The scanning optical system 108 is capable of performing two-dimensional scanning of x and y, and may perform two-dimensional scanning with a single mirror or may be composed of a plurality of scanners. For example, the scanning optical system 108 includes a galvano scanner in both the y (vertical) direction and the x (horizontal) direction. Further, the scanning optical system 108 can change (steering) the shooting position based on the instruction of the control unit 300.

リレー光学素子130−5および130−6は、測定光の眼底Erへのフォーカスを調整する機能を持つ。リレー光学素子130−6は、ステージ109上に固定されており、光軸方向に動くことで、フォーカス調整をすることが出来る。なお、リレー光学素子130−6は、レンズを動かしてフォーカスを調整しているが、レンズを固定し、光路長を調整する機構を有するBadal Optometerを使用してもよい。 The relay optical elements 130-5 and 130-6 have a function of adjusting the focus of the measurement light on the fundus Er. The relay optical element 130-6 is fixed on the stage 109 and can adjust the focus by moving in the optical axis direction. Although the relay optical element 130-6 adjusts the focus by moving the lens, a Badal Optimeter having a mechanism for fixing the lens and adjusting the optical path length may be used.

なお、リレー光学素子130−1〜130−6は、レンズ表面の反射光が迷光となることを防ぐため、ミラー等を使用する構成でもよい。 The relay optical elements 130-1 to 130-6 may be configured to use a mirror or the like in order to prevent the reflected light on the lens surface from becoming stray light.

スキャン光学系108とステージ109は、制御部300によって制御され、被検眼118の眼底Erの所望の範囲で測定光をスキャンすることが出来る。測定光は、ステージ109上に乗ったフォーカスレンズにより、被検眼118に入射し、眼底Erにフォーカスされる。 The scanning optical system 108 and the stage 109 are controlled by the control unit 300, and the measurement light can be scanned in a desired range of the fundus Er of the eye to be inspected 118. The measurement light is incident on the eye to be inspected 118 by the focus lens mounted on the stage 109 and is focused on the fundus Er.

眼底Erを照射した測定光は、反射・散乱し、リレー光学素子130−1〜130−6を逆順にたどり、光分割部107に戻る。測定光は、光分割部107により分割され、リレー光学素子130−7、130−8およびアパーチャ132を介し、波面センサ106に導光される。リレー光学素子130−7と130−8は、波面補正デバイス104、スキャン光学系108および被検眼118の入射瞳と略位相共役となるように調整されている。アパーチャ132は、迷光が波面センサ106に入るのを防ぐために挿入されている。また、光分割部107の分岐比は、被検眼118への入射光量、AO部140の光の利用効率(スループット)、波面センサ106の感度、受光光学系160のスループットで決まり、例えば、90(透過):10(反射)である。 The measurement light that irradiates the fundus Er is reflected and scattered, follows the relay optical elements 130-1 to 130-6 in the reverse order, and returns to the light dividing unit 107. The measurement light is divided by the optical dividing unit 107 and guided to the wavefront sensor 106 via the relay optical elements 130-7, 130-8 and the aperture 132. The relay optical elements 130-7 and 130-8 are adjusted so as to be substantially phase-conjugated to the entrance pupil of the wave surface correction device 104, the scanning optical system 108, and the eye to be inspected 118. The aperture 132 is inserted to prevent stray light from entering the wavefront sensor 106. The branching ratio of the optical dividing unit 107 is determined by the amount of light incident on the eye to be inspected 118, the light utilization efficiency (throughput) of the AO unit 140, the sensitivity of the wavefront sensor 106, and the throughput of the light receiving optical system 160. Transmission): 10 (reflection).

光分割部107を透過した測定光の戻り光は、ビーム径可変部141、コリメータ105−1、SMファイバ102−4を介し、ファイバカプラ103に入射する。 The return light of the measurement light transmitted through the optical dividing unit 107 enters the fiber coupler 103 via the beam diameter variable unit 141, the collimator 105-1, and the SM fiber 102-4.

一方、ファイバカプラ103で分岐された参照光は、SMファイバ102−3を介して出射され、コリメータ151によって平行光とされる。参照光は、分散補償ガラス152を介し、ミラー153で反射される。ミラー153は、ステージ154上に配置されており、被検者の眼軸長の相違等に対応して光軸方向に駆動し、コヒーレントゲートを調整するように制御部300で制御される。例えば、ミラー153は、参照光の光路長を変更しているが、測定光の光路と参照光の光路との光路長差を変更出来ればよい。 On the other hand, the reference light branched by the fiber coupler 103 is emitted via the SM fiber 102-3, and is converted into parallel light by the collimator 151. The reference light is reflected by the mirror 153 via the dispersion compensating glass 152. The mirror 153 is arranged on the stage 154, is driven in the optical axis direction in response to a difference in the axial length of the subject, and is controlled by the control unit 300 so as to adjust the coherent gate. For example, the mirror 153 changes the optical path length of the reference light, but it is sufficient if the optical path length difference between the optical path of the measurement light and the optical path of the reference light can be changed.

ミラー153で反射された参照光は、光路を逆順にたどり、分散補償ガラス152、コリメータ151、SMファイバ102−3を介し、ファイバカプラ103に入射する。ファイバカプラ103では、測定光の戻り光と参照光が合波されて干渉光となり、受光光学系160に入射する。 The reference light reflected by the mirror 153 follows the optical path in the reverse order, and enters the fiber coupler 103 via the dispersion compensation glass 152, the collimator 151, and the SM fiber 102-3. In the fiber coupler 103, the return light of the measurement light and the reference light are combined to form interference light, which is incident on the light receiving optical system 160.

受光光学系160に入射した干渉光は、コリメータ161、グレーティング162、結像レンズ163を介し、ディテクタ164に入射する。干渉光は、グレーティング162によりスペクトルに分解され、ディテクタ164上で干渉光のスペクトル成分ごとに受光され、信号SOCTに変換されて画像生成部400に入力される。 The interference light incident on the light receiving optical system 160 enters the detector 164 via the collimator 161, the grating 162, and the imaging lens 163. The interference light is decomposed into a spectrum by the grating 162, received on the detector 164 for each spectrum component of the interference light , converted into a signal S OCT , and input to the image generation unit 400.

<AO動作>
AO−OCTモードにおけるAOの動作を以下に説明する。本実施形態では、波面センサ106として、シャックハルトマンセンサを用いる。シャックハルトマンセンサは、マイクロレンズアレイにより測定光を分割し、それぞれの分割された測定光を2次元センサ上に集光する。2次元センサの信号を画像化すると、集光点が並んだ画像となり、これをハルトマン像と呼ぶ。波面センサ106は、制御部300に接続されており、制御部300でハルトマン像を読み込み、収差による集光点の移動量から測定光の収差を求める。
<AO operation>
The operation of AO in the AO-OCT mode will be described below. In this embodiment, a Shack-Hartmann sensor is used as the wavefront sensor 106. The Shack-Hartmann sensor divides the measurement light by a microlens array and collects each divided measurement light on the two-dimensional sensor. When the signal of the two-dimensional sensor is imaged, it becomes an image in which the focusing points are lined up, and this is called a Hartmann image. The wavefront sensor 106 is connected to the control unit 300, and the control unit 300 reads the Hartmann image and obtains the aberration of the measured light from the amount of movement of the focusing point due to the aberration.

制御部300は、測定光の収差に基づき波面補正デバイス104への入力信号を計算し、測定光の収差が低減されるように波面補正デバイス104を駆動する。波面センサ106によるハルトマン像の取得と、制御部300での収差の計算、および波面補正デバイス104の駆動の一連の動作は繰り返し行われ、測定光の収差が低減されるように常に動き続ける。また、波面補正デバイス104への入力信号は、例えば眼底Erへのフォーカスを変更するための凹面形状(デフォーカス)など、測定光の光波面を所望の形状に変形させるための信号を重畳させたものであってもよい。 The control unit 300 calculates an input signal to the wave surface correction device 104 based on the aberration of the measurement light, and drives the wave surface correction device 104 so that the aberration of the measurement light is reduced. A series of operations of acquiring the Hartmann image by the wavefront sensor 106, calculating the aberration by the control unit 300, and driving the wavefront correction device 104 are repeatedly performed, and the movement is constantly continued so as to reduce the aberration of the measurement light. Further, the input signal to the wavefront correction device 104 is superposed with a signal for deforming the light wavefront of the measurement light into a desired shape, such as a concave shape (defocus) for changing the focus on the fundus Er. It may be a thing.

<前眼部観察>
被検眼118は、前眼部照明光源171で照射され、前眼部観察部170で撮影される。本実施形態では、前眼部照明光源171として、中心波長740nmのLEDを用いる。前眼部照明光源171の光は、ダイクロイックミラー120−1、120−2でそれぞれ反射され、前眼部観察部170に入射する。前眼部観察部170は、結像レンズ172と2次元撮像デバイス173で構成され、被検眼118の前眼部が写るように調整されている。2次元撮像デバイス173からの信号は、制御部300を介して表示制御部500に入力され、表示デバイスに表示される。被検眼118の光軸に沿う方向の位置合わせを容易にするため、前眼部観察部170にスプリットプリズムを導入してもよい。
<Observation of the anterior segment>
The eye to be inspected 118 is irradiated by the anterior segment illumination light source 171 and photographed by the anterior segment observation unit 170. In this embodiment, an LED having a center wavelength of 740 nm is used as the anterior segment illumination light source 171. The light of the anterior segment illumination light source 171 is reflected by the dichroic mirrors 120-1 and 120-2, respectively, and is incident on the anterior segment observation unit 170. The anterior segment observation unit 170 is composed of an imaging lens 172 and a two-dimensional imaging device 173, and is adjusted so that the anterior segment of the eye to be inspected 118 is captured. The signal from the two-dimensional imaging device 173 is input to the display control unit 500 via the control unit 300 and displayed on the display device. A split prism may be introduced into the anterior segment observation unit 170 in order to facilitate the alignment of the eye to be inspected 118 in the direction along the optical axis.

ユーザは、OCT撮影を開始する前に前眼部照明光源171を点灯し、被検眼118の位置合わせを行う。また、ユーザは、必要に応じて撮影を中断し、前眼部照明光源171を点灯し、被検眼118の位置を確認してもよい。ユーザは、位置合わせが完了したら、前眼部照明光源171を消灯し、前眼部観察部170での撮影を完了する。 The user turns on the anterior segment illumination light source 171 and aligns the eye to be inspected 118 before starting the OCT imaging. Further, the user may interrupt the photographing as necessary, turn on the anterior eye portion illumination light source 171, and confirm the position of the eye to be inspected 118. When the alignment is completed, the user turns off the anterior segment illumination light source 171 and completes the shooting with the anterior segment observation unit 170.

<固視灯光学系>
固視灯光学系180は、光学素子181と発光型有機ELのディスプレイモジュール182を有する。ディスプレイモジュール182としては、他に液晶、LEDアレイ等を用いることができる。
<Focus light optical system>
The fixation lamp optical system 180 includes an optical element 181 and a light emitting organic EL display module 182. As the display module 182, a liquid crystal, an LED array, or the like can be used.

制御部300からの指示によりディスプレイモジュール182に点灯表示されたパターンは、光学素子181、ダイクロイックミラー120−3、120−2、120−1を介し、適切な倍率で眼底Erに投影される。パターンの点灯位置を変更することで、被検眼118の固視を誘導し、眼底Erの所望の位置が写るように調整することができる。パターンとして、クロス、円形、四角等を用いることができ、被検眼118が最も容易に知覚できるパターンを用いることが望ましい。また、パターンの大きさを変更したり、色フィルタを挿入したりして、被検眼118の知覚が容易となるように調整してもよい。 The pattern lit and displayed on the display module 182 by the instruction from the control unit 300 is projected onto the fundus Er at an appropriate magnification via the optical element 181 and the dichroic mirrors 120-3, 120-2, 120-1. By changing the lighting position of the pattern, it is possible to induce the fixation of the eye 118 to be inspected and adjust so that the desired position of the fundus Er is captured. As the pattern, a cloth, a circle, a square, or the like can be used, and it is desirable to use a pattern that is most easily perceived by the eye 118 to be examined. Further, the size of the pattern may be changed or a color filter may be inserted to make adjustments so that the eye 118 to be inspected can be easily perceived.

光学素子181は、制御部300からの指示により眼底Erへのフォーカスを調整することが可能である。光学素子181をステージ183上に載せ、AO部のステージ109と連動して動かす。 The optical element 181 can adjust the focus on the fundus Er according to the instruction from the control unit 300. The optical element 181 is placed on the stage 183 and moved in conjunction with the stage 109 of the AO unit.

<SLO部>
SLO部190は、眼底Erの広い範囲(画角40度×40度程度)を撮影する。SLOユニット191は、光源、2次元のスキャナ、ディテクタ等から構成され、1秒間に15枚程度のSLO画像を取得する。SLOユニット191で取得されたSLO信号SSLOは、画像生成部400でSLO画像MSLOに変換された後、表示制御部500に入力され、表示デバイス(不図示)上に表示される。取得されたSLO画像は、疾患部位等の撮影位置の確認や、不図示のキーボードやマウス等の入力デバイスによる撮影位置の指定に用いることができる。
<SLO section>
The SLO unit 190 captures a wide range of fundus Er (angle of view 40 degrees × 40 degrees). The SLO unit 191 is composed of a light source, a two-dimensional scanner, a detector, and the like, and acquires about 15 SLO images per second. The SLO signal S SLO acquired by the SLO unit 191 is converted into an SLO image M SLO by the image generation unit 400, input to the display control unit 500, and displayed on a display device (not shown). The acquired SLO image can be used for confirming the imaging position of the diseased part or the like and designating the imaging position by an input device such as a keyboard or mouse (not shown).

<トラッキング>
光学系100は、被検眼118の固視微動等による撮影位置のずれを検出し、リアルタイムに撮影位置を調整するトラッキングを行う。以下に、その手順を説明する。
<Tracking>
The optical system 100 detects the deviation of the imaging position due to the fixed vision fine movement of the eye 118 to be inspected, and performs tracking for adjusting the imaging position in real time. The procedure will be described below.

画像生成部400は、SLOユニット191で取得した眼底ErのSLO画像の1枚をリファレンス画像として選択し、記憶部600に記憶する。リファレンス画像は、信号対雑音比(以下、S/N比)が高く、画像の歪みが少ないものが望ましく、複数のSLO画像の平均化画像を用いてもよい。 The image generation unit 400 selects one of the SLO images of the fundus Er acquired by the SLO unit 191 as a reference image and stores it in the storage unit 600. The reference image preferably has a high signal-to-noise ratio (hereinafter, S / N ratio) and less distortion of the image, and an averaged image of a plurality of SLO images may be used.

SLOユニット191で撮影を開始すると、取得されたSLO画像は制御部300に送られ、リファレンス画像との相関値の計算結果に基づいて位置ずれの量が求められる。相関値の計算は、リファレンス画像とSLO画像の相対的な画素をずらしながら相関値を計算してもよいし、フーリエ変換を利用したPhase Only Correlation(POC)法を用いてもよい。また、相関値の計算は、高速で計算するため、FPGAユニットを用いたり、GPUユニットを用いたりしてもよい。 When the SLO unit 191 starts shooting, the acquired SLO image is sent to the control unit 300, and the amount of misalignment is obtained based on the calculation result of the correlation value with the reference image. The correlation value may be calculated by shifting the relative pixels of the reference image and the SLO image, or the Phase Only Correlation (POC) method using the Fourier transform may be used. Further, since the correlation value is calculated at high speed, an FPGA unit or a GPU unit may be used.

計算から求められた位置ずれの量に基づき、制御部300がスキャン光学系108に指示を送り、x方向のガルバノスキャナおよびy方向のガルバノスキャナが駆動され、眼底Erの撮影位置が調整される。眼底Erの広い領域が写るSLO画像に基づくトラッキングであるため、撮影位置が大きくずれた場合でも、制御部300は、位置ずれの量を求めることができ、フレームアウトせず安定して同じ位置を撮影することが可能である。 Based on the amount of misalignment obtained from the calculation, the control unit 300 sends an instruction to the scanning optical system 108, drives the galvano scanner in the x direction and the galvano scanner in the y direction, and adjusts the imaging position of the fundus Er. Since the tracking is based on the SLO image in which a wide area of the fundus Er is captured, the control unit 300 can obtain the amount of the displacement even if the shooting position is significantly deviated, and the same position can be stably obtained without frame out. It is possible to shoot.

<制御部300>
次に、制御部300について説明する。前述したように、制御部300は、CPUにより実行されるソフトウェアモジュールであり、光学系100の各部を制御すると共に、眼科撮影装置200の全体の動作を制御する。また、制御部300は、眼科撮影装置200を操作するユーザの入力も受け付ける。具体的には、制御部300は、被検眼118を特定する患者ID等の情報、撮影に必要なパラメータ、眼底Erをスキャンするパターンの選択等を不図示のキーボードやマウス等のデバイスから入力する。制御部300は、これに基づいて、各部を制御すると共に、得られた信号、画像等のデータを記憶部600に保存する機能を有する。
<Control unit 300>
Next, the control unit 300 will be described. As described above, the control unit 300 is a software module executed by the CPU, controls each part of the optical system 100, and controls the overall operation of the ophthalmologic imaging apparatus 200. The control unit 300 also accepts input from a user who operates the ophthalmologic imaging apparatus 200. Specifically, the control unit 300 inputs information such as a patient ID that identifies the eye to be inspected 118, parameters necessary for imaging, selection of a pattern for scanning the fundus Er, and the like from a device such as a keyboard or mouse (not shown). .. Based on this, the control unit 300 has a function of controlling each unit and storing the obtained data such as signals and images in the storage unit 600.

<画像生成部400>
画像生成部400は、前述したように、光学系100から出力された信号に対して様々な処理を行う事で、被検眼118に関する画像を生成・出力する。
<Image generation unit 400>
As described above, the image generation unit 400 generates and outputs an image related to the eye to be inspected 118 by performing various processes on the signal output from the optical system 100.

再構成部401におけるOCT画像の生成方法を図14に示す。ステップS301では、再構成部401は、波長に対する信号SOCTを波数にマッピングし直す。ステップS302では、再構成部401は、直流成分を除去する。ステップS303では、再構成部401は、フーリエ変換をすることで、OCT画像TOCTを取得する。また、再構成部401は、複数のOCT画像の位置合わせや平均化、および複数の異なる眼底位置で撮影された画像を合成し、3次元のOCT画像VOCTを生成する処理等を行う。SLO画像の生成では、再構成部401は、信号SSLOをスキャナの信号に同期させて2次元のデータに変換し、SLO画像MSLOに変換する処理等を行う。 FIG. 14 shows a method of generating an OCT image in the reconstruction unit 401. In step S301, the reconstruction unit 401 remaps the signal S OCT for the wavelength to the wave number. In step S302, the reconstruction unit 401 removes the DC component. In step S303, the reconstruction unit 401 acquires the OCT image TOCT by performing a Fourier transform. In addition, the reconstruction unit 401 performs processing such as positioning and averaging of a plurality of OCT images, synthesizing images taken at a plurality of different fundus positions, and generating a three-dimensional OCT image V OCT. In the generation of the SLO image, the reconstruction unit 401 performs processing such as synchronizing the signal S SLO with the signal of the scanner, converting it into two-dimensional data, and converting it into the SLO image M SLO.

<表示制御部500>
次に、表示制御部500について説明する。前述したように、表示制御部500は、液晶ディスプレイ等の表示デバイスを含み、画像生成部400から入力した画像を表示する。図15は、表示制御部500によって表示される画面の例を示したものである。なお、同図において示される画面とは別に、制御部300によって入力される患者ID等の被検眼118の特定情報の入力画面が必要である。
<Display control unit 500>
Next, the display control unit 500 will be described. As described above, the display control unit 500 includes a display device such as a liquid crystal display, and displays an image input from the image generation unit 400. FIG. 15 shows an example of a screen displayed by the display control unit 500. In addition to the screen shown in the figure, an input screen for specific information of the eye to be inspected 118 such as a patient ID input by the control unit 300 is required.

図15において、表示デバイス501には、画像表示領域502と被検眼情報の表示領域503で構成される画面が表示される。被検眼情報の表示領域503には、患者ID、氏名、年齢等の情報が表示される。画像表示領域502には、画像表示領域504、505、506、507、508と、ユーザが操作可能なユーザインタフェースであるボタン520、521、522が配置されている。さらに、画像表示領域502には、スライダ512−1、512−2、531,532と、プルダウンメニュー513と、切替えスイッチ540、541が配置されている。各表示領域に表示される画像とユーザインタフェースの機能は、後述する撮影動作のフローにおいて説明する。 In FIG. 15, the display device 501 displays a screen composed of an image display area 502 and an eye examination information display area 503. Information such as a patient ID, a name, and an age is displayed in the display area 503 of the eye examination information. In the image display area 502, image display areas 504, 505, 506, 507, 508 and buttons 520, 521, and 522, which are user interfaces that can be operated by the user, are arranged. Further, sliders 512-1, 512-2, 531 and 532, pull-down menus 513, and changeover switches 540 and 541 are arranged in the image display area 502. The images displayed in each display area and the functions of the user interface will be described in the flow of shooting operation described later.

[撮像動作]
次に、眼科撮影装置200の動作を図16に示すフローチャートを参照しながら説明する。
[Imaging operation]
Next, the operation of the ophthalmologic imaging apparatus 200 will be described with reference to the flowchart shown in FIG.

<ステップS101>(前眼アライメント動作開始)
初めに、ステップS101では、ユーザは、前眼部観察部170により被検眼118の位置合わせを行う。
<Step S101> (Start of front eye alignment operation)
First, in step S101, the user aligns the eye to be inspected 118 by the anterior eye observation unit 170.

<ステップS102>(SLO、OCT動作開始)
次に、ステップS102では、制御部300は、SLOおよびOCTの動作を開始する。制御部300は、SLOユニット191の光源、スキャナユニット等の動作を開始し、被検眼118の眼底Erに光を2次元照射する。SLO画像のプレビューが画像表示領域504に表示され、ユーザは、眼底Erの撮影位置や画質を確認できる。
<Step S102> (SLO, OCT operation start)
Next, in step S102, the control unit 300 starts the operation of SLO and OCT. The control unit 300 starts the operation of the light source of the SLO unit 191, the scanner unit, and the like, and irradiates the fundus Er of the eye to be inspected 118 with light in two dimensions. A preview of the SLO image is displayed in the image display area 504, and the user can confirm the shooting position and image quality of the fundus Er.

また、制御部300は、光源101、スキャン光学系108の動作を開始する。また、波面補正デバイス104は、反射面がフラットになるよう初期化を行う。OCT画像のプレビューが画像表示領域505に表示される。プレスキャンおよびプレビュー表示は、OCTのフォーカスやコヒーレントゲート調整が適切かどうかを判断できる画像であればよい。例えば、SLOやOCTの撮影範囲の中心の水平断面(破線511−2)のOCT像でよい。 Further, the control unit 300 starts the operation of the light source 101 and the scanning optical system 108. Further, the wavefront correction device 104 initializes so that the reflecting surface becomes flat. A preview of the OCT image is displayed in the image display area 505. The pre-scan and preview display may be images that can determine whether OCT focus and coherent gate adjustment are appropriate. For example, an OCT image of a horizontal cross section (broken line 511-2) at the center of the imaging range of SLO or OCT may be used.

<ステップS103>(フォーカス調整)
次に、ステップS103では、制御部300は、SLOとOCTのフォーカスおよびコヒーレントゲートの調整を行う。フォーカス調整は、自動または手動で行うことができ、ユーザはどちらかを選択することができる。フォーカスの調整においては、OCTのフォーカスはSLOのフォーカスと連動しており、制御部300は、フォーカス調整に合わせて、ステージ109を駆動する。自動でフォーカス調整を行う場合、オートフォーカスは、制御部300が画像生成部400の信号値を基に信号強度やコントラストが最大化するようにフォーカスを制御する。フォーカスを移動しながら信号値を評価することで、最大化が行われる。手動でフォーカス調整を行う場合、画像表示領域504に示されるSLO画像のプレビュー画像および、画像表示領域505に示されるOCT画像のプレビュー画像を見ながら、ユーザがスライダ531を操作する。スライダ531の操作により、制御部300がフォーカスを駆動する。フォーカス調整と並行して、ユーザは、眼底Erの網膜の断層が画像内に収まるようにコヒーレントゲートを調整する。
<Step S103> (Focus adjustment)
Next, in step S103, the control unit 300 adjusts the focus and coherent gate of SLO and OCT. Focus adjustment can be done automatically or manually, and the user can choose either. In the focus adjustment, the OCT focus is linked to the SLO focus, and the control unit 300 drives the stage 109 in accordance with the focus adjustment. When the focus is automatically adjusted, the autofocus controls the focus so that the control unit 300 maximizes the signal strength and the contrast based on the signal value of the image generation unit 400. Maximization is performed by evaluating the signal value while moving the focus. When manually adjusting the focus, the user operates the slider 531 while viewing the preview image of the SLO image shown in the image display area 504 and the preview image of the OCT image shown in the image display area 505. The control unit 300 drives the focus by operating the slider 531. In parallel with the focus adjustment, the user adjusts the coherent gate so that the retinal tomography of the fundus Er is within the image.

<ステップS104>(SLO、固視灯調整)
次に、ステップS104では、制御部300は、眼底Erの所望の撮影位置が取得されるよう、SLOユニット191、固視灯光学系180を調整する。固視灯光学系180の点灯位置は固定し、制御部300は、SLOユニット191のステアリングにより所望の撮影位置を撮影する。
<Step S104> (SLO, fixation lamp adjustment)
Next, in step S104, the control unit 300 adjusts the SLO unit 191 and the fixation lamp optical system 180 so that a desired imaging position of the fundus Er is acquired. The lighting position of the fixed-view lamp optical system 180 is fixed, and the control unit 300 shoots a desired shooting position by steering the SLO unit 191.

<ステップS105>(XYファインアライメント)
次に、ステップS105では、制御部300は、OCT撮影領域のXYファインアライメントを実施する。画像表示領域504には、OCT撮影位置を示すマーク510が重畳して表示されており、ユーザは、マウス等の入力デバイスによりマーク510を移動させることで撮影位置を指定する。制御部300は、マーク510の位置に基づいて、スキャン光学系108を駆動し、マーク510で指定される撮影範囲内でプレスキャンを行う。制御部300は、画像表示領域505にプレスキャンで得た画像をプレビュー表示する。また、画像表示領域504の画像に重畳される破線511−1、511−2は、3次元OCT画像のx、y方向に沿うように描画され、スライダ512−1、512−2によりそれぞれの位置が調整可能である。スライダ512−1、512−2で指示される値が更新されると、破線511−1、511−2に対応する位置での断層像が表示領域506(水平方向H)、507(鉛直方向V)に自動で描画される。ユーザは、OCTの撮像位置が含まれるようにスライダ512−1、512−2を調整する。ユーザの入力に応じて、制御部300は、スキャン光学系108を操作して、XYファインアライメントを行う。
<Step S105> (XY Fine Alignment)
Next, in step S105, the control unit 300 performs XY fine alignment of the OCT imaging region. The mark 510 indicating the OCT imaging position is superimposed and displayed on the image display area 504, and the user specifies the imaging position by moving the mark 510 with an input device such as a mouse. The control unit 300 drives the scan optical system 108 based on the position of the mark 510 and performs a pre-scan within the shooting range specified by the mark 510. The control unit 300 preview-displays the image obtained by the prescan in the image display area 505. Further, the broken lines 511-1 and 511-2 superimposed on the image of the image display area 504 are drawn along the x and y directions of the three-dimensional OCT image, and their respective positions are drawn by the sliders 512-1 and 512-2. Is adjustable. When the values indicated by the sliders 512-1 and 512-2 are updated, the tomographic images at the positions corresponding to the broken lines 511-1 and 511-2 are displayed in the display areas 506 (horizontal direction H) and 507 (vertical direction V). ) Is automatically drawn. The user adjusts the sliders 512-1, 512-2 to include the imaging position of the OCT. In response to the user's input, the control unit 300 operates the scan optical system 108 to perform XY fine alignment.

<ステップS106>(参照光路長調整)
次に、ステップS106では、制御部300は、OCTの参照光路長の微調整を行う。ユーザがモニター上に表示された参照光路長調整スライダ532を動かすことに応じて、制御部300は、参照光の光路長を調整する。ここでは、ユーザは、眼底断層画像中の網膜層の表示位置が断層画像表示領域内の所望の位置に合うように調整する。
<Step S106> (Reference optical path length adjustment)
Next, in step S106, the control unit 300 fine-tunes the reference optical path length of the OCT. The control unit 300 adjusts the optical path length of the reference light in response to the user moving the reference optical path length adjustment slider 532 displayed on the monitor. Here, the user adjusts the display position of the retinal layer in the fundus tomographic image so as to match a desired position in the tomographic image display area.

<ステップS107>(リファレンスSLO画像取得)
次に、ステップS107では、制御部300は、トラッキングのリファレンス画像を取得する。制御部300は、フォーカス調整完了後に取得されるSLO画像をリファレンスSLO画像とし、SLO画像の自乗平均平方根(root mean square、以下、rmsという)値とともに記憶部600に記憶する。制御部300は、予め設定された時間にユーザからの入力が無いと判断された後に取得されるSLO画像をリファレンスSLO画像とし、rms値とともに記憶部600に記憶してもよい。なお、すでに記憶部600にリファレンス画像が記憶されている場合、制御部300は、新たに取得されたrms値と記憶されているrms値を比較し、rms値の高い方のリファレンスSLO画像をrms値とともに記憶部600に記憶する。
<Step S107> (acquisition of reference SLO image)
Next, in step S107, the control unit 300 acquires a tracking reference image. The control unit 300 uses the SLO image acquired after the completion of the focus adjustment as a reference SLO image, and stores it in the storage unit 600 together with the root mean square (rot mean square, hereinafter referred to as rms) value of the SLO image. The control unit 300 may use an SLO image acquired after it is determined that there is no input from the user at a preset time as a reference SLO image and store it in the storage unit 600 together with the rms value. When the reference image is already stored in the storage unit 600, the control unit 300 compares the newly acquired rms value with the stored rms value, and rms the reference SLO image having the higher rms value. It is stored in the storage unit 600 together with the value.

<ステップS108>(トラッキング開始)
次に、ステップS108では、制御部300は、ステップS107で取得されたリファレンスSLO画像を用いて、トラッキングを開始する。制御部300は、SLO光学系で取得した眼底平面画像の特徴点から位置ずれ量を算出する。そして、制御部300は、算出したずれ量に基づいてスキャン光学系108を制御することにより、トラッキング、即ち、OCT測定光の眼底上での照射位置の補正を行う。また、ユーザがトラッキング指示を開始するのではなく、制御部300は、撮影開始に伴ってトラッキングを開始してもよい。
<Step S108> (Start tracking)
Next, in step S108, the control unit 300 starts tracking using the reference SLO image acquired in step S107. The control unit 300 calculates the amount of misalignment from the feature points of the fundus plane image acquired by the SLO optical system. Then, the control unit 300 controls the scan optical system 108 based on the calculated deviation amount to perform tracking, that is, correct the irradiation position of the OCT measurement light on the fundus of the eye. Further, instead of the user starting the tracking instruction, the control unit 300 may start the tracking with the start of shooting.

<ステップS109>(OCT画像取得)
次に、ステップS109では、制御部300は、OCT画像取得を行う。ユーザがボタン520を押下すると、制御部300は、OCT3次元データの取得を開始する。制御部300は、マーク510で指定される撮影範囲を、予め設定された画素分解能、速度、平均回数、スキャンパターン等のパラメータに基づきデータを取得する。
<Step S109> (OCT image acquisition)
Next, in step S109, the control unit 300 acquires an OCT image. When the user presses the button 520, the control unit 300 starts acquiring the OCT three-dimensional data. The control unit 300 acquires data in the shooting range specified by the mark 510 based on preset parameters such as pixel resolution, speed, average number of times, and scan pattern.

<ステップS110>(セグメンテーション実行)
次に、ステップS110では、制御部300は、OCT画像のセグメンテーションを実行する。ステップS109で取得されたデータは、画像生成部400に送られて画像化され、画像表示領域505、506、507に表示される。また、セグメンテーション(部位情報取得)が行われ、プルダウンメニュー513でセグメンテーションラインの重畳を表示/非表示で切り替えることができる。以下に、網膜のセグメンテーションについて具体的に説明する。
<Step S110> (Execution of segmentation)
Next, in step S110, the control unit 300 executes segmentation of the OCT image. The data acquired in step S109 is sent to the image generation unit 400, imaged, and displayed in the image display areas 505, 506, and 507. In addition, segmentation (acquisition of site information) is performed, and the superposition of segmentation lines can be switched between display and non-display in the pull-down menu 513. The segmentation of the retina will be specifically described below.

画像生成部400は、OCT画像から抜き出した処理の対象とする断層像に対して、メディアンフィルタとSobelフィルタをそれぞれ適用して画像を作成する(以下、それぞれメディアン画像、Sobel画像という)。次に、画像生成部400は、作成したメディアン画像とSobel画像から、Aスキャン毎にプロファイルを作成する。メディアン画像では輝度値のプロファイル、Sobel画像では勾配のプロファイルとなる。そして、画像生成部400は、Sobel画像から作成したプロファイル内のピークを検出する。画像生成部400は、検出したピークの前後やピーク間に対応するメディアン画像のプロファイルを参照することで、網膜層の各領域の境界を抽出する。 The image generation unit 400 creates an image by applying a median filter and a Sobel filter to a tomographic image to be processed extracted from the OCT image (hereinafter, referred to as a median image and a Sobel image, respectively). Next, the image generation unit 400 creates a profile for each A scan from the created median image and Sobel image. The median image has a brightness value profile, and the Sobel image has a gradient profile. Then, the image generation unit 400 detects the peak in the profile created from the Sobel image. The image generation unit 400 extracts the boundary of each region of the retinal layer by referring to the profile of the median image corresponding to before and after the detected peak and between the peaks.

セグメンテーション結果について図17を用いて説明する。図17は、輝度平均化した断層像であり、セグメンテーションラインが破線で重畳されている。セグメンテーションは、例えば、6層を検出している。 The segmentation result will be described with reference to FIG. FIG. 17 is a tomographic image with brightness averaged, and segmentation lines are superimposed with broken lines. Segmentation has detected, for example, 6 layers.

6層の内訳は、以下の通りである。(1)神経線維層(NFL)。(2)神経節細胞層(GCL)+内網状層(IPL)を合わせた層。(3)内顆粒層(INL)+外網状層(OPL)を合わせた層。(4)外顆粒層(ONL)+外境界膜(ELM)を合わせた層。(5)Ellipsoid Zone(EZ)+Interdigitation Zone(IZ)+網膜色素上皮(RPE)を合わせた層。(6)脈絡膜(Choroid)。 The breakdown of the 6 layers is as follows. (1) Nerve fiber layer (NFL). (2) A layer in which the ganglion cell layer (GCL) + the inner plexiform layer (IPL) are combined. (3) A layer in which the inner nuclear layer (INL) + the outer plexiform layer (OPL) are combined. (4) A layer in which the outer nuclear layer (ONL) + the external limiting membrane (ELM) are combined. (5) A layer in which Ellipoid Zone (EZ) + Interdigtion Zone (IZ) + Retinal pigment epithelium (RPE) are combined. (6) Choroid.

なお、上記のセグメンテーションは一例であり、ダイクストラ法を利用したセグメンテーションなど、その他の方法を用いてもよい。また、検出する層の数は、任意に選ぶことができる。セグメンテーションは、後述する第3の学習済みモデルで行ってもよい。 The above segmentation is an example, and other methods such as segmentation using Dijkstra's algorithm may be used. Moreover, the number of layers to be detected can be arbitrarily selected. Segmentation may be performed by a third trained model described later.

<ステップS111>(AO−OCTモード開始)
次に、ステップS111では、制御部300は、波面補正を開始する。ユーザはOCTモードからAO−OCTモードへの切替えスイッチ541を操作することで、制御部300は、AO−OCTモードに移行する。制御部300がビーム径可変部141を駆動してビーム径を変更し、AOの動作を開始する。AO−OCTモードに移行すると、制御部300がビーム径可変部141を駆動してビーム径を変更し、波面補正デバイス104による波面補正を開始する。ここで、制御部300は、波面センサ106で測定された収差に基づいて波面補正デバイス104の形状を変形させ、デフォーカス成分以外の被検眼の収差を補正する。
<Step S111> (AO-OCT mode start)
Next, in step S111, the control unit 300 starts wavefront correction. The user operates the changeover switch 541 from the OCT mode to the AO-OCT mode, so that the control unit 300 shifts to the AO-OCT mode. The control unit 300 drives the beam diameter variable unit 141 to change the beam diameter and start the operation of the AO. When the mode shifts to the AO-OCT mode, the control unit 300 drives the beam diameter variable unit 141 to change the beam diameter, and the wavefront correction device 104 starts wavefront correction. Here, the control unit 300 deforms the shape of the wavefront correction device 104 based on the aberration measured by the wavefront sensor 106, and corrects the aberration of the eye to be inspected other than the defocus component.

<ステップS112>(AO−OCT撮影位置指定)
次に、ステップS112では、制御部300は、AO−OCTの撮影位置指定を行う。ステップS111にて、波面補正を開始すると、制御部300は、予め設定されたスキャン振幅、スキャン速度等のパラメータに基づき、AO−OCTモードのプレビュー撮影を行う。例えば、制御部300は、マーク514で指定される領域の中央の撮影位置を撮影し、表示領域508にAO−OCT画像をプレビュー表示する。
<Step S112> (AO-OCT imaging position designation)
Next, in step S112, the control unit 300 specifies the imaging position of the AO-OCT. When the wavefront correction is started in step S111, the control unit 300 performs preview shooting in the AO-OCT mode based on preset parameters such as scan amplitude and scan speed. For example, the control unit 300 takes a picture of the shooting position at the center of the area designated by the mark 514, and preview-displays the AO-OCT image in the display area 508.

AO−OCTモードで、画像表示領域504あるいは画像表示領域505の画像に重畳される破線511−1、511−2は、3次元OCT画像のx、y方向に沿うように描画され、スライダ512−1、512−2によりそれぞれの位置が調整可能である。スライダ512で指示される値が更新されると、破線511に対応する位置での断層像が表示領域506(水平方向H)、507(鉛直方向V)に自動で描画される。ユーザは、AO−OCTの撮像位置が含まれるようにスライダ512を調整する。画像表示領域505に表示されるOCT像は、図6、図7に示すように、3次元のボリューム像や断層画像でもよい。破線511−1、511−2は、マウス等の入力手段で任意の方向を指定できるように構成されてもよく、補間等により3次元OCT画像から生成した断層像を表示領域に表示し、疾患部位等を容易に指定できるよう構成されていてもよい。 In the AO-OCT mode, the broken lines 511-1 and 511-2 superimposed on the image in the image display area 504 or the image display area 505 are drawn along the x and y directions of the three-dimensional OCT image, and the slider 512- Each position can be adjusted by 1, 512-2. When the value indicated by the slider 512 is updated, the tomographic image at the position corresponding to the broken line 511 is automatically drawn in the display areas 506 (horizontal direction H) and 507 (vertical direction V). The user adjusts the slider 512 to include the imaging position of the AO-OCT. The OCT image displayed in the image display area 505 may be a three-dimensional volume image or a tomographic image as shown in FIGS. 6 and 7. The broken lines 511-1 and 511-2 may be configured so that an arbitrary direction can be specified by an input means such as a mouse, and a tomographic image generated from a three-dimensional OCT image by interpolation or the like is displayed in a display area to display a disease. It may be configured so that a part or the like can be easily specified.

また、プルダウンメニュー513からセグメンテーションにより分離された層を単独または複数の組み合わせで選択することができ、非選択の層を透明または半透明にする等、所望の網膜の層を強調して表示し、撮影位置の調整が容易になるように構成されている。AO−OCTの撮影位置指定は、表示領域505、表示領域506または表示領域507に重畳して表示されるマーク514をユーザが動かすことで行われる。マーク514は、大きさや位置をユーザが選択、変更できる。 In addition, the layers separated by segmentation can be selected individually or in combination from the pull-down menu 513, and the desired retinal layer is emphasized and displayed, such as making the unselected layer transparent or translucent. It is configured so that the shooting position can be easily adjusted. The AO-OCT imaging position is specified by the user moving the mark 514 superimposed on the display area 505, the display area 506, or the display area 507. The size and position of the mark 514 can be selected and changed by the user.

<ステップS113>(AO−OCT画像取得)
次に、ステップS113では、制御部300は、AO−OCTの撮影を開始する。ユーザがボタン522を押下すると、制御部300は、AO−OCT撮影を開始する。マーク514の指定する撮影範囲に基づき、制御部300がスキャン光学系108のスキャン振幅、スキャン速度等のパラメータ、および撮影枚数と撮影順序を決定する。
<Step S113> (AO-OCT image acquisition)
Next, in step S113, the control unit 300 starts photographing the AO-OCT. When the user presses the button 522, the control unit 300 starts AO-OCT imaging. Based on the shooting range specified by the mark 514, the control unit 300 determines parameters such as the scan amplitude and scan speed of the scan optical system 108, the number of shots, and the shooting order.

得られたAO−OCT信号は、画像生成部400によりAO−OCT像に変換される。制御部300は、得られた信号、画像等のデータを記憶部600に保存する。また、制御部300は、得られたAO−OCT画像を表示領域508に表示する。 The obtained AO-OCT signal is converted into an AO-OCT image by the image generation unit 400. The control unit 300 stores the obtained data such as signals and images in the storage unit 600. Further, the control unit 300 displays the obtained AO-OCT image in the display area 508.

<ステップS114>(撮影終了)
AO−OCT画像を取得した後、ステップS114では、制御部300は、撮影を完了する。ユーザは表示領域508のAO−OCT画像を見て、所望の撮影が完了したか否かを判断する。撮影が失敗あるいは、異なる場所を撮影する場合、ユーザは、ステップS114にて再度ステップS112に戻り、撮影位置の指定を行い、撮影を継続する。所望の撮影が取得できた場合、ユーザは、撮影を完了し、SLOやOCTの光源を消灯する。撮影の終了は、例えば、ボタン520や、終了ボタン(不図示)を押せばよい。
<Step S114> (End of shooting)
After acquiring the AO-OCT image, in step S114, the control unit 300 completes the imaging. The user looks at the AO-OCT image in the display area 508 and determines whether or not the desired imaging is completed. If the shooting fails or a different place is shot, the user returns to step S112 again in step S114, specifies the shooting position, and continues shooting. When the desired shooting can be obtained, the user completes the shooting and turns off the light source of the SLO or OCT. To end the shooting, for example, the button 520 or the end button (not shown) may be pressed.

撮影終了後、ユーザは、切り替えスイッチ540で画像に画像生成部400による高画質化の画像処理を施すかどうかを選択する。例えば、ユーザがONを選択することで、画像生成部400は、図3に示したような処理を行い、高画質化処理した画像を表示領域508に表示する。高画質化処理は、表示領域504から507に表示される表示画像に対して行ってもよい。 After the shooting is completed, the user selects whether or not to perform image processing for improving the image quality by the image generation unit 400 on the image with the changeover switch 540. For example, when the user selects ON, the image generation unit 400 performs the processing as shown in FIG. 3 and displays the high-quality image processed in the display area 508. The high image quality processing may be performed on the display images displayed in the display areas 504 to 507.

[第2の実施形態](セマンティック・セグメンテーション)
本発明の第2の実施形態について、図18に示すフローチャートを使って説明する。図18では、図3と同じステップは同一の符号をふる。
[Second Embodiment] (Semantic Segmentation)
A second embodiment of the present invention will be described with reference to the flowchart shown in FIG. In FIG. 18, the same steps as in FIG. 3 have the same reference numerals.

ステップS401では、再構成部401は、光学系100から出力された信号に対して、様々な処理を行い、被検眼118に関する画像を生成する。 In step S401, the reconstruction unit 401 performs various processes on the signal output from the optical system 100 to generate an image relating to the eye to be inspected 118.

次に、ステップS411では、再構成部401は、分割部として機能し、被検眼118の画像を被写体の種類毎に複数の領域に分割する。領域分割の例を図9と図19を使って説明する。図9は、AO−SLOで得た、視細胞と毛細血管の画像を表す。図19は、図9を領域分割した模式図を表す。簡単のため、図19では境界線のみを示す。再構成部401は、領域分割により視細胞の領域10と毛細血管の領域11に分割する。再構成部401は、第3の学習済みモデルを用いて、被検眼118の画像を被写体の種類毎に複数の領域に分割する。第3の学習済みモデルは、ディープラーニング等を含む機械学習アルゴリズムを用いる。第3の学習済みモデルは、特定の被写体の入力画像から被写体の輪郭および種類を推論処理により出力する学習を事前に済ませておく(セマンティック・セグメンテーションを行う)。学習データは、図9および図19と同様に、複数の被写体が映った画像を入力画像に、領域分けされ被写体が特定された画像を教師画像にするペアを複数ペア用意すればよい。 Next, in step S411, the reconstruction unit 401 functions as a division unit and divides the image of the eye to be inspected 118 into a plurality of regions for each type of subject. An example of region division will be described with reference to FIGS. 9 and 19. FIG. 9 represents images of photoreceptor cells and capillaries obtained by AO-SLO. FIG. 19 shows a schematic diagram in which FIG. 9 is divided into regions. For simplicity, only the boundaries are shown in FIG. The reconstruction unit 401 is divided into a photoreceptor region 10 and a capillary region 11 by region division. Using the third trained model, the reconstruction unit 401 divides the image of the eye to be inspected 118 into a plurality of regions for each type of subject. The third trained model uses a machine learning algorithm including deep learning and the like. In the third trained model, learning to output the contour and type of the subject from the input image of the specific subject by inference processing is completed in advance (semantic segmentation is performed). As for the learning data, as in FIGS. 9 and 19, a plurality of pairs may be prepared in which an image showing a plurality of subjects is used as an input image and an image in which the subject is specified by being divided into regions is used as a teacher image.

次に、ステップS412では、画像処理選択部402は、ステップS411で分割された領域毎に、複数の学習済みモデル404のうちのいずれかを選択する。画像処理選択部402は、第4の学習済みモデルを用いて、領域毎に、複数の学習済みモデル404のうちのいずれかを選択することができる。第4の学習済みモデルは、第2の学習済みモデルと同様に、被写体に対応する学習済みモデル404を選択する。第4の学習済みモデルは、画像内の複数の被写体を対象とし、複数の学習済みモデルを選択する点が第2の学習済みモデルと異なる。第4の学習済みモデルは、領域分割した画像を入力画像として、それぞれ対応する学習済みモデル404を推論処理する学習を事前に済ませておく。 Next, in step S412, the image processing selection unit 402 selects one of the plurality of trained models 404 for each region divided in step S411. The image processing selection unit 402 can select one of the plurality of trained models 404 for each region by using the fourth trained model. As the fourth trained model, the trained model 404 corresponding to the subject is selected in the same manner as the second trained model. The fourth trained model is different from the second trained model in that a plurality of subjects in the image are targeted and a plurality of trained models are selected. In the fourth trained model, the region-divided image is used as an input image, and the learning for inferring the corresponding trained model 404 is completed in advance.

次に、ステップS413では、選択された学習済みモデル404は、領域毎に、入力画像の画質を向上させた画像を出力する。 Next, in step S413, the selected trained model 404 outputs an image in which the image quality of the input image is improved for each region.

次に、ステップS414では、画像処理部403は、合成部として機能し、ステップS413で出力された画像を対応する領域に合成する。 Next, in step S414, the image processing unit 403 functions as a compositing unit, and synthesizes the image output in step S413 into the corresponding region.

なお、画像処理の対象は、分割した全領域を対象としてもよいし、特定の被写体の領域だけを処理対象としてもよい。図19の例では、視細胞と毛細血管それぞれに対し画像処理をしてもよいし、視細胞あるいは毛細血管のどちらかのみを画像処理の対象としてもよい。どのような組合せを選択するかも第4の学習済みモデルに学習させて、推論処理させてもよい。 The target of image processing may be the entire divided region, or only the region of a specific subject may be the target of processing. In the example of FIG. 19, image processing may be performed on each of the photoreceptor cells and the capillaries, or only either the photoreceptor cells or the capillaries may be the target of the image processing. The fourth trained model may be trained to infer what kind of combination is selected.

視細胞と毛細血管の例で説明したが、被写体は他の組み合わせであってもよいし、被写体は3つ以上であってもよい。 Although the examples of photoreceptor cells and capillaries have been described, the subjects may be other combinations, and the subjects may be three or more.

画像処理の対象領域以外の画像は、学習済みモデルの推論処理に影響しないようにすることが望ましい。例えば、画像処理部403への入力画像は、処理対象以外の領域をマスクした画像を入力画像とすればよい。また、画像処理部403は、元の入力画像をそのまま画像処理し、処理後に対象領域を切り出してもよいし、元の画像から対象領域を切り出して画像サイズを変えて入力画像としてもよい。マスクする領域の輝度値を中間値やゼロ値、最大値に置き換えたり、あるいは負の輝度値などに変換し、マスクした領域であることを明示して学習させてもよい。 It is desirable that images other than the target area of image processing do not affect the inference processing of the trained model. For example, as the input image to the image processing unit 403, an image masking an area other than the processing target may be used as the input image. Further, the image processing unit 403 may perform image processing on the original input image as it is and cut out the target area after the processing, or may cut out the target area from the original image and change the image size to use the input image. The brightness value of the masked area may be replaced with an intermediate value, a zero value, or a maximum value, or converted into a negative brightness value, etc., and the masked area may be clearly learned.

正面画像の例で説明したが、画像は断層像や3次元画像でもよい。分割前の断層像を図20(a)に示し、分割後の境界線を図20(b)に示す。各層は、粒状サイズやコントラストなどが異なるため、最適な学習済みモデルも異なる。分割した層毎に学習済みモデルを変える事で、層毎に適した画像処理を行える。また、図6に示す3次元ボリューム画像や図7に示す3次元断層画像の場合も同様に行える。また、網膜外の硝子体や脈絡膜の外側が観察対象外である場合、画像処理の対象から除いて、網膜の領域のみ画像処理を行ってもよい。同様に、眼底の出血や白内障による混濁がある場合も画像内から領域分割して、画像処理の対象から除いてもよい。 Although the front image has been described as an example, the image may be a tomographic image or a three-dimensional image. The tomographic image before the division is shown in FIG. 20 (a), and the boundary line after the division is shown in FIG. 20 (b). Since each layer has a different grain size and contrast, the optimum trained model also differs. By changing the trained model for each divided layer, image processing suitable for each layer can be performed. The same can be performed for the three-dimensional volume image shown in FIG. 6 and the three-dimensional tomographic image shown in FIG. 7. When the vitreous body outside the retina or the outside of the choroid is not the object of observation, the image processing may be performed only on the region of the retina, excluding the object of image processing. Similarly, if there is bleeding in the fundus or opacity due to cataract, the area may be divided from the image and excluded from the image processing target.

本実施形態によれば、画像内の被写体毎に分割して、それぞれ画像処理を行うことで、画像内の被写体毎に適した画像処理を選択することができる。 According to the present embodiment, by dividing each subject in the image and performing image processing for each subject, it is possible to select an image process suitable for each subject in the image.

[第3の実施形態](画像内で領域を分割)
本発明の第3の実施形態について説明する。本実施形態では、画像生成部400は、画像内で領域を分割し、異なる学習済みモデルを選択し、画像処理する。また、分割した画像内の一部は画像処理を行い、他の一部は画像処理を行わなくてもよい。本実施形態は、画像の中心部と周辺部など、画像の場所によって見え方が異なる場合に適用できる。
[Third embodiment] (dividing the area in the image)
A third embodiment of the present invention will be described. In the present embodiment, the image generation unit 400 divides an area in the image, selects a different trained model, and performs image processing. Further, it is not necessary to perform image processing on a part of the divided image and not perform image processing on the other part. This embodiment can be applied when the appearance differs depending on the location of the image, such as the central portion and the peripheral portion of the image.

画像の見え方が異なる場合としては、眼科撮影装置200の由来の例では、測定光が鏡筒に遮られて影が映りこむ場合や、画像周辺部のゆがみや色味が異なる場合、輝度やコントラストが画像位置によって異なる場合が挙げられる。他にも、反射によるゴーストが映りこむ場合、画像内にアーチファクトがでる場合も挙げられる。また、被検眼118に由来する例は、被検眼118の傾きや凹凸によるフォーカスずれ、まつ毛の映りこみが挙げられる。 When the appearance of the image is different, in the example of origin of the ophthalmologic imaging apparatus 200, when the measurement light is blocked by the lens barrel and a shadow is reflected, or when the distortion or color of the peripheral portion of the image is different, the brightness or The contrast may differ depending on the image position. In addition, when a ghost due to reflection is reflected, an artifact may appear in the image. In addition, examples derived from the eye 118 to be inspected include tilting of the eye 118 to be inspected, focus shift due to unevenness, and reflection of eyelashes.

鏡筒に測定光が蹴られて影が映りこむ例を図21(a)に示し、輝度やコントラストが画像位置によって異なる例を図21(b)に示し、周辺部のフォーカスずれの例を図21(c)に示す。また、被写体の傾きによる左側フォーカスずれの例を図22(a)に示し、まつ毛の映り込みの例を図22(b)に示す。 An example in which the measurement light is kicked and a shadow is reflected on the lens barrel is shown in FIG. 21 (a), an example in which the brightness and contrast differ depending on the image position is shown in FIG. 21 (b), and an example of the focus shift in the peripheral portion is shown. It is shown in 21 (c). Further, an example of left focus shift due to the inclination of the subject is shown in FIG. 22 (a), and an example of reflection of eyelashes is shown in FIG. 22 (b).

図21(a)の例では、測定光が鏡筒で蹴られて画像30内に鏡筒の影31が映りこんで、周辺部が暗くなっている。丸い鏡筒に対し四角い撮像範囲の組み合わせの場合、特に画像30内の対角方向や長手方向でケラレが生じやすい。 In the example of FIG. 21A, the measurement light is kicked by the lens barrel, the shadow 31 of the lens barrel is reflected in the image 30, and the peripheral portion is darkened. In the case of a combination of a round lens barrel and a square imaging range, vignetting is likely to occur especially in the diagonal direction and the longitudinal direction in the image 30.

図21(b)の例では、中央部に対し周辺部が暗くなる。周辺部が暗くなるのは、例えば周辺部でのゆがみ(ディストーション)や光学系の角度依存など被写体を含む測定光の光路中の結合効率の面内分布があることによって生じる。カラー画像の場合は、色ムラやにじみが生じる。 In the example of FIG. 21B, the peripheral portion is darker than the central portion. The darkening of the peripheral portion is caused by the in-plane distribution of the coupling efficiency in the optical path of the measurement light including the subject, such as distortion in the peripheral portion and angle dependence of the optical system. In the case of a color image, color unevenness and bleeding occur.

図21(c)の例では、中央部に対し周辺部がボケる。周辺部のボケは、例えば、被写界深度に対し、中央部と周辺部とで深さの差が大きいのでフォーカスがずれる場合に生じる。 In the example of FIG. 21C, the peripheral portion is blurred with respect to the central portion. Blurring of the peripheral portion occurs, for example, when the focus is deviated because the difference in depth between the central portion and the peripheral portion is large with respect to the depth of field.

同様に、画面の左右で傾きが大きい場合、図22(a)の例のように画面内でボケが生じる。また、画面内にまつ毛が映りこむ場合、図22(b)のように影31が映り込む。 Similarly, when the tilt is large on the left and right sides of the screen, blurring occurs in the screen as in the example of FIG. 22A. When the eyelashes are reflected on the screen, the shadow 31 is reflected as shown in FIG. 22 (b).

いずれの例も画像の場所によって見え方が異なるため、一つの学習済みモデルで対応することが難しい場合がある。本実施形態では、画像の領域を分割して対応する学習済みモデルで処理を行う。なお、分割の仕方は、中央と周辺部だけとは限らず、複数個所に分割してもよい。 Since the appearance of each example differs depending on the location of the image, it may be difficult to handle with one trained model. In the present embodiment, the image region is divided and processing is performed with the corresponding trained model. The method of division is not limited to the central portion and the peripheral portion, and may be divided into a plurality of locations.

再構成部401は、第5の学習済みモデルを用いて、被検眼118の画像を位置または画質毎に複数の領域に分割することができる。第5の学習済みモデルは、第3の学習済みモデルと同様に入力画像から見え方が異なる領域を推論処理により分割し出力する学習を事前に済ませておく。第5の学習済みモデルは、同一の被写体であっても、見え方が異なる領域を分割する点が第3の学習済みモデルと異なる。第5の学習済みモデルは、入力画像と領域を分割した教師画像のペアのセットからなる学習データを使って学習を済ませておく。 Using the fifth trained model, the reconstruction unit 401 can divide the image of the eye to be inspected 118 into a plurality of regions for each position or image quality. Similar to the third trained model, the fifth trained model is previously trained to divide and output a region having a different appearance from the input image by inference processing. The fifth trained model is different from the third trained model in that even if the subject is the same, regions that are different in appearance are divided. The fifth trained model is trained using the training data consisting of a set of pairs of the input image and the teacher image in which the area is divided.

画像処理選択部402は、第6の学習済みモデルを用いて、領域毎に、複数の学習済みモデル404のうちのいずれかを選択することができる。第6の学習済みモデルは、領域分割した画像を入力画像として、対応する学習済みモデル404を推論処理する学習を事前に済ませておく。 The image processing selection unit 402 can select one of the plurality of trained models 404 for each region by using the sixth trained model. In the sixth trained model, the region-divided image is used as an input image, and the corresponding trained model 404 is inferred and trained in advance.

本実施形態は、画像内で画像の見え方が異なる場合に、画像を分割して適した学習済みモデルを選択し画像処理できる効果がある。 This embodiment has an effect that when the appearance of the image is different in the image, the image can be divided and a suitable trained model can be selected for image processing.

[第4の実施形態](異なる画質の画像を重畳)
本発明の第4の実施形態について説明する。被検眼118の画像は、第1の画像と、第1の画像の一部である1枚以上の第2の画像を有する。第2の画像は、第1の画像より高画質の画像である。図23に示すように、第1の画像40はSLOで得た画像、第2の画像41a、41b、41cはAO−SLO等で得た画像を表す。一般的に、第2の画像に相当する高画質な画像を取得するのには、時間がかかったり、補償光学のように高解像度な装置が必要となり、画角も狭くなることが多い。第1の画像に第2の画像を重畳する場合、場所によって画質が異なるため、一つの学習済みモデルで対応することが難しい場合がある。
[Fourth Embodiment] (superimposing images of different image quality)
A fourth embodiment of the present invention will be described. The image of the eye to be inspected 118 has a first image and one or more second images that are a part of the first image. The second image is a higher quality image than the first image. As shown in FIG. 23, the first image 40 represents an image obtained by SLO, and the second images 41a, 41b, 41c represent an image obtained by AO-SLO or the like. In general, it takes time to acquire a high-quality image corresponding to the second image, a high-resolution device such as adaptive optics is required, and the angle of view is often narrowed. When the second image is superimposed on the first image, it may be difficult for one trained model to handle it because the image quality differs depending on the location.

本実施形態は、第2の実施形態の図18のフローチャートと同様の処理で行うことができる。本実施形態が第2の実施形態と異なる点のみ説明する。 This embodiment can be performed by the same processing as the flowchart of FIG. 18 of the second embodiment. Only the points that this embodiment differs from the second embodiment will be described.

ステップS411では、再構成部401は、第1の画像40に第2の画像41a、41b、41cを位置合わせした上で、第1の画像40を第2の画像41a、41b、41cが存在する領域と存在しない領域に分割する。以下、第2の画像41a、41b、41cを第2の画像41という。 In step S411, the reconstruction unit 401 aligns the second images 41a, 41b, and 41c with the first image 40, and then the first image 40 has the second images 41a, 41b, and 41c. Divide into areas and non-existent areas. Hereinafter, the second images 41a, 41b, and 41c are referred to as the second image 41.

ステップS412では、画像処理選択部402は、それぞれの領域に対応する学習済みモデル404を選択する。画像処理選択部402は、第2の画像41が存在する領域では、第2の画像41を入力画像とする学習済みモデル404を選択し、第2の画像41が存在しない領域では、第1の画像40を入力画像とする学習済みモデル404を選択する。 In step S412, the image processing selection unit 402 selects the trained model 404 corresponding to each region. The image processing selection unit 402 selects the trained model 404 having the second image 41 as an input image in the region where the second image 41 exists, and the first image processing selection unit 402 in the region where the second image 41 does not exist. The trained model 404 with the image 40 as the input image is selected.

ステップS413では、第2の画像41が存在する領域で選択された学習済みモデル404は、第2の画像41を入力画像とし、入力画像の画質を向上させた画像を出力する。第2の画像41が存在しない領域で選択された学習済みモデル404は、第1の画像40を入力画像とし、入力画像の画質を向上させた画像を出力する。 In step S413, the trained model 404 selected in the region where the second image 41 exists uses the second image 41 as an input image and outputs an image with improved image quality of the input image. The trained model 404 selected in the region where the second image 41 does not exist uses the first image 40 as the input image and outputs an image in which the image quality of the input image is improved.

ステップS414では、画像処理部403は、ステップS413で処理したそれぞれの画像を対応する領域に合成する。 In step S414, the image processing unit 403 synthesizes each image processed in step S413 into a corresponding region.

第1の画像40に対応する学習済みモデル404は、第1の画像40に相当する相対的に広画角かつ低画質の入力画像と広画角かつ高画質の教師画像のペアのセットからなる学習データを使って学習を済ませておく。 The trained model 404 corresponding to the first image 40 comprises a set of a pair of a relatively wide angle of view and low image quality input image and a wide angle of view and high image quality teacher image corresponding to the first image 40. Complete the learning using the training data.

第2の画像41に対応する学習済みモデル404は、第2の画像41に相当する相対的に狭画角かつ第1の画像よりは高画質の入力画像と狭画角かつより高画質の教師画像のペアのセットから学習データを使って学習を済ませておく。高画質な教師画像は、例えば、複数枚の重ね合わせや高密度スキャン、あるいは高画質な他の測定装置によって得ればよい。例えば、AOを用いて高画質な教師画像を得てもよい。また、第2の画像41に加えて、第1の画像40も加えた2枚の画像を入力画像としてもよい。 The trained model 404 corresponding to the second image 41 has a relatively narrow angle of view corresponding to the second image 41 and a higher image quality than the first image, and a teacher with a narrow angle of view and higher image quality. Complete the training using the training data from the set of image pairs. The high-quality teacher image may be obtained by, for example, superimposing a plurality of sheets, high-density scanning, or another high-quality measuring device. For example, AO may be used to obtain a high-quality teacher image. Further, two images in which the first image 40 is added in addition to the second image 41 may be used as the input image.

本実施形態のように、入力画像の画質毎に学習済みモデル404を選択することで、画質にあった適切な学習済みモデルで画像処理を行うことができる。 By selecting the trained model 404 for each image quality of the input image as in the present embodiment, image processing can be performed with an appropriate trained model suitable for the image quality.

なお、合成前の第1の画像40と第2の画像41が存在する例で説明したが、第1の画像40と第2の画像41とを合成した1枚の画像を基に領域分割してもよい。また、画質の異なる3種類以上の画像が混在する場合、領域分割数と学習済みモデル404を増やしておけばよい。 Although the example in which the first image 40 and the second image 41 before compositing are present has been described, the area is divided based on one image obtained by compositing the first image 40 and the second image 41. You may. Further, when three or more types of images having different image quality are mixed, the number of region divisions and the trained model 404 may be increased.

[第5の実施形態](モンタージュ)
本発明の第5の実施形態について説明する。本実施形態は、2枚以上の画像を撮影部位をずらして取得し、張り合わせる事で画角を広げる場合に適応する。2枚の画像を張り合わせた例を図24(a)に示す。図24(a)では、撮影部位をずらして取得した2枚の画像51と52を位置合わせして張り合わせている。本実施形態は、第2の実施形態の図18と同様の処理で行うことができる。本実施形態が第2の実施形態と異なる点のみ説明する。
[Fifth Embodiment] (Montage)
A fifth embodiment of the present invention will be described. This embodiment is suitable for cases where two or more images are acquired by shifting the imaging part and the image angle is widened by pasting them together. An example in which two images are pasted together is shown in FIG. 24 (a). In FIG. 24A, two images 51 and 52 acquired by shifting the imaging portion are aligned and pasted together. This embodiment can be performed by the same process as in FIG. 18 of the second embodiment. Only the points that this embodiment differs from the second embodiment will be described.

ステップS411では、再構成部401は、画像が1枚の領域51a、52aと2枚の画像が重なる領域53bに分割する。 In step S411, the reconstruction unit 401 divides the regions 51a and 52a having one image into the regions 53b where the two images overlap.

ステップS412では、画像処理選択部402は、領域51aと52aに対応する学習済みモデル404と、領域53bに対応する学習済みモデル404を選択する。 In step S412, the image processing selection unit 402 selects the trained model 404 corresponding to the regions 51a and 52a and the trained model 404 corresponding to the region 53b.

ステップS413では、画像処理部403は、それぞれの領域に対し、選択された学習済みモデル404を用いて、画像処理を行う。 In step S413, the image processing unit 403 performs image processing on each region using the selected trained model 404.

ステップS414では、画像処理部403は、ステップS413で処理した画像を対応する領域に合成する。 In step S414, the image processing unit 403 synthesizes the image processed in step S413 into the corresponding region.

領域51aと52aに対応する学習済みモデル404は、1枚の入力画像に対し、推論処理により高画質な画像を出力する学習を事前に済ませておく。領域53bに対応する学習済みモデル404は、2枚の入力画像に対し、推論処理により高画質な画像を出力する学習を事前に済ませておく。領域53bに対応する学習済みモデル404は、領域51aと52aに対応する学習済みモデル404と比べて、入力画像の枚数が多くなるため、相対的に高画質な画質を得ることができる。2枚の画像の貼り合わせの例で説明したが、3枚以上の画像であっても同様にすればよい。重なり会う枚数が増える分、対応する学習済みモデル404を用意すればよい。一例として5枚の画像を張り合わせる例を図24(b)に示す。図24(b)の例では、入力画像が1枚から5枚のそれぞれに対応する学習済みモデルを用意すればよい。 The trained model 404 corresponding to the regions 51a and 52a is previously trained to output a high-quality image by inference processing for one input image. The trained model 404 corresponding to the region 53b is previously trained to output a high-quality image by inference processing for two input images. Since the trained model 404 corresponding to the region 53b has a larger number of input images than the trained model 404 corresponding to the regions 51a and 52a, relatively high image quality can be obtained. Although the explanation has been given in the example of pasting two images, the same may be applied to three or more images. As the number of overlapping sheets increases, the corresponding trained model 404 may be prepared. As an example, FIG. 24 (b) shows an example in which five images are pasted together. In the example of FIG. 24B, a trained model corresponding to each of 1 to 5 input images may be prepared.

被検眼118の画像は、複数の画像の一部が重なった画像である。再構成部401は、複数の画像が重なる枚数毎に、被検眼118の画像を複数の領域に分割する。 The image of the eye to be inspected 118 is an image in which a part of a plurality of images is overlapped. The reconstruction unit 401 divides the image of the eye to be inspected 118 into a plurality of regions for each number of overlapping images.

本実施形態のように、入力画像の枚数毎に学習済みモデル404を選択することで、重ね合わせの枚数に見合った適切な学習済みモデル404で画像処理を行うことができる。 By selecting the trained model 404 for each number of input images as in the present embodiment, it is possible to perform image processing with an appropriate trained model 404 corresponding to the number of superposed images.

[第6の実施形態](解析用画像と観察用画像)
本発明の第6の実施形態について説明する。本実施形態は、画像解析を行う場合に適用する。図25は、第6の実施形態による画像生成部400の処理を示すフローチャートである。図25が図3と異なる部分について説明する。
[Sixth Embodiment] (Image for analysis and image for observation)
A sixth embodiment of the present invention will be described. This embodiment is applied when performing image analysis. FIG. 25 is a flowchart showing the processing of the image generation unit 400 according to the sixth embodiment. A portion where FIG. 25 is different from FIG. 3 will be described.

ステップS422では、再構成部401は、画像表示用の領域分割と、解析用の領域分割を行う。解析用の領域分割は、例えば、図26に示すような黄斑中心に対する領域の分割や、図19に示したように視細胞と毛細血管の分割を行う。 In step S422, the reconstruction unit 401 divides the area for image display and the area for analysis. The region division for analysis includes, for example, division of the region with respect to the center of the macula as shown in FIG. 26, and division of photoreceptor cells and capillaries as shown in FIG.

ステップS423では、画像処理選択部402は、画像表示用の領域の学習済みモデル404の選択と、解析用の領域の学習済みモデル404の選択を行う。ステップS422で領域分割を行っている場合、画像処理選択部402は、分割した領域毎に対応する学習済みモデル404の選択を行う。 In step S423, the image processing selection unit 402 selects the trained model 404 in the image display area and the trained model 404 in the analysis area. When the area is divided in step S422, the image processing selection unit 402 selects the trained model 404 corresponding to each of the divided areas.

ステップS424では、画像表示用の領域で選択された学習済みモデル404は、画像表示用の領域の画像の画質を向上させた画像を出力する。解析用の領域で選択された学習済みモデル404は、解析用の領域の画像の画質を向上させた画像を出力する。 In step S424, the trained model 404 selected in the image display area outputs an image in which the image quality of the image in the image display area is improved. The trained model 404 selected in the analysis area outputs an image in which the image quality of the image in the analysis area is improved.

ステップS425では、画像処理部403は、解析部として機能し、ステップS424で出力された解析用の領域の画像を解析する。例えば、網膜層の膜厚、視細胞の数や密度などがあげられる。 In step S425, the image processing unit 403 functions as an analysis unit and analyzes the image of the analysis area output in step S424. For example, the film thickness of the retinal layer, the number and density of photoreceptor cells, and the like can be mentioned.

ステップS426では、画像処理部403は、ステップS424で出力された画像表示用の領域を合成し、その合成された画像に、ステップS425の解析の結果を重畳する。表示制御部500は、解析の結果が重畳された画像を表示する。解析結果の重畳表示が不要である場合、本ステップは省略できる。また、画像処理部403は、表示用の画像と解析結果とを並べたり、切り替えたりしてもよい。 In step S426, the image processing unit 403 synthesizes the image display area output in step S424, and superimposes the analysis result of step S425 on the combined image. The display control unit 500 displays an image on which the analysis results are superimposed. This step can be omitted if the superimposed display of the analysis results is not required. Further, the image processing unit 403 may arrange or switch between the display image and the analysis result.

解析用の学習済みモデル404は、解析しやすさを優先した画像処理に相当する。解析用の学習済みモデル404は、入力画像と解析に適した教師画像のペアのセットからなる学習データを使って学習を済ませておく。教師画像は、解析用の画像処理を行った画像とすればよい。例えば、他の方法で、2値化処理や組織毎にセグメンテーションされた画像が挙げられる。 The trained model 404 for analysis corresponds to image processing that prioritizes ease of analysis. The trained model 404 for analysis has been trained using training data consisting of a set of pairs of input images and teacher images suitable for analysis. The teacher image may be an image that has undergone image processing for analysis. For example, other methods include binarization and images segmented by organization.

画像表示用の画像は、例えば、図8のような視細胞の例のように画像の輝度に階調性や滑らかさがある方が見やすい場合がある。一方で、解析用の画像は、図27のように画像の輝度に階調性がない2値化されていたり、境界がはっきりしている方が解析しやすい場合がある。画像表示用の学習済みモデル404による画像処理と別に、解析用の学習済みモデル404による画像処理を行うことで、解析が安定的に行うことができる。 An image for displaying an image may be easier to see if the brightness of the image has gradation or smoothness, as in the case of photoreceptor cells as shown in FIG. On the other hand, the image for analysis may be easier to analyze if the brightness of the image is binarized with no gradation as shown in FIG. 27 or if the boundary is clear. By performing image processing by the trained model 404 for analysis separately from the image processing by the trained model 404 for image display, the analysis can be performed stably.

[第7の実施形態]
前述した実施形態において、撮影データは、被検眼118に対して広帯域光源を用いたスペクトラルドメイン方式のOCT(SD−OCT)、およびAO−OCTによって得たが、これに限定されるものではない。例えば、波長掃引型のOCT(SS−OCT)や眼底カメラを用いてもよい。また、造影剤や自発蛍光を利用した画像、OCT信号を変換したOCTA画像(モーションコントラスト画像)であってもよい。
[7th Embodiment]
In the above-described embodiment, the imaging data is obtained by, but is not limited to, the spectral domain type OCT (SD-OCT) using a broadband light source and the AO-OCT for the eye 118 to be inspected. For example, a wavelength sweep type OCT (SS-OCT) or a fundus camera may be used. Further, an image using a contrast medium or spontaneous fluorescence, or an OCTA image (motion contrast image) obtained by converting an OCT signal may be used.

入力画像として、異なるモダリティーの画像が混在する場合、それぞれに対応する学習済みモデル404を用意すればよい。その場合、図18で示した処理と同様の処理を行えばよい。すなわち、ステップS411では、再構成部401は、必要に応じて画像領域を分割する。ステップS412では、画像処理選択部402は、それぞれのモダリティーに対応する学習済みモデル404を選択すればよい。ステップS413では、画像処理部403は、選択した対応する学習済みモデル404で画像処理を行う。ステップS414では、画像処理部403は、異なるモダリティーの画像を合成する。 When images of different modality are mixed as input images, a trained model 404 corresponding to each may be prepared. In that case, the same processing as that shown in FIG. 18 may be performed. That is, in step S411, the reconstruction unit 401 divides the image area as needed. In step S412, the image processing selection unit 402 may select the trained model 404 corresponding to each modality. In step S413, the image processing unit 403 performs image processing on the selected corresponding trained model 404. In step S414, the image processing unit 403 synthesizes images of different modality.

また、前述した複数の実施形態に相当する処理を組み合わせてもよい。例えば、フォーカス位置ずれを補う画像処理を行った後に、ノイズを低減する画像処理を行ってもよい。 Further, the processes corresponding to the plurality of embodiments described above may be combined. For example, after performing image processing for compensating for the focus position shift, image processing for reducing noise may be performed.

さらに、どの学習済みモデルを使用しているかや、推論処理の確からしさを表示してもよい。一例として、学習済みモデルの表示例を図28に示す。図28では、使用している学習済みモデル551毎に、切り替えスイッチ552でONの状態(●丸)とOFFの状態(○印)を表示し、確からしさを濃淡のボタン553で表示している。このような形態にすることで、どの学習済みモデル551を使用してるかと、確からしさをユーザが確認することができる。図28の表示は、図15の表示画面の一部に設けても良いし、結果をみて、学習済みモデル551をユーザが変更できる形態としてもよい。例えば、切り替えスイッチ552でモデルのON/OFFを切り替えて、再計算ボタン554で再計算を行っても良い。これらの画像処理部403の機能は、ソフトウェアで実現してもよい。 Furthermore, which trained model is used and the certainty of the inference process may be displayed. As an example, FIG. 28 shows a display example of the trained model. In FIG. 28, the ON state (● circle) and the OFF state (○ mark) are displayed by the changeover switch 552 for each trained model 551 used, and the certainty is displayed by the light and shade buttons 553. .. With such a form, the user can confirm which trained model 551 is used and the certainty. The display of FIG. 28 may be provided on a part of the display screen of FIG. 15, or the trained model 551 may be changed by the user by looking at the result. For example, the changeover switch 552 may be used to switch the model ON / OFF, and the recalculation button 554 may be used to perform recalculation. These functions of the image processing unit 403 may be realized by software.

以上説明したように、本実施形態によれば、画像毎に使用している学習済みモデル551を表示することができるので、学習済みモデル551の確認や再調整が容易となる。 As described above, according to the present embodiment, the trained model 551 used for each image can be displayed, so that the trained model 551 can be easily confirmed and readjusted.

第1〜第7の実施形態によれば、眼科撮影装置200は、学習済みモデルを使って、画像処理を効率よく行うことができる。眼科撮影装置200は、表示する画像の内容や撮影時の情報を基に、学習済みモデル404を選択し、選択した学習済みモデル404で高画質化することで、ユーザが画像処理方法を選択する手間を省略することができる。 According to the first to seventh embodiments, the ophthalmologic imaging apparatus 200 can efficiently perform image processing using the trained model. The ophthalmologic imaging apparatus 200 selects a trained model 404 based on the content of the image to be displayed and information at the time of imaging, and the user selects an image processing method by improving the image quality with the selected trained model 404. The trouble can be saved.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that all of the above embodiments merely show examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

100 光学系、200 眼科撮影装置、300 制御部、400 画像生成部、500 表示制御部、600 記憶部 100 optical system, 200 ophthalmic imaging device, 300 control unit, 400 image generation unit, 500 display control unit, 600 storage unit

Claims (18)

複数の画像処理手段と、
前記複数の画像処理手段のうちのいずれかを選択する画像処理選択手段とを有し、
前記選択された画像処理手段は、被検眼の画像を入力画像とし、前記入力画像の画質を向上させた画像を出力することを特徴とする医用画像処理装置。
With multiple image processing means
It has an image processing selection means for selecting one of the plurality of image processing means.
The selected image processing means is a medical image processing apparatus characterized in that an image of an eye to be examined is used as an input image and an image having improved image quality of the input image is output.
前記被検眼の画像は、被検眼の前眼部、被検眼の後眼部、または被検眼の微細構造の画像であることを特徴とする請求項1に記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, wherein the image of the eye to be inspected is an image of the anterior eye portion of the eye to be inspected, the posterior eye portion of the eye to be inspected, or the fine structure of the eye to be inspected. 前記微細構造は、血管、毛細血管、視細胞、血管壁、またはドルーゼンであることを特徴とする請求項2に記載の医用画像処理装置。 The medical image processing apparatus according to claim 2, wherein the microstructure is a blood vessel, a capillary, a photoreceptor cell, a blood vessel wall, or a drusen. 前記複数の画像処理手段は、複数の第1の学習済みモデルであることを特徴とする請求項1〜3のいずれか1項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 3, wherein the plurality of image processing means is a plurality of first trained models. 前記画像処理選択手段は、第2の学習済みモデルを用いて、前記複数の画像処理手段のうちのいずれかを選択することを特徴とする請求項1〜4のいずれか1項に記載の医用画像処理装置。 The medical use according to any one of claims 1 to 4, wherein the image processing selection means selects one of the plurality of image processing means using the second trained model. Image processing device. 前記画像処理選択手段は、撮影モードに応じて、前記複数の画像処理手段のうちのいずれかを選択することを特徴とする請求項1〜4のいずれか1項に記載の医用画像処理装置。 The medical image processing apparatus according to any one of claims 1 to 4, wherein the image processing selection means selects one of the plurality of image processing means according to a shooting mode. 前記画像処理選択手段は、前記複数の画像処理手段のうちの複数の画像処理手段を選択し、
前記選択された複数の画像処理手段は、それぞれ、入力画像の画質を向上させた画像を出力することを特徴とする請求項1〜6のいずれか1項に記載の医用画像処理装置。
The image processing selection means selects a plurality of image processing means among the plurality of image processing means, and the image processing selection means selects a plurality of image processing means.
The medical image processing apparatus according to any one of claims 1 to 6, wherein each of the selected plurality of image processing means outputs an image in which the image quality of the input image is improved.
前記被検眼の画像を複数の領域に分割する分割手段をさらに有し、
前記画像処理選択手段は、前記領域毎に、前記複数の画像処理手段のうちのいずれかを選択し、
前記選択された画像処理手段は、前記領域毎に、入力画像の画質を向上させた画像を出力し、
前記医用画像処理装置は、前記選択された複数の画像処理手段が出力する画像を合成する合成手段をさらに有することを特徴とする請求項1〜7のいずれか1項に記載の医用画像処理装置。
Further having a dividing means for dividing the image of the eye to be inspected into a plurality of regions,
The image processing selection means selects one of the plurality of image processing means for each area, and the image processing selection means selects one of the plurality of image processing means.
The selected image processing means outputs an image in which the image quality of the input image is improved for each of the areas.
The medical image processing apparatus according to any one of claims 1 to 7, wherein the medical image processing apparatus further includes a compositing means for synthesizing images output by the plurality of selected image processing means. ..
前記分割手段は、第3の学習済みモデルを用いて、前記被検眼の画像を被写体の種類毎に複数の領域に分割し、
前記画像処理選択手段は、第4の学習済みモデルを用いて、前記領域毎に、前記複数の画像処理手段のうちのいずれかを選択することを特徴とする請求項8に記載の医用画像処理装置。
The dividing means uses a third trained model to divide the image of the eye to be inspected into a plurality of regions for each type of subject.
The medical image processing according to claim 8, wherein the image processing selection means selects one of the plurality of image processing means for each region by using a fourth trained model. apparatus.
前記分割手段は、第5の学習済みモデルを用いて、前記被検眼の画像を位置または画質毎に複数の領域に分割し、
前記画像処理選択手段は、第6の学習済みモデルを用いて、前記領域毎に、前記複数の画像処理手段のうちのいずれかを選択することを特徴とする請求項8に記載の医用画像処理装置。
The dividing means uses a fifth trained model to divide the image of the eye to be inspected into a plurality of regions for each position or image quality.
The medical image processing according to claim 8, wherein the image processing selection means selects one of the plurality of image processing means for each region by using the sixth trained model. apparatus.
前記被検眼の画像は、第1の画像と、前記第1の画像の一部である1枚以上の第2の画像を有し、
前記第2の画像は、前記第1の画像より高画質であり、
前記分割手段は、前記第1の画像を前記第2の画像が存在する領域と前記第2の画像が存在しない領域に分割し、
前記画像処理選択手段は、前記第2の画像が存在する領域では、前記第2の画像を入力画像とする画像処理手段を選択し、前記第2の画像が存在しない領域では、前記第1の画像を入力画像とする画像処理手段を選択し、
前記第2の画像が存在する領域で選択された画像処理手段は、前記第2の画像を入力画像とし、前記入力画像の画質を向上させた画像を出力し、
前記第2の画像が存在しない領域で選択された画像処理手段は、前記第1の画像を入力画像とし、前記入力画像の画質を向上させた画像を出力することを特徴とする請求項8に記載の医用画像処理装置。
The image of the eye to be inspected has a first image and one or more second images that are a part of the first image.
The second image has a higher image quality than the first image.
The dividing means divides the first image into a region in which the second image exists and a region in which the second image does not exist.
The image processing selection means selects an image processing means that uses the second image as an input image in the region where the second image exists, and the first image processing means in the region where the second image does not exist. Select an image processing method that uses an image as an input image,
The image processing means selected in the region where the second image exists takes the second image as an input image and outputs an image in which the image quality of the input image is improved.
8. The image processing means selected in the region where the second image does not exist uses the first image as an input image and outputs an image in which the image quality of the input image is improved. The medical image processing device described.
前記被検眼の画像は、複数の画像の一部が重なった画像であり、
前記分割手段は、前記複数の画像が重なる枚数毎に、前記被検眼の画像を複数の領域に分割することを特徴とする請求項8に記載の医用画像処理装置。
The image of the eye to be inspected is an image in which a part of a plurality of images is overlapped.
The medical image processing apparatus according to claim 8, wherein the dividing means divides the image of the eye to be inspected into a plurality of regions for each number of overlapping images.
前記分割手段は、画像表示用の領域分割と解析用の領域分割を行うことを特徴とする請求項8に記載の医用画像処理装置。 The medical image processing apparatus according to claim 8, wherein the division means divides an area for image display and an area for analysis. 前記画像処理手段が出力する画像を解析する解析手段をさらに有し、
前記合成手段は、前記合成された画像に前記解析の結果を重畳することを特徴とする請求項8または13に記載の医用画像処理装置。
Further having an analysis means for analyzing an image output by the image processing means
The medical image processing apparatus according to claim 8 or 13, wherein the synthesizing means superimposes the result of the analysis on the synthesized image.
前記画像処理選択手段は、前記被検眼の画像が静止画の場合には、静止画を入力画像とする画像処理手段を選択し、前記被検眼の画像が動画の場合には、動画を入力画像とする画像処理手段を選択することを特徴とする請求項1〜6のいずれか1項に記載の医用画像処理装置。 The image processing selection means selects an image processing means that uses a still image as an input image when the image of the eye to be inspected is a still image, and inputs a moving image when the image of the eye to be inspected is a moving image. The medical image processing apparatus according to any one of claims 1 to 6, wherein the image processing means is selected. 前記画像処理選択手段は、前記複数の画像処理手段を選択する確からしさが閾値以下である場合には、汎用の画像処理手段を選択することを特徴とする請求項1〜6のいずれか1項に記載の医用画像処理装置。 One of claims 1 to 6, wherein the image processing selection means selects a general-purpose image processing means when the certainty of selecting the plurality of image processing means is equal to or less than a threshold value. The medical image processing apparatus according to. 複数の画像処理手段を有する医用画像処理装置の処理方法であって、
前記複数の画像処理手段のうちのいずれかを選択するステップと、
前記選択された画像処理手段が、被検眼の画像を入力画像とし、前記入力画像の画質を向上させた画像を出力するステップと
を有することを特徴とする医用画像処理装置の処理方法。
A processing method for a medical image processing apparatus having a plurality of image processing means.
A step of selecting one of the plurality of image processing means, and
A processing method of a medical image processing apparatus, wherein the selected image processing means includes a step of using an image of an eye to be examined as an input image and outputting an image having improved image quality of the input image.
コンピュータを、請求項1〜16のいずれか1項に記載された医用画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the medical image processing apparatus according to any one of claims 1 to 16.
JP2019211631A 2019-11-22 2019-11-22 Medical image processing device, processing method for medical image processing device and program Pending JP2021079013A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019211631A JP2021079013A (en) 2019-11-22 2019-11-22 Medical image processing device, processing method for medical image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019211631A JP2021079013A (en) 2019-11-22 2019-11-22 Medical image processing device, processing method for medical image processing device and program

Publications (1)

Publication Number Publication Date
JP2021079013A true JP2021079013A (en) 2021-05-27

Family

ID=75963651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019211631A Pending JP2021079013A (en) 2019-11-22 2019-11-22 Medical image processing device, processing method for medical image processing device and program

Country Status (1)

Country Link
JP (1) JP2021079013A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176393A1 (en) * 2022-03-14 2023-09-21 キヤノン株式会社 Recognition device, recognition processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176393A1 (en) * 2022-03-14 2023-09-21 キヤノン株式会社 Recognition device, recognition processing method, and program

Similar Documents

Publication Publication Date Title
JP5058627B2 (en) Fundus observation device
US7980697B2 (en) Fundus oculi observation device and ophthalmic image display device
CN104173023B (en) Information processing apparatus and information processing method
JP6023406B2 (en) Ophthalmic apparatus, evaluation method, and program for executing the method
JP2008005987A (en) Eye fundus observation apparatus and control program for the same
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
JP2023009530A (en) Image processing method, image processing device, and program
JP6463048B2 (en) Image processing apparatus and method of operating image processing apparatus
JP6776076B2 (en) OCT device
WO2021029231A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP2016054786A (en) Ophthalmologic apparatus, and operation method for ophthalmologic apparatus
JP2021023686A (en) Ophthalmologic apparatus, control method thereof, program, and recording medium
JP6923392B2 (en) Ophthalmic equipment
JP2022075772A (en) Ophthalmologic apparatus
JP6923393B2 (en) Ophthalmic device and its control method
JP7091018B2 (en) Tomographic image acquisition device and method
JP2020039430A (en) Image processing device, image processing method and program
WO2020054524A1 (en) Image processing apparatus, image processing method, and program
US11089956B2 (en) Ophthalmologic apparatus and method of controlling the same
JP2021079013A (en) Medical image processing device, processing method for medical image processing device and program
JP6853690B2 (en) Ophthalmologic imaging equipment
JP2020032072A (en) Image processing device, image processing method and program
JP2017093854A (en) Ophthalmology imaging apparatus and ophthalmologic image display device
JP2020151094A (en) Ophthalmologic apparatus
JP6732093B2 (en) Information processing apparatus, information processing apparatus control method, and computer program