JP2020058629A - Medical image processing apparatus, medical image processing method, and program - Google Patents

Medical image processing apparatus, medical image processing method, and program Download PDF

Info

Publication number
JP2020058629A
JP2020058629A JP2018192132A JP2018192132A JP2020058629A JP 2020058629 A JP2020058629 A JP 2020058629A JP 2018192132 A JP2018192132 A JP 2018192132A JP 2018192132 A JP2018192132 A JP 2018192132A JP 2020058629 A JP2020058629 A JP 2020058629A
Authority
JP
Japan
Prior art keywords
image
quality
image quality
engine
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018192132A
Other languages
Japanese (ja)
Other versions
JP2020058629A5 (en
JP7229715B2 (en
Inventor
好彦 岩瀬
Yoshihiko Iwase
好彦 岩瀬
山添 学
Manabu Yamazoe
学 山添
秀謙 溝部
Hidekane Mizobe
秀謙 溝部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2018192132A priority Critical patent/JP7229715B2/en
Application filed by Canon Inc filed Critical Canon Inc
Priority to CN201980066871.4A priority patent/CN112822973A/en
Priority to GB2215912.3A priority patent/GB2610712B/en
Priority to PCT/JP2019/023657 priority patent/WO2020075345A1/en
Priority to KR1020217000477A priority patent/KR102507711B1/en
Priority to CN201980040325.3A priority patent/CN112367915A/en
Priority to PCT/JP2019/023640 priority patent/WO2019240257A1/en
Priority to GB2019907.1A priority patent/GB2589250B/en
Priority to DE112019003022.1T priority patent/DE112019003022T5/en
Publication of JP2020058629A publication Critical patent/JP2020058629A/en
Priority to US17/120,718 priority patent/US12040079B2/en
Priority to US17/223,702 priority patent/US11922601B2/en
Publication of JP2020058629A5 publication Critical patent/JP2020058629A5/ja
Priority to JP2022197060A priority patent/JP7490741B2/en
Application granted granted Critical
Publication of JP7229715B2 publication Critical patent/JP7229715B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

To provide a medical image processing apparatus capable of generating images more suitable for image diagnosis than before.SOLUTION: The medical image processing apparatus includes: an acquisition unit for acquiring a first image, which is a motion contrast front image of a subject eye; and an image quality enhancing unit for generating, from the first image, a second image having a more enhanced image quality compared with the first image, using an image quality enhancing engine including a machine learning engine.SELECTED DRAWING: Figure 5

Description

本発明は、医用画像処理装置、医用画像処理方法及びプログラムに関する。   The present invention relates to a medical image processing device, a medical image processing method, and a program.

医療分野においては、被検者の疾患を特定したり、疾患の程度を観察したりするために、様々な撮影装置によって画像が取得され、医療従事者による画像診断が行われている。撮影装置の種類には、例えば放射線科分野では、X線撮影装置、X線コンピュータ断層撮影(CT)装置、磁気共鳴イメージング(MRI)装置、陽電子放出断層撮影(PET)装置、及び単一光子放射断層撮影(SPECT)装置等がある。また、例えば眼科分野では、眼底カメラ、走査型レーザ検眼鏡(SLO)、光コヒーレンストモグラフィ(OCT)装置、及びOCTアンギオグラフィ(OCTA)装置がある。   In the medical field, in order to identify a disease of a subject and observe the degree of the disease, images are acquired by various imaging devices, and image diagnosis is performed by a medical staff. The types of imaging devices include, for example, in the field of radiology, X-ray imaging devices, X-ray computed tomography (CT) devices, magnetic resonance imaging (MRI) devices, positron emission tomography (PET) devices, and single photon emission. There is a tomography (SPECT) device and the like. Further, for example, in the field of ophthalmology, there are a fundus camera, a scanning laser ophthalmoscope (SLO), an optical coherence tomography (OCT) device, and an OCT angiography (OCTA) device.

画像診断を正確に行ったり、短時間で完了したりするためには、撮影装置によって取得される画像のノイズの少なさや解像度・空間分解能の高さ、適切な階調といった画質の高さが重要となる。また、観察したい部位や病変が強調されている画像も役に立つことがある。   In order to perform image diagnosis accurately and to complete it in a short time, high image quality such as low noise, high resolution / spatial resolution, and appropriate gradation is important for the images acquired by the imaging device. Becomes Also, an image in which the region or lesion to be observed is emphasized may be useful.

しかしながら、多くの撮影装置においては、画質が高いなどの、画像診断に適した画像を取得するためになんらかの代償が必要である。例えば、画質が高い画像を取得するために高性能な撮影装置を購入する方法があるが、低性能なものよりも多くの投資が必要になる場合が多い。   However, in many imaging devices, some compensation is required to acquire an image suitable for image diagnosis, such as high image quality. For example, there is a method of purchasing a high-performance image capturing device in order to obtain a high-quality image, but it often requires more investment than a low-performance image capturing device.

また、例えばCTでは、ノイズが少ない画像を取得するために被検者の被曝線量を増やさなければならない場合がある。また、例えばMRIでは、観察したい部位が強調された画像を取得するために副作用のリスクがある造影剤を使用する場合がある。また、例えばOCTでは、撮影する領域が広かったり、高い空間分解能が必要であったりする場合には、撮影時間がより長くなる場合がある。また、例えば、一部の撮影装置では、画質が高い画像を取得するために複数回画像を取得する必要があり、その分撮影に時間がかかる。   Further, for example, in CT, it may be necessary to increase the exposure dose of the subject in order to acquire an image with less noise. In addition, for example, in MRI, a contrast agent having a risk of side effects may be used in order to acquire an image in which a region to be observed is emphasized. Further, for example, in OCT, when a region to be imaged is wide or a high spatial resolution is required, the image taking time may be longer. In addition, for example, some image capturing devices need to acquire images multiple times in order to acquire images with high image quality, and thus it takes a long time to shoot.

特許文献1には、医用技術の急激な進歩や緊急時の簡易な撮影に対応するため、以前に取得した画像を、人工知能エンジンによって、より解像度の高い画像に変換する技術が開示されている。このような技術によれば、例えば、代償の少ない簡易な撮影によって取得された画像をより解像度の高い画像に変換することができる。   Patent Document 1 discloses a technique of converting an image acquired previously into an image of higher resolution by an artificial intelligence engine in order to cope with rapid progress of medical technology and simple imaging in an emergency. . According to such a technique, for example, an image acquired by simple shooting with low cost can be converted into an image with higher resolution.

特開2018−5841号公報JP, 2018-5841, A

しかしながら、解像度の高い画像であっても、画像診断に適した画像とは言えない場合もある。例えば、解像度が高い画像であっても、ノイズが多い場合やコントラストが低い場合等には観察すべき対象が適切に把握できないことがある。   However, even a high-resolution image may not be suitable for image diagnosis. For example, even if the image has a high resolution, the object to be observed may not be properly grasped when there is a lot of noise or the contrast is low.

これに対し、本発明の目的の一つは、従来よりも画像診断に適した画像を生成することができる医用画像処理装置、医用画像処理方法及びプログラムを提供することである。   On the other hand, one of the objects of the present invention is to provide a medical image processing apparatus, a medical image processing method, and a program capable of generating an image more suitable for image diagnosis than ever before.

本発明の一実施態様に係る医用画像処理装置は、被検眼のモーションコントラスト正面画像である第1の画像を取得する取得部と、機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べて高画質化された第2の画像を生成する高画質化部とを備える。   A medical image processing apparatus according to an embodiment of the present invention uses an acquisition unit that acquires a first image that is a motion-contrast front image of an eye to be inspected, and an image quality enhancement engine that includes a machine learning engine to perform the first image processing. Image quality improvement section that generates a second image quality-improved from the first image quality compared to the first image quality.

また、本発明の他の実施態様に係る医用画像処理方法は、被検眼のモーションコントラスト正面画像である第1の画像を取得することと、機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べて高画質化された第2の画像を生成することとを含む。   Further, a medical image processing method according to another embodiment of the present invention uses the image quality improving engine including a machine learning engine to obtain a first image which is a motion contrast front image of an eye to be examined, and Generating from the first image a second image of which the quality is higher than that of the first image.

本発明の一つによれば、従来よりも画像診断に適した画像を生成することができる。   According to one aspect of the present invention, it is possible to generate an image more suitable for image diagnosis than ever before.

高画質化処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of the neural network relating to the image quality improvement processing is shown. 撮影箇所推定処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of the neural network relating to the shooting location estimation processing is shown. 画像の真贋評価処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of a neural network for image authenticity evaluation processing is shown. 第1の実施形態に係る画像処理装置の概略的な構成の一例を示す。1 shows an example of a schematic configuration of an image processing apparatus according to a first embodiment. 第1の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 1st Embodiment. 第1の実施形態に係る画像処理の流れの別例を示すフロー図である。It is a flow figure showing another example of a flow of image processing concerning a 1st embodiment. 第2の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 2nd Embodiment. 第4の実施形態に係る画像処理を説明するための図である。It is a figure for demonstrating the image processing which concerns on 4th Embodiment. 第4の実施形態に係る高画質化処理の流れの一例を示すフロー図である。It is a flow figure showing an example of the flow of image quality improvement processing concerning a 4th embodiment. 第5の実施形態に係る画像処理を説明するための図である。It is a figure for explaining image processing concerning a 5th embodiment. 第5の実施形態に係る高画質化処理の流れの一例を示すフロー図である。It is a flow figure showing an example of the flow of image quality improvement processing concerning a 5th embodiment. 第6の実施形態に係る画像処理を説明するための図である。It is a figure for demonstrating the image processing which concerns on 6th Embodiment. 第6の実施形態に係る高画質化処理の流れの一例を示すフロー図である。It is a flow figure showing an example of the flow of image quality improvement processing concerning a 6th embodiment. 第6の実施形態に係る画像処理を説明するための図である。It is a figure for demonstrating the image processing which concerns on 6th Embodiment. 第7の実施形態に係る画像処理装置の概略的な構成の一例を示す。An example of a schematic configuration of an image processing apparatus according to a seventh embodiment is shown. 第7の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 7th Embodiment. 第7の実施形態に係るユーザーインターフェースの一例を示す。An example of the user interface which concerns on 7th Embodiment is shown. 第9の実施形態に係る画像処理装置の概略的な構成の一例を示す。An example of a schematic configuration of an image processing apparatus according to a ninth embodiment will be shown. 第9の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 9th Embodiment. 第12の実施形態に係る画像処理装置の概略的な構成の一例を示す。An example of a schematic configuration of an image processing apparatus according to a twelfth embodiment is shown. 第13の実施形態に係る高画質化処理の流れの一例を示すフロー図である。It is a flow figure showing an example of the flow of image quality improvement processing concerning a 13th embodiment. 第13の実施形態に係る高画質化処理の流れの別例を示すフロー図である。It is a flowchart which shows another example of the flow of the image quality improvement process which concerns on 13th Embodiment. 第17の実施形態に係る画像処理装置の概略的な構成の一例を示す。An example of a schematic structure of the image processing apparatus which concerns on 17th Embodiment is shown. 第17の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 17th Embodiment. 高画質化処理に関するニューラルネットワークの構成の一例を示す。An example of the configuration of the neural network relating to the image quality improvement processing is shown. 第19の実施形態に係る画像処理装置の概略的な構成の一例を示す。An example of the schematic structure of the image processing apparatus which concerns on 19th Embodiment is shown. 第19の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 19th Embodiment. 第21の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 21st Embodiment. 高画質化処理に関する教師画像の一例を示す。An example of the teacher image regarding the high image quality processing is shown. 高画質化処理に関する入力画像の一例を示す。An example of the input image regarding an image quality improvement process is shown. 第22の実施形態に係る画像処理装置の概略的な構成の一例を示す。An example of the schematic structure of the image processing apparatus which concerns on 22nd Embodiment is shown. 第22の実施形態に係る画像処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the image processing which concerns on 22nd Embodiment. 第22の実施形態に係る広画角画像を説明するための図である。It is a figure for demonstrating the wide-angle image which concerns on 22nd Embodiment.

以下、本発明を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。   Hereinafter, exemplary embodiments for carrying out the present invention will be described in detail with reference to the drawings. However, dimensions, materials, shapes, relative positions of constituent elements, and the like described in the following embodiments are arbitrary, and can be changed according to the configuration of the apparatus to which the present invention is applied or various conditions. Also, in the drawings, the same reference numbers are used in the drawings to denote the same or functionally similar elements.

<用語の説明>
まず、本明細書において用いられる用語について説明する。
<Explanation of terms>
First, terms used in this specification will be described.

本明細書におけるネットワークでは、各装置は有線又は無線の回線で接続されてよい。ここで、ネットワークにおける各装置を接続する回線は、例えば、専用回線、ローカルエリアネットワーク(以下、LANと表記)回線、無線LAN回線、インターネット回線、Wi−Fi(登録商標)、及びBluetooth(登録商標)等を含む。   In the network herein, each device may be connected by a wired or wireless line. Here, the line connecting each device in the network is, for example, a dedicated line, a local area network (hereinafter, referred to as LAN) line, a wireless LAN line, an Internet line, Wi-Fi (registered trademark), and Bluetooth (registered trademark). ) Etc. are included.

医用画像処理装置は、相互に通信が可能な2以上の装置によって構成されてもよいし、単一の装置によって構成されてもよい。また、医用画像処理装置の各構成要素は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のプロセッサーによって実行されるソフトウェアモジュールにより構成されてよい。また、当該各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、他の任意のハードウェアと任意のソフトウェアとの組み合わせにより構成されてもよい。   The medical image processing apparatus may be composed of two or more devices that can communicate with each other, or may be composed of a single device. Further, each component of the medical image processing apparatus may be configured by a software module executed by a processor such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). In addition, each of the constituent elements may be configured by a circuit or the like that performs a specific function such as an ASIC. Further, it may be configured by a combination of other arbitrary hardware and arbitrary software.

また、下記実施形態による医用画像処理装置又は医用画像処理方法によって処理される医用画像は、任意のモダリティ(撮影装置、撮影方法)を用いて取得された画像を含む。処理される医用画像は、任意の撮影装置等で取得された医用画像や下記実施形態による医用画像処理装置又は医用画像処理方法によって作成された画像を含むことができる。   Further, the medical image processed by the medical image processing apparatus or the medical image processing method according to the following embodiments includes an image acquired by using an arbitrary modality (imaging apparatus, imaging method). The medical image to be processed can include a medical image acquired by an arbitrary imaging device or the like, or an image created by the medical image processing device or the medical image processing method according to the following embodiments.

さらに、処理される医用画像は、被検者の所定部位の画像であり、所定部位の画像は被検者の所定部位の少なくとも一部を含む。また、当該医用画像は、被検者の他の部位を含んでもよい。また、医用画像は、静止画像又は動画像であってよく、白黒画像又はカラー画像であってもよい。さらに医用画像は、所定部位の構造(形態)を表す画像でもよいし、その機能を表す画像でもよい。機能を表す画像は、例えば、OCTA画像、ドップラーOCT画像、fMRI画像、及び超音波ドップラー画像等の血流動態(血流量、血流速度等)を表す画像を含む。なお、被検者の所定部位は、撮影対象に応じて決定されてよく、人眼(被検眼)、脳、肺、腸、心臓、すい臓、腎臓、及び肝臓等の臓器、頭部、胸部、脚部、並びに腕部等の任意の部位を含む。   Further, the medical image to be processed is an image of a predetermined part of the subject, and the image of the predetermined part includes at least a part of the predetermined part of the subject. In addition, the medical image may include other parts of the subject. Further, the medical image may be a still image or a moving image, and may be a monochrome image or a color image. Further, the medical image may be an image showing the structure (morphology) of a predetermined part or an image showing its function. The image representing the function includes images representing blood flow dynamics (blood flow rate, blood flow velocity, etc.) such as an OCTA image, a Doppler OCT image, an fMRI image, and an ultrasonic Doppler image. The predetermined part of the subject may be determined according to the imaging target, human eyes (inspection eye), brain, lungs, intestines, heart, pancreas, kidneys, organs such as liver, head, chest, It includes any part such as legs and arms.

また、医用画像は、被検者の断層画像であってもよいし、正面画像であってもよい。正面画像は、例えば、眼底正面画像や、前眼部の正面画像、蛍光撮影された眼底画像、OCTで取得したデータ(3次元のOCTデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したEn−Face画像を含む。なお、En−Face画像は、3次元のOCTAデータ(3次元のモーションコントラストデータ)について撮影対象の深さ方向における少なくとも一部の範囲のデータを用いて生成したOCTAのEn−Face画像(モーションコントラスト正面画像)であっても良い。   Further, the medical image may be a tomographic image of the subject or a front image. The front image is, for example, a front image of the fundus of the eye, a front image of the anterior segment of the eye, a fundus image captured by fluorescence, and at least a part of a range (three-dimensional OCT data) acquired by OCT in the depth direction of the imaging target. The En-Face image generated by using the data of 1. It should be noted that the En-Face image is an OCTA En-Face image (motion contrast) generated by using data of at least a partial range in the depth direction of the imaging target for the three-dimensional OCTA data (three-dimensional motion contrast data). Front image).

また、撮影装置とは、診断に用いられる画像を撮影するための装置である。撮影装置は、例えば、被検者の所定部位に光、X線等の放射線、電磁波、又は超音波等を照射することにより所定部位の画像を得る装置や、被写体から放出される放射線を検出することにより所定部位の画像を得る装置を含む。より具体的には、以下の実施形態に係る撮影装置は、少なくとも、X線撮影装置、CT装置、MRI装置、PET装置、SPECT装置、SLO装置、OCT装置、OCTA装置、眼底カメラ、及び内視鏡等を含む。   The image capturing device is a device for capturing an image used for diagnosis. The imaging device detects, for example, a device that obtains an image of a predetermined region by irradiating a predetermined region of a subject with light, radiation such as X-rays, electromagnetic waves, or ultrasonic waves, or radiation emitted from a subject. It includes a device for obtaining an image of a predetermined part by doing so. More specifically, the imaging apparatus according to the following embodiments includes at least an X-ray imaging apparatus, a CT apparatus, an MRI apparatus, a PET apparatus, a SPECT apparatus, an SLO apparatus, an OCT apparatus, an OCTA apparatus, a fundus camera, and an endoscopic apparatus. Including a mirror.

なお、OCT装置としては、タイムドメインOCT(TD−OCT)装置やフーリエドメインOCT(FD−OCT)装置を含んでよい。また、フーリエドメインOCT装置はスペクトラルドメインOCT(SD−OCT)装置や波長掃引型OCT(SS−OCT)装置を含んでよい。また、SLO装置やOCT装置として、波面補償光学系を用いた波面補償SLO(AO−SLO)装置や波面補償OCT(AO−OCT)装置等を含んでよい。   The OCT device may include a time domain OCT (TD-OCT) device and a Fourier domain OCT (FD-OCT) device. Further, the Fourier domain OCT device may include a spectral domain OCT (SD-OCT) device and a wavelength swept OCT (SS-OCT) device. The SLO device and the OCT device may include a wavefront compensation SLO (AO-SLO) device using a wavefront compensation optical system, a wavefront compensation OCT (AO-OCT) device, and the like.

画像管理システムは、撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システムは、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。特に、下記実施形態に係る画像管理システムは、受信した画像とともに関連付けられた被検者の情報や撮影時間などの各種情報も保存可能なデータベースを備える。また、画像管理システムはネットワークに接続され、他の装置からの要求に応じて、画像を送受信したり、画像を変換したり、保存した画像に関連付けられた各種情報を送受信したりすることができる。   The image management system is a device and a system for receiving and storing an image captured by an image capturing device or an image processed by the image capturing device. Further, the image management system may transmit an image in response to a request from a connected device, perform image processing on a stored image, or request an image processing request to another device. it can. The image management system may include, for example, an image storage communication system (PACS). In particular, the image management system according to the following embodiment includes a database that can store various information such as the information of the subject and the shooting time associated with the received image. Further, the image management system is connected to a network and can transmit and receive images, convert images, and transmit and receive various information associated with stored images in response to a request from another device. .

撮影条件とは、撮影装置によって取得された画像の撮影時の様々な情報である。撮影条件は、例えば、撮影装置に関する情報、撮影が実施された施設に関する情報、撮影に係る検査の情報、撮影者に関する情報、及び被検者に関する情報等を含む。また、撮影条件は、例えば、撮影日時、撮影部位名、撮影領域、撮影画角、撮影方式、画像の解像度や階調、画像サイズ、適用された画像フィルタ、画像のデータ形式に関する情報、及び放射線量に関する情報等を含む。なお、撮影領域には、特定の撮影部位からずれた周辺の領域や複数の撮影部位を含んだ領域等が含まれることができる。   The shooting conditions are various kinds of information at the time of shooting an image acquired by the shooting device. The imaging conditions include, for example, information about the imaging device, information about the facility where the imaging was performed, information about the examination related to the imaging, information about the photographer, and information about the subject. Further, the imaging conditions include, for example, imaging date / time, imaging site name, imaging region, imaging angle of view, imaging method, image resolution and gradation, image size, applied image filter, information regarding image data format, and radiation. Includes information about quantity. The imaging region may include a peripheral region deviated from a specific imaging region, a region including a plurality of imaging regions, and the like.

撮影条件は、画像を構成するデータ構造中に保存されていたり、画像とは別の撮影条件データとして保存されていたり、撮影装置に関連するデータベースや画像管理システムに保存されたりすることができる。そのため、撮影条件は、撮影装置の撮影条件の保存手段に対応した手順により取得することができる。具体的には、撮影条件は、例えば、撮影装置が出力した画像のデータ構造を解析したり、画像に対応する撮影条件データを取得したり、撮影装置に関連するデータベースから撮影条件を取得するためのインターフェースにアクセスする等により取得される。   The shooting conditions can be stored in a data structure forming the image, as shooting condition data different from the image, or stored in a database or an image management system associated with the shooting device. Therefore, the photographing condition can be acquired by a procedure corresponding to the photographing condition storage unit of the photographing device. Specifically, the shooting condition is, for example, for analyzing the data structure of the image output by the shooting device, obtaining shooting condition data corresponding to the image, or obtaining the shooting condition from a database related to the shooting device. It is obtained by accessing the interface of.

なお、撮影装置によっては、保存されていない等の理由で取得できない撮影条件も存在する。例えば、撮影装置に特定の撮影条件を取得したり保存したりする機能が無い、又はそのような機能が無効にされている場合である。また、例えば、撮影装置や撮影に関係の無い撮影条件であるとして保存しないようになっている場合もある。さらに、例えば、撮影条件が隠蔽されていたり、暗号化されていたり、権利が無いと取得できないようになっていたりする場合等もある。ただし、保存されていない撮影条件であっても取得できる場合がある。例えば、画像解析を実施することによって、撮影部位名や撮影領域を特定することができる。   Depending on the image capturing device, there are also image capturing conditions that cannot be acquired because they are not saved. For example, there is a case where the image capturing apparatus does not have a function of acquiring or storing a specific image capturing condition, or such a function is disabled. Further, for example, in some cases, it may not be saved because the shooting condition is not related to the shooting device or shooting. Furthermore, for example, there are cases where the shooting conditions are hidden, encrypted, or cannot be acquired without the right. However, it may be possible to acquire even shooting conditions that have not been saved. For example, by performing image analysis, it is possible to specify the imaged region name and the imaged region.

機械学習モデルとは、任意の機械学習アルゴリズムに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルである。教師データは、一つ以上の、入力データと出力データとのペア群で構成される。なお、教師データを構成するペア群の入力データと出力データの形式や組み合わせは、一方が画像で他方が数値であったり、一方が複数の画像群で構成され他方が文字列であったり、双方が画像であったりする等、所望の構成に適したものであってよい。   The machine learning model is a model in which an arbitrary machine learning algorithm is trained (learned) in advance using appropriate teacher data (learning data). The teacher data is composed of one or more pairs of pairs of input data and output data. The format and combination of the input data and the output data of the pair group that constitutes the teacher data are such that one is an image and the other is a numerical value, or one is composed of a plurality of image groups and the other is a character string. May be an image or the like, and may be suitable for a desired configuration.

具体的には、例えば、OCTによって取得された画像と、該画像に対応する撮影部位ラベルとのペア群によって構成された教師データ(以下、第1の教師データ)が挙げられる。なお、撮影部位ラベルは部位を表すユニークな数値や文字列である。また、その他の教師データの例として、OCTの通常撮影によって取得されたノイズの多い低画質画像と、OCTにより複数回撮影して高画質化処理した高画質画像とのペア群によって構成されている教師データ(以下、第2の教師データ)等が挙げられる。   Specifically, for example, teacher data (hereinafter, first teacher data) configured by a pair group of an image acquired by OCT and an imaged region label corresponding to the image can be cited. The imaged part label is a unique numerical value or character string representing the part. Further, as another example of the teacher data, it is composed of a pair group of a low-quality image with a lot of noise, which is acquired by normal OCT imaging, and a high-quality image that has been captured multiple times by OCT and has undergone high-quality processing. Examples include teacher data (hereinafter, second teacher data) and the like.

機械学習モデルに入力データを入力すると、該機械学習モデルの設計に従った出力データが出力される。機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、入力データに対応する可能性の高い出力データを出力する。また、機械学習モデルは、例えば、教師データを用いてトレーニングされた傾向に従って、出力データの種類のそれぞれについて、入力データに対応する可能性を数値として出力する等を行うことができる。具体的には、例えば、第1の教師データでトレーニングされた機械学習モデルにOCTによって取得された画像を入力すると、機械学習モデルは、該画像に撮影されている撮影部位の撮影部位ラベルを出力したり、撮影部位ラベル毎の確率を出力したりする。また、例えば、第2の教師データでトレーニングされた機械学習モデルにOCTの通常撮影によって取得されたノイズの多い低画質画像を入力すると、機械学習モデルは、OCTにより複数回撮影して高画質化処理された画像相当の高画質画像を出力する。なお、機械学習モデルについては、品質保持の観点から、自身が出力した出力データを教師データとして用いないように構成することができる。   When input data is input to the machine learning model, output data according to the design of the machine learning model is output. The machine learning model outputs output data that is highly likely to correspond to the input data, for example, according to the tendency trained using the teacher data. Further, the machine learning model can output the possibility of corresponding to the input data as a numerical value for each type of the output data according to the tendency of being trained using the teacher data, for example. Specifically, for example, when the image acquired by OCT is input to the machine learning model trained with the first teacher data, the machine learning model outputs the imaged part label of the imaged part imaged in the image. Or output the probability for each imaged part label. Further, for example, when a noisy low-quality image acquired by normal photographing of OCT is input to a machine learning model trained with the second teacher data, the machine learning model is photographed multiple times by OCT to improve the image quality. A high quality image equivalent to the processed image is output. Note that the machine learning model can be configured so that the output data output by itself is not used as teacher data from the viewpoint of maintaining quality.

また、機械学習アルゴリズムは、畳み込みニューラルネットワーク(CNN)等のディープラーニングに関する手法を含む。ディープラーニングに関する手法においては、ニューラルネットワークを構成する層群やノード群に対するパラメータの設定が異なると、教師データを用いてトレーニングされた傾向を出力データに再現可能な程度が異なる場合がある。例えば、第1の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、正しい撮影部位ラベルを出力する確率がより高くなる場合がある。また、例えば、第2の教師データを用いたディープラーニングの機械学習モデルにおいては、より適切なパラメータが設定されていると、より高画質な画像を出力できる場合がある。   Further, the machine learning algorithm includes a method related to deep learning such as convolutional neural network (CNN). In the method related to deep learning, the degree of reproducibility of the training tendency using the teacher data to the output data may be different when the setting of the parameters for the layer group and the node group forming the neural network is different. For example, in the deep learning machine learning model using the first teacher data, if more appropriate parameters are set, the probability of outputting a correct imaging region label may be higher. Further, for example, in a deep learning machine learning model using the second teacher data, higher quality images may be output when more appropriate parameters are set.

具体的には、CNNにおけるパラメータは、例えば、畳み込み層に対して設定される、フィルタのカーネルサイズ、フィルタの数、ストライドの値、及びダイレーションの値、並びに全結合層の出力するノードの数等を含むことができる。なお、パラメータ群やトレーニングのエポック数は、教師データに基づいて、機械学習モデルの利用形態に好ましい値に設定することができる。例えば、教師データに基づいて、正しい撮影部位ラベルをより高い確率で出力したり、より高画質な画像を出力したりできるパラメータ群やエポック数を設定することができる。   Specifically, the CNN parameters are, for example, the filter kernel size, the number of filters, the stride value, and the dilation value, which are set for the convolutional layer, and the number of nodes output by the fully connected layer. Etc. can be included. It should be noted that the parameter group and the number of training epochs can be set to values preferable for the usage form of the machine learning model based on the teacher data. For example, it is possible to set a parameter group and the number of epochs that can output a correct imaging region label with a higher probability and output a higher quality image based on the teacher data.

このようなパラメータ群やエポック数の決定方法の一つを例示する。まず、教師データを構成するペア群の7割をトレーニング用とし、残りの3割を評価用としてランダムに設定する。次に、トレーニング用のペア群を用いて機械学習モデルのトレーニングを行い、トレーニングの各エポックの終了時に、評価用のペア群を用いてトレーニング評価値を算出する。トレーニング評価値とは、例えば、各ペアを構成する入力データをトレーニング中の機械学習モデルに入力したときの出力と、入力データに対応する出力データとを損失関数によって評価した値群の平均値である。最後に、最もトレーニング評価値が小さくなったときのパラメータ群及びエポック数を、当該機械学習モデルのパラメータ群やエポック数として決定する。なお、このように、教師データを構成するペア群をトレーニング用と評価用とに分けてエポック数の決定を行うことによって、機械学習モデルがトレーニング用のペア群に対して過学習してしまうことを防ぐことができる。   One example of such a parameter group and a method of determining the number of epochs will be illustrated. First, 70% of the pair groups constituting the teacher data are used for training, and the remaining 30% are randomly set for evaluation. Next, the machine learning model is trained using the training pair group, and at the end of each epoch of training, the training evaluation value is calculated using the evaluation pair group. The training evaluation value is, for example, the average value of the value group evaluated by the loss function of the output when the input data forming each pair is input to the machine learning model during training and the output data corresponding to the input data. is there. Finally, the parameter group and the number of epochs when the training evaluation value becomes the smallest are determined as the parameter group and the number of epochs of the machine learning model. In this way, the machine learning model overtrains the pair group for training by determining the number of epochs by dividing the pair group forming the teacher data for training and for evaluation. Can be prevented.

高画質化エンジンとは、入力された低画質画像を高画質化した高画質画像を出力するモジュールのことである。ここで、本明細書における高画質化とは、入力された画像を画像診断により適した画質の画像に変換することをいい、高画質画像とは、画像診断により適した画質の画像に変換された画像をいう。また、低画質画像とは、例えば、X線撮影、CT、MRI、OCT、PET、若しくはSPECT等により取得された二次元画像や三次元画像、又は連続撮影したCTの三次元動画像等の特に高画質になるような設定をされずに撮影されたものである。具体的には、低画質画像は、例えば、X線撮影装置やCTによる低線量での撮影や、造影剤を使用しないMRIによる撮影、OCTの短時間撮影等によって取得される画像、及び少ない撮影回数で取得されたOCTA画像等を含む。   The high-quality image engine is a module that outputs a high-quality image obtained by improving the input low-quality image. Here, the term "higher image quality" in this specification means that an input image is converted into an image having an image quality more suitable for image diagnosis, and the high image quality is converted to an image having an image quality more suitable for image diagnosis. Image. In addition, the low-quality image is, for example, a two-dimensional image or a three-dimensional image acquired by X-ray imaging, CT, MRI, OCT, PET, SPECT, or the like, or a three-dimensional moving image of continuous CT. The image was taken without being set to achieve high image quality. Specifically, the low-quality image is, for example, an image acquired by low-dose imaging by an X-ray imaging apparatus or CT, imaging by MRI without using a contrast agent, short-time imaging by OCT, or low imaging. It includes OCTA images acquired by the number of times.

また、画像診断に適した画質の内容は、各種の画像診断で何を診断したいのかということに依存する。そのため一概には言えないが、例えば、画像診断に適した画質は、ノイズが少なかったり、高コントラストであったり、撮影対象を観察しやすい色や階調で示していたり、画像サイズが大きかったり、高解像度であったりする画質を含む。また、画像生成の過程で描画されてしまった実際には存在しないオブジェクトやグラデーションが画像から除去されているような画質を含むことができる。   Further, the content of image quality suitable for image diagnosis depends on what one wants to diagnose with various image diagnoses. Therefore, although it cannot be said unequivocally, for example, the image quality suitable for image diagnosis is low in noise, has high contrast, shows the shooting target in colors and gradations that are easy to observe, and has a large image size, Includes image quality such as high resolution. Further, it is possible to include an image quality in which an object or gradation that does not actually exist and which is drawn in the process of image generation is removed from the image.

また、ノイズが少なかったり、高コントラストであったりする高画質画像を、OCTA等の画像の血管解析処理や、CTやOCT等の画像の領域セグメンテーション処理等の画像解析に利用すると、低画質画像を利用するよりも精度よく解析が行えることが多い。そのため、高画質化エンジンによって出力された高画質画像は、画像診断だけでなく、画像解析にも有用である場合がある。   In addition, when a high-quality image with little noise or high contrast is used for blood vessel analysis processing of images such as OCTA and image analysis such as area segmentation processing of images such as CT and OCT, low-quality images are obtained. In many cases, the analysis can be performed more accurately than using it. Therefore, the high quality image output by the high quality engine may be useful not only for image diagnosis but also for image analysis.

下記の実施形態における高画質化手法を構成する画像処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像処理手法では、機械学習アルゴリズムを用いた処理に加えて、各種画像フィルタ処理、類似画像に対応する高画質画像のデータベースを用いたマッチング処理、及び知識ベース画像処理等の既存の任意の処理を行ってもよい。   In the image processing method that constitutes the image quality improving method in the following embodiments, processing using various machine learning algorithms such as deep learning is performed. In addition, in the image processing method, in addition to the processing using the machine learning algorithm, various existing image filtering processing, matching processing using a database of high-quality images corresponding to similar images, and knowledge base image processing are available. You may perform the process of.

特に、二次元画像を高画質化するCNNの構成例として、図1に示す構成がある。当該CNNの構成には、複数の畳み込み処理ブロック100群が含まれる。畳み込み処理ブロック100は、畳み込み(Convolution)層101と、バッチ正規化(Batch Normalization)層102と、正規化線形関数(RectifierLinear Unit)を用いた活性化層103とを含む。また、当該CNNの構成には、合成(Merger)層104と、最後の畳み込み層105が含まれる。合成層104は、畳み込み処理ブロック100の出力値群と画像を構成する画素値群とを連結したり、加算したりして合成する。最後の畳み込み層105は、合成層104で合成された、高画質画像Im120を構成する画素値群を出力する。このような構成では、入力された画像Im110を構成する画素値群が畳み込み処理ブロック100群を経て出力された値群と、入力された画像Im110を構成する画素値群とが、合成層104で合成される。その後、合成された画素値群は最後の畳み込み層105で高画質画像Im120に成形される。   In particular, the configuration shown in FIG. 1 is an example of the configuration of the CNN that improves the quality of a two-dimensional image. The CNN configuration includes a plurality of convolution processing block 100 groups. The convolution processing block 100 includes a convolution layer 101, a batch normalization layer 102, and an activation layer 103 using a normalized linear function (Rectifier Linear Unit). The CNN configuration also includes a merge (Merger) layer 104 and a final convolutional layer 105. The synthesizing layer 104 synthesizes the output value group of the convolution processing block 100 and the pixel value group forming the image by connecting or adding them. The final convolutional layer 105 outputs the pixel value group that is combined in the combining layer 104 and forms the high-quality image Im120. In such a configuration, the pixel value group forming the input image Im110 is output through the convolution processing block 100 group, and the pixel value group forming the input image Im110 is combined in the combining layer 104. Is synthesized. After that, the combined pixel value group is formed into the high-quality image Im120 at the final convolutional layer 105.

なお、例えば、畳み込み処理ブロック100の数を16とし、畳み込み層101群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の高画質化の効果を得られる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。   Note that, for example, by setting the number of convolution processing blocks 100 to 16 and setting the kernel size of the filter to 3 pixels wide, 3 pixels high, and 64 filters as parameters of the convolutional layer 101 group, a constant high image quality is obtained. You can get the effect of. However, actually, as described in the description of the machine learning model above, it is possible to set a better parameter group by using the teacher data according to the usage pattern of the machine learning model. When it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be expanded to three-dimensional or four-dimensional.

なお、CNNを用いた画像処理等、一部の画像処理手法を利用する場合には画像サイズについて注意する必要がある。具体的には、高画質画像の周辺部が十分に高画質化されない問題等の対策のため、入力する低画質画像と出力する高画質画像とで異なる画像サイズを要する場合があることに留意すべきである。   When using some image processing methods such as image processing using CNN, it is necessary to pay attention to the image size. Specifically, it should be noted that different image sizes may be required for the input low-quality image and the output high-quality image in order to deal with the problem that the peripheral portion of the high-quality image is not sufficiently improved in image quality. Should be.

明瞭な説明のため、後述の実施形態において明記はしないが、高画質化エンジンに入力される画像と出力される画像とで異なる画像サイズを要する高画質化エンジンを採用した場合には、適宜画像サイズを調整しているものとする。具体的には、機械学習モデルをトレーニングするための教師データに用いる画像や、高画質化エンジンに入力される画像といった入力画像に対して、パディングを行ったり、該入力画像の周辺の撮影領域を結合したりして、画像サイズを調整する。なお、パディングを行う領域は、効果的に高画質化できるように高画質化手法の特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。   For the sake of clear explanation, although not specified in the embodiments described below, if an image quality improvement engine that requires different image sizes for the image input to the image quality improvement engine and the output image is adopted, an appropriate image It is assumed that the size is adjusted. Specifically, padding is performed on an input image such as an image used as teacher data for training a machine learning model or an image input to the image quality enhancement engine, or a shooting area around the input image is set. Adjust the image size by combining them. The area to be padded is filled with a fixed pixel value, filled with a neighboring pixel value, or mirror-padded according to the characteristics of the image quality improving method so that the image quality can be effectively improved.

また、高画質化手法は、一つの画像処理手法だけで実施されることもあるし、二つ以上の画像処理手法を組み合わせて実施されることもある。また、複数の高画質化手法群を並列に実施し、複数の高画質画像群を生成した上で、最も高画質な高画質画像を最終的に高画質画像として選択することもある。なお、最も高画質な高画質画像の選択は、画質評価指数を用いて自動的に行われてもよいし、任意の表示部等に備えられたユーザーインターフェースに複数の高画質画像群を表示して、検者(ユーザー)の指示に応じて行われてもよい。   Further, the image quality improving method may be implemented by only one image processing method, or may be implemented by combining two or more image processing methods. In addition, a plurality of high image quality method groups may be performed in parallel to generate a plurality of high quality image groups, and then the highest quality image may be finally selected as the high quality image. It should be noted that the selection of the highest quality image may be automatically performed using the image quality evaluation index, or a plurality of high quality image groups may be displayed on the user interface provided in an arbitrary display unit or the like. Then, it may be performed according to an instruction from an examiner (user).

なお、高画質化していない入力画像の方が、画像診断に適している場合もあるので、最終的な画像の選択の対象には入力画像を加えてよい。また、高画質化エンジンに対して、低画質画像とともにパラメータを入力してもよい。高画質化エンジンに対して、入力画像とともに、例えば、高画質化を行う程度を指定するパラメータや、画像処理手法に用いられる画像フィルタサイズを指定するパラメータを入力してもよい。   In some cases, the input image that has not been improved in image quality is more suitable for image diagnosis. Therefore, the input image may be added to the final image selection target. Further, parameters may be input to the high image quality engine together with the low image quality image. For example, a parameter that specifies the degree of image quality enhancement or a parameter that specifies the image filter size used in the image processing method may be input to the image quality enhancement engine together with the input image.

撮影箇所推定エンジンとは、入力された画像の撮影部位や撮影領域を推定するモジュールのことである。撮影箇所推定エンジンは、入力された画像に描画されている撮影部位や撮影領域がどこであるか、又は必要な詳細レベルの撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力することができる。   The shooting location estimation engine is a module that estimates a shooting location and a shooting area of an input image. The image capturing position estimation engine determines where the image capturing region or image capturing region drawn in the input image is, or for each required detail level image capturing region label or image capturing region label, the probability of being the image capturing region or image capturing region. Can be output.

撮影部位や撮影領域は、撮影装置によっては撮影条件として保存していない、又は撮影装置が取得できず保存できていない場合がある。また、撮影部位や撮影領域が保存されていても、必要な詳細レベルの撮影部位や撮影領域が保存されていない場合もある。例えば、撮影部位として“後眼部”と保存されているだけで、詳細には“黄斑部”なのか、“視神経乳頭部”なのか、又は、“黄斑部及び視神経乳頭部”なのか、“その他”なのかが分からないことがある。また、別の例では、撮影部位として“乳房”と保存されているだけで、詳細には“右乳房”なのか、“左乳房”なのか、又は、“両方”なのかが分からないことがある。そのため、撮影箇所推定エンジンを用いることで、これらの場合に入力画像の撮影部位や撮影領域を推定することができる。   Depending on the image capturing device, the image capturing part or the image capturing region may not be stored as image capturing conditions, or the image capturing device may not be able to acquire the image capturing region and may not store it. Further, even if the imaged region or the imaged region is stored, the imaged region or the imaged region at a necessary detail level may not be stored. For example, it is simply stored as "the posterior segment of the eye" as an imaged part, and in detail, it is "macular part", "optic papilla", or "macular and optic papilla", " There are times when I don't know if it is "other." In another example, only "breast" is stored as an imaged part, and it is not known in detail whether it is "right breast", "left breast", or "both". is there. Therefore, by using the imaging part estimation engine, the imaging part and the imaging region of the input image can be estimated in these cases.

撮影箇所推定エンジンの推定手法を構成する画像及びデータ処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画像及びデータ処理手法では、機械学習アルゴリズムを用いた処理に加えて又は代えて、自然言語処理、類似画像及び類似データのデータベースを用いたマッチング処理、知識ベース処理等の既存の任意の推定処理を行ってもよい。なお、機械学習アルゴリズムを用いて構築した機械学習モデルをトレーニングする教師データは、撮影部位や撮影領域のラベルが付けられた画像とすることができる。この場合には、教師データの画像を入力データ、撮影部位や撮影領域のラベルを出力データとする。   In the image and data processing method that constitutes the estimation method of the shooting location estimation engine, processing using various machine learning algorithms such as deep learning is performed. In addition, in the image and data processing method, in addition to or in place of the processing using the machine learning algorithm, any existing existing processing such as natural language processing, matching processing using a database of similar images and similar data, knowledge base processing, etc. The estimation process may be performed. Note that the teacher data for training the machine learning model constructed by using the machine learning algorithm can be an image labeled with the imaged region or the imaged region. In this case, the image of the teacher data is used as the input data, and the label of the imaged region or the imaged region is used as the output data.

特に、二次元画像の撮影箇所を推定するCNNの構成例として、図2に示す構成がある。当該CNNの構成には、畳み込み層201とバッチ正規化層202と正規化線形関数を用いた活性化層203とで構成された複数の畳み込み処理ブロック200群が含まれる。また、当該CNNの構成には、最後の畳み込み層204と、全結合(Full Connection)層205と、出力層206が含まれる。全結合層205は畳み込み処理ブロック200の出力値群を全結合する。また、出力層206は、Softmax関数を利用して、入力画像Im210に対する、想定される撮影部位ラベル毎の確率を推定結果(Result)207として出力する。このような構成では、例えば、入力画像Im210が“黄斑部”を撮影した画像であれば、“黄斑部に対応する撮影部位ラベルについて最も高い確率が出力される。   In particular, there is a configuration shown in FIG. 2 as a configuration example of the CNN that estimates the shooting location of the two-dimensional image. The configuration of the CNN includes a plurality of convolution processing blocks 200 including a convolutional layer 201, a batch normalization layer 202, and an activation layer 203 using a normalized linear function. Further, the CNN configuration includes a final convolutional layer 204, a full connection layer 205, and an output layer 206. The total combination layer 205 fully combines the output value groups of the convolution processing block 200. Further, the output layer 206 uses the Softmax function to output the probability of each assumed imaging region label for the input image Im 210 as an estimation result (Result) 207. In such a configuration, for example, if the input image Im210 is an image of a “macular part”, the highest probability is output for the “imaged part label corresponding to the macular part”.

なお、例えば、畳み込み処理ブロック200の数を16、畳み込み層201群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度で撮影部位を推定することができる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。なお、推定手法は、一つの画像及びデータ処理手法だけで実施されることもあるし、二つ以上の画像及びデータ処理手法を組み合わせて実施されることもある。   Note that, for example, the number of convolution processing blocks 200 is 16, the kernel size of the filter is 3 pixels wide, 3 pixels high, and the number of filters is 64 as parameters of the convolutional layer 201 group. The site can be estimated. However, actually, as described in the description of the machine learning model above, it is possible to set a better parameter group by using the teacher data according to the usage pattern of the machine learning model. When it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be expanded to three-dimensional or four-dimensional. Note that the estimation method may be performed by only one image and data processing method, or may be performed by combining two or more image and data processing methods.

画質評価エンジンとは、入力された画像に対する画質評価指数を出力するモジュールのことである。画質評価指数を算出する画質評価処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、当該画質評価処理手法では、画像ノイズ計測アルゴリズム、及び類似画像や基底画像に対応する画質評価指数のデータベースを用いたマッチング処理等の既存の任意の評価処理を行ってもよい。なお、これらの評価処理は、機械学習アルゴリズムを用いた処理に加えて又は代えて行われてよい。   The image quality evaluation engine is a module that outputs an image quality evaluation index for an input image. In the image quality evaluation processing method for calculating the image quality evaluation index, processing using various machine learning algorithms such as deep learning is performed. In the image quality evaluation processing method, any existing evaluation processing such as image noise measurement algorithm and matching processing using a database of image quality evaluation indexes corresponding to similar images and base images may be performed. Note that these evaluation processes may be performed in addition to or in place of the process using the machine learning algorithm.

例えば、画質評価指数は機械学習アルゴリズムを用いて構築した機械学習モデルより得ることができる。この場合、機械学習モデルをトレーニングする教師データを構成するペアの入力データは、事前に様々な撮影条件によって撮影された低画質画像群と高画質画像群とで構成される画像群である。また、機械学習モデルをトレーニングする教師データを構成するペアの出力データは、例えば、画像診断を行う検者が入力データの画像群のそれぞれについて設定した画質評価指数群である。   For example, the image quality evaluation index can be obtained from a machine learning model constructed using a machine learning algorithm. In this case, the input data of the pair forming the teacher data for training the machine learning model is an image group including a low image quality image group and a high image quality image group captured in advance under various image capturing conditions. Further, the output data of the pair forming the teacher data for training the machine learning model is, for example, the image quality evaluation index group set for each image group of the input data by the examiner who performs image diagnosis.

本発明の説明における真贋評価エンジンとは、入力された画像の描画を評価して、対象の撮影装置によって撮影され取得された画像か否かを、ある程度の精度で評価するモジュールである。真贋評価処理手法では、ディープラーニング等の各種機械学習アルゴリズムを用いた処理を行う。なお、真贋評価処理手法では、機械学習アルゴリズムを用いた処理に加えて又は代えて、知識ベース処理等の既存の任意の評価処理を行ってもよい。   The authenticity evaluation engine in the description of the present invention is a module that evaluates the drawing of an input image and evaluates with a certain degree of accuracy whether or not the image is captured and acquired by the target imaging device. In the authenticity evaluation processing method, processing using various machine learning algorithms such as deep learning is performed. In the authenticity evaluation processing method, any existing evaluation processing such as knowledge base processing may be performed in addition to or instead of the processing using the machine learning algorithm.

例えば、真贋評価処理は機械学習アルゴリズムを用いて構築した機械学習モデルにより実施することができる。まず、機械学習モデルの教師データについて説明する。教師データには、事前に様々な撮影条件によって撮影された高画質画像群と対象の撮影装置によって撮影され取得されたことを表すラベル(以下、真作ラベル)とのペア群が含まれる。また、教師データには、高画質化エンジン(第1レベルの高画質化エンジン)に低画質画像を入力して生成した高画質画像群と対象の撮影装置によって撮影され取得されていないことを表すラベル(以下、贋作ラベル)とのペア群が含まれる。このような教師データを用いてトレーニングした機械学習モデルは、第1レベルの高画質化エンジンが生成する高画質画像が入力されると贋作ラベルを出力する。   For example, the authenticity evaluation process can be performed by a machine learning model constructed using a machine learning algorithm. First, the teacher data of the machine learning model will be described. The teacher data includes a pair group of a high-quality image group previously captured under various image capturing conditions and a label (hereinafter, a genuine label) indicating that the image is captured and acquired by the target image capturing apparatus. Further, the teacher data represents that a high-quality image group generated by inputting a low-quality image to the high-quality image engine (first-level high-quality image engine) and that the target image capturing apparatus has not captured and acquired the image data. A group of pairs with labels (hereinafter, counterfeit labels) is included. The machine learning model trained using such teacher data outputs a counterfeit label when a high-quality image generated by the first-level image quality improving engine is input.

特に、二次元画像の真贋評価処理を行うCNNの構成例として、図3に示す構成がある。当該CNNの構成には、畳み込み層301と、バッチ正規化層302と、正規化線形関数を用いた活性化層303とで構成された複数の畳み込み処理ブロック300群が含まれる。また、当該CNNの構成には、最後の畳み込み層304と、全結合層305と、出力層306が含まれる。全結合層305は、畳み込み処理ブロック300の出力値群を全結合する。また、出力層306は、Sigmoid関数を利用して、入力画像Im310に対して、真作ラベルを表す1の値(真)又は贋作ラベルを表す0の値(偽)を、真贋評価処理の結果(Result)307として出力する。   In particular, there is a configuration shown in FIG. 3 as a configuration example of the CNN that performs the authenticity evaluation processing of a two-dimensional image. The configuration of the CNN includes a plurality of convolution processing blocks 300 including a convolutional layer 301, a batch normalization layer 302, and an activation layer 303 using a normalized linear function. The CNN configuration also includes a final convolutional layer 304, a fully coupled layer 305, and an output layer 306. The fully connected layer 305 fully combines the output value groups of the convolution processing block 300. Further, the output layer 306 uses the sigmoid function to set a value of 1 (true) indicating a genuine label or a value of 0 (false) indicating a false label to the input image Im 310 as a result of the falsehood evaluation processing. (Result) 307 is output.

なお、畳み込み処理ブロック300の数を16、畳み込み層301群のパラメータとして、フィルタのカーネルサイズを幅3画素、高さ3画素、フィルタの数を64とすることで、一定の精度で正しい真贋評価処理の結果を得られる。しかしながら、実際には上記の機械学習モデルの説明において述べた通り、機械学習モデルの利用形態に応じた教師データを用いて、より良いパラメータ群を設定することができる。なお、三次元画像や四次元画像を処理する必要がある場合には、フィルタのカーネルサイズを三次元や四次元に拡張してもよい。   Note that the number of convolution processing blocks 300 is 16, the filter kernel size is 3 pixels wide, 3 pixels high, and the number of filters is 64 as parameters of the convolutional layer 301 group. The processing result can be obtained. However, actually, as described in the description of the machine learning model above, it is possible to set a better parameter group by using the teacher data according to the usage pattern of the machine learning model. When it is necessary to process a three-dimensional image or a four-dimensional image, the kernel size of the filter may be expanded to three-dimensional or four-dimensional.

真贋評価エンジンは、第1レベルの高画質化エンジンよりも高度に高画質化する高画質化エンジン(第2レベルの高画質化エンジン)が生成する高画質画像が入力されると真作ラベルを出力することがある。つまり、真贋評価エンジンは入力された画像に対し、確実に撮影装置によって撮影され取得された画像か否かを評価できるわけではないが、撮影装置によって撮影され取得された画像らしさを持つ画像か否かを評価できる。この特性を利用して、真贋評価エンジンに高画質化エンジンが生成した高画質画像を入力することで、高画質化エンジンが生成した高画質画像が十分に高画質化されているか否かを評価できる。   The authenticity evaluation engine produces a genuine label when a high-quality image generated by a high-quality image engine (second-level image quality improvement engine) that produces higher image quality than the first-level image quality improvement engine is input. May be output. In other words, the authenticity evaluation engine cannot reliably evaluate whether or not the input image is an image captured and acquired by the image capturing device, but whether the input image is an image having image-likeness captured and acquired by the image capturing device. Can be evaluated. By using this characteristic, input the high quality image generated by the high quality image generation engine to the authenticity evaluation engine, and evaluate whether the high quality image generated by the high quality image generation engine is sufficiently high quality or not. it can.

また、高画質化エンジンの機械学習モデルと真贋評価エンジンの機械学習モデルとを協調させてトレーニングすることによって、双方のエンジンの効率や精度を向上させてもよい。この場合には、まず、高画質化エンジンが生成する高画質画像を真贋評価エンジンに評価させると真作ラベルが出力されるように、該高画質化エンジンの機械学習モデルをトレーニングする。また、並行して、高画質化エンジンが生成する画像を真贋評価エンジンに評価させると贋作ラベルを出力するように、該真贋評価エンジンの機械学習モデルをトレーニングさせる。さらに、並行して、撮影装置によって取得された画像を真贋評価エンジンに評価させると真作ラベルを出力するように、該真贋評価エンジンの機械学習モデルをトレーニングさせる。これによって、高画質化エンジンと真贋評価エンジンの効率や精度が向上する。   Further, the machine learning model of the image quality improving engine and the machine learning model of the authenticity evaluation engine may be trained in cooperation with each other to improve the efficiency and accuracy of both engines. In this case, first, the machine learning model of the image quality improving engine is trained so that the authenticity evaluation engine outputs a high quality image generated by the image quality improving engine so that a true label is output. Further, in parallel, the machine learning model of the authentication evaluation engine is trained so that the authentication label is output when the authentication evaluation engine evaluates the image generated by the image quality enhancement engine. Further, in parallel, the machine learning model of the authenticity evaluation engine is trained so that the authenticity evaluation engine outputs an authentic label when the image acquired by the image capturing apparatus is evaluated. This improves the efficiency and accuracy of the image quality improvement engine and the authenticity evaluation engine.

<第1の実施形態>
以下、図4及び5を参照して、第1の実施形態による医用画像処理装置について説明する。図4は、本実施形態に係る画像処理装置の概略的な構成の一例を示す。
<First Embodiment>
Hereinafter, the medical image processing apparatus according to the first embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 shows an example of a schematic configuration of the image processing apparatus according to this embodiment.

画像処理装置400は、撮影装置10及び表示部20に、回路やネットワークを介して接続されている。また、撮影装置10及び表示部20が直接接続されていてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。   The image processing device 400 is connected to the imaging device 10 and the display unit 20 via a circuit or a network. Further, the image capturing device 10 and the display unit 20 may be directly connected. Although these devices are separate devices in the present embodiment, some or all of these devices may be integrally configured. Further, these devices may be connected to any other device via a circuit or a network, or may be configured integrally with any other device.

画像処理装置400には、取得部401と、撮影条件取得部402と、高画質化可否判定部403と、高画質化部404と、出力部405(表示制御部)とが設けられている。なお、画像処理装置400は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。取得部401は、撮影装置10や他の装置から各種データや画像を取得したり、不図示の入力装置を介して検者からの入力を取得したりすることができる。なお、入力装置としては、マウス、キーボード、タッチパネル及びその他任意の入力装置を採用してよい。また、表示部20をタッチパネルディスプレイとして構成してもよい。   The image processing apparatus 400 is provided with an acquisition unit 401, a shooting condition acquisition unit 402, an image quality improvement possibility determination unit 403, an image quality improvement unit 404, and an output unit 405 (display control unit). The image processing apparatus 400 may be composed of a plurality of devices provided with some of these components. The acquisition unit 401 can acquire various data and images from the imaging device 10 and other devices, and can acquire input from an examiner via an input device (not shown). A mouse, a keyboard, a touch panel, or any other input device may be used as the input device. Further, the display unit 20 may be configured as a touch panel display.

撮影条件取得部402は、取得部401が取得した医用画像(入力画像)の撮影条件を取得する。具体的には、医用画像のデータ形式に応じて、医用画像を構成するデータ構造に保存された撮影条件群を取得する。なお、医用画像に撮影条件が保存されていない場合には、取得部401を介して、撮影装置10や画像管理システムから撮影条件群を含む撮影情報群を取得することができる。   The imaging condition acquisition unit 402 acquires the imaging conditions of the medical image (input image) acquired by the acquisition unit 401. Specifically, the imaging condition group stored in the data structure forming the medical image is acquired according to the data format of the medical image. If the medical image does not store the shooting conditions, the shooting unit 401 can acquire the shooting information group including the shooting condition group from the shooting apparatus 10 or the image management system.

高画質化可否判定部403は、撮影条件取得部402によって取得された撮影条件群を用いて高画質化部404によって医用画像が対処可能であるか否かを判定する。高画質化部404は、対処可能である医用画像について高画質化を行い、画像診断に適した高画質画像を生成する。出力部405は、高画質化部404が生成した高画質画像や入力画像、各種情報等を表示部20に表示させる。また、出力部405は、生成された高画質画像等を画像処理装置400に接続される記憶装置に記憶させてもよい。   The image quality improvement possibility determination unit 403 determines whether or not the medical image can be dealt with by the image quality improvement unit 404 using the imaging condition group acquired by the imaging condition acquisition unit 402. The image quality enhancement unit 404 enhances the image quality of a medical image that can be dealt with, and generates a high quality image suitable for image diagnosis. The output unit 405 causes the display unit 20 to display the high-quality image generated by the high-quality image generation unit 404, the input image, various information, and the like. The output unit 405 may store the generated high-quality image or the like in a storage device connected to the image processing device 400.

次に、高画質化部404について詳細に説明する。高画質化部404には高画質化エンジンが備えられている。本実施形態に係る高画質化エンジンの備える高画質化手法では、機械学習アルゴリズムを用いた処理を行う。   Next, the image quality improving unit 404 will be described in detail. The image quality improving unit 404 includes an image quality improving engine. The image quality improving method provided in the image quality improving engine according to the present embodiment performs processing using a machine learning algorithm.

本実施形態では、機械学習アルゴリズムに係る機械学習モデルのトレーニングに、処理対象として想定される特定の撮影条件を持つ低画質画像である入力データと、入力データに対応する高画質画像である出力データのペア群で構成された教師データを用いる。なお、特定の撮影条件には、具体的には、予め決定された撮影部位、撮影方式、撮影画角、及び画像サイズ等が含まれる。   In the present embodiment, in training of a machine learning model according to a machine learning algorithm, input data that is a low-quality image having a specific shooting condition assumed as a processing target and output data that is a high-quality image corresponding to the input data. The teacher data composed of a pair group of is used. It should be noted that the specific shooting condition specifically includes a predetermined shooting site, shooting method, shooting angle of view, image size, and the like.

本実施形態において、教師データの入力データは、撮影装置10と同じ機種、撮影装置10と同じ設定により取得された低画質画像である。また、教師データの出力データは、撮影装置10と同じ機種が備える設定や画像処理により取得された高画質画像である。具体的には、出力データは、例えば、複数回撮影することにより取得した画像(元画像)群に対して加算平均等の重ね合わせ処理を行うことにより得られる高画質画像(重ね合わせ画像)である。ここで、高画質画像と低画質画像についてOCTAのモーションコントラストデータを例として説明をする。ここで、モーションコントラストデータとは、OCTA等で用いられる、撮影対象の同一箇所を繰り返し撮影し、その撮影間における撮影対象の時間的な変化を検出したデータである。このとき、算出したモーションコントラストデータのうち、撮影対象の深さ方向における所望の範囲のデータを用いて正面画像を生成することで、OCTAのEn−Face画像(モーションコントラスト正面画像)を生成することができる。なお、以下では同一箇所におけるOCTデータを繰り返し撮影することをNOR(Number Of Repeat)と呼ぶ。   In the present embodiment, the input data of the teacher data is a low-quality image acquired by the same model as the image capturing apparatus 10 and the same settings as the image capturing apparatus 10. The output data of the teacher data is a high-quality image acquired by the setting and image processing provided in the same model as the image capturing apparatus 10. Specifically, the output data is, for example, a high-quality image (superimposed image) obtained by performing superimposing processing such as averaging on a group of images (original images) acquired by photographing multiple times. is there. Here, the high-quality image and the low-quality image will be described using OCTA motion contrast data as an example. Here, the motion contrast data is data used in OCTA or the like, which is obtained by repeatedly photographing the same portion of the photographing target and detecting a temporal change of the photographing target during the photographing. At this time, an en-face image of OCTA (motion contrast front image) is generated by generating a front image using data of a desired range in the depth direction of the imaging target among the calculated motion contrast data. You can It should be noted that in the following, repetitive imaging of OCT data at the same location will be referred to as NOR (Number Of Repeat).

本実施形態において、重ね合わせ処理による高画質画像と低画質画像の生成例として異なる2種類の方法について図28を用いて説明をする。   In the present embodiment, two different methods will be described with reference to FIG. 28 as examples of generating a high-quality image and a low-quality image by superimposing processing.

第一の方法は、高画質画像の例として、撮影対象の同一箇所を繰り返し撮影したOCTデータから生成するモーションコントラストデータに関して、図28(a)を用いて説明する。図28(a)において、Im2810は3次元のモーションコントラストデータ、Im2811は3次元のモーションコントラストデータを構成する2次元のモーションコントラストデータを示す。そして、Im2811−1〜Im2811−3は、Im2811を生成するためのOCT断層画像(Bスキャン)を示している。ここで、NORとは、図28(a)においては、Im2811−1〜Im2811−3におけるOCT断層画像の数の事を示し、図の例においてNORは3である。Im2811−1〜Im2811−3は所定の時間間隔(Δt)で撮影される。なお、同一箇所とは被検眼の正面方向(X−Y)において、1ラインの事を示し、図28(a)においては、Im2811の箇所に相当する。モーションコントラストデータは時間的な変化を検出したデータであるため、このデータを生成するためには、少なくともNORは2回とする必要がある。例えば、NORが2の場合には、1つのモーションコントラストデータが生成される。NORが3の場合には、隣接する時間間隔(1回目と2回目、2回目と3回目)のOCTのみでモーションコントラストデータを生成する場合には、2つのデータが生成される。離れた時間間隔(1回目と3回目)のOCTデータも用いてモーションコントラストデータを生成する場合には、合計3つのデータが生成される。すなわち、NORを3回、4回、・・・と増やしていくと、同一箇所におけるモーションコントラストのデータ数も増加する。同一箇所を繰り返し撮影して取得した複数のモーションコントラストデータを位置合わせして加算平均等の重ね合わせ処理をすることで、高画質なモーションコントラストデータを生成することが出来る。そのため、NORを少なくとも3回以上とし、5回以上とするのが望ましい。一方、これに対応する低画質画像の例としては、加算平均等の重ね合わせ処理を行う前のモーションコントラストデータとする。この場合、低画質画像は加算平均等の重ね合わせ処理を行う際の基準画像とするのが望ましい。重ね合わせ処理をする際に、基準画像に対して対象画像の位置や形状を変形して位置合わせを行っておけば、基準画像と重ね合わせ処理後の画像とでは空間的な位置ずれがほとんどない。そのため、容易に低画質画像と高画質画像のペアとすることが出来る。なお、基準画像ではなく位置合わせの画像変形処理を行った対象画像を低画質画像としてもよい。元画像群(基準画像と対象画像)のそれぞれを入力データ、対応する重ね合わせ画像を出力データとすることで、複数のペア群を生成することができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合、元画像群のうちの一つ目の元画像と重ね合わせ画像とのペア、元画像群のうちの二つ目の元画像と重ね合わせ画像とのペアを生成することができる。このように、15の元画像群から1の重ね合わせ画像を得る場合には、元画像群のうちの一つの画像と重ね合わせ画像による15のペア群が生成可能である。なお、主走査(X)方向に同一箇所を繰り返し撮影し、それを副走査(Y)方向にずらしながらスキャンをすることで3次元の高画質データを生成することが出来る。   The first method will be described with reference to FIG. 28A with regard to motion contrast data generated from OCT data obtained by repeatedly photographing the same portion of a photographing target as an example of a high-quality image. In FIG. 28A, Im2810 indicates three-dimensional motion contrast data, and Im2811 indicates two-dimensional motion contrast data forming the three-dimensional motion contrast data. Then, Im2811-1 to Im2811-1 indicate OCT tomographic images (B scan) for generating Im2811. Here, NOR means the number of OCT tomographic images in Im2811-1 to Im2811-1-3 in FIG. 28A, and NOR is 3 in the example of the figure. Im2811-1 to Im2813-1 are photographed at predetermined time intervals (Δt). Note that the same location means one line in the front direction (X-Y) of the eye to be inspected, and corresponds to the location of Im2811 in FIG. 28 (a). Since the motion contrast data is data in which a temporal change is detected, it is necessary to set the NOR at least twice in order to generate this data. For example, when NOR is 2, one motion contrast data is generated. When the NOR is 3, when the motion contrast data is generated only by the OCT of the adjacent time intervals (first and second times, second and third times), two data are generated. When motion contrast data is also generated using OCT data at distant time intervals (first time and third time), a total of three data is generated. That is, when NOR is increased three times, four times, ..., The number of motion contrast data at the same location also increases. It is possible to generate high-quality motion contrast data by aligning a plurality of motion contrast data obtained by repeatedly photographing the same location and performing an overlay process such as an averaging process. Therefore, it is desirable to set NOR to at least 3 times or more and 5 times or more. On the other hand, as an example of a low-quality image corresponding to this, the motion contrast data before the superimposing process such as the averaging is performed. In this case, it is desirable that the low image-quality image be used as a reference image when performing overlay processing such as arithmetic mean. When performing the overlay processing, if the position and shape of the target image are deformed and aligned with respect to the reference image, there is almost no spatial misalignment between the reference image and the image after the overlay processing. . Therefore, a low-quality image and a high-quality image can be easily paired. It should be noted that the target image, which has undergone the image transformation process for alignment, may be the low-quality image, instead of the reference image. By using each of the original image groups (reference image and target image) as input data and the corresponding superimposed image as output data, a plurality of pair groups can be generated. For example, in the case of obtaining one superimposed image from 15 original image groups, a pair of the first original image of the original image group and the superimposed image, a second original image of the original image group, A pair with the superimposed image can be generated. In this way, when one superposed image is obtained from the fifteen original image group, one pair of the original image group and fifteen pairs of superposed images can be generated. Note that three-dimensional high-quality image data can be generated by repeatedly photographing the same portion in the main scanning (X) direction and scanning it while shifting it in the sub scanning (Y) direction.

第二の方法は、撮影対象の同一領域を複数回撮影したモーションコントラストデータを重ね合わせ処理することで高画質画像を生成する処理に関して、図28(b)を用いて説明する。なお、同一領域とは被検眼の正面方向(X−Y)において、3×3mmや10×10mmのような領域の事を示し、断層画像の深さ方向を含めて3次元のモーションコントラストデータを取得することを意味する。同一領域を複数回撮影して重ね合わせ処理を行う際には、1回あたりの撮影を短くするため、NORは2回か3回とすることが望ましい。また、高画質な3次元モーションコントラストデータを生成するために、同一領域の3次元データを少なくとも2データ以上取得する。図28(b)では、複数の3次元モーションコントラストデータの例を示している。Im2820〜Im2840は、図28(a)で説明したのと同様に3次元のモーションコントラストデータである。これら2データ以上の3次元モーションコントラストデータを用いて、正面方向(X−Y)と深度方向(Z)の位置合わせ処理を行い、それぞれのデータにおいてアーティファクトとなるデータを除外した後に、平均化処理を行う。それによりアーティファクトの除外された1つの高画質な3次元モーションコントラストデータを生成することが出来る。3次元モーションコントラストデータから任意の平面を生成することで高画質画像となる。一方、これに対応する低画質画像は加算平均等の重ね合わせ処理を行う際の基準データから生成する任意の平面とするのが望ましい。第一の方法で説明したように、基準画像と加算平均後の画像とでは空間的な位置ずれがほとんどないため、容易に低画質画像と高画質画像のペアとすることが出来る。なお、基準データではなく位置合わせの画像変形処理を行った対象データから生成した任意の平面を低画質画像としてもよい。   The second method will be described with reference to FIG. 28 (b), regarding processing for generating a high-quality image by superimposing motion contrast data obtained by shooting the same region of the shooting target multiple times. In addition, the same region refers to a region such as 3 × 3 mm or 10 × 10 mm in the front direction (X-Y) of the eye to be inspected, and includes three-dimensional motion contrast data including the depth direction of the tomographic image. Means to get. When the same region is photographed a plurality of times and the overlapping process is performed, it is desirable to set NOR to 2 or 3 times in order to shorten the photographing per time. Further, in order to generate high-quality three-dimensional motion contrast data, at least two or more pieces of three-dimensional data in the same area are acquired. FIG. 28B shows an example of a plurality of three-dimensional motion contrast data. Im2820 to Im2840 are three-dimensional motion contrast data as described with reference to FIG. Using the three-dimensional motion contrast data of two or more data, alignment processing in the front direction (X-Y) and depth direction (Z) is performed, and the data that becomes an artifact in each data is excluded, and then the averaging processing is performed. I do. This makes it possible to generate one high-quality three-dimensional motion contrast data from which artifacts are excluded. A high quality image is obtained by generating an arbitrary plane from the three-dimensional motion contrast data. On the other hand, it is preferable that the low-quality image corresponding to this is an arbitrary plane generated from the reference data when performing the overlay processing such as the averaging. As described in the first method, there is almost no spatial positional deviation between the reference image and the image after the addition and averaging, so that a low-quality image and a high-quality image can be easily paired. It should be noted that any plane generated from the target data that has undergone the image transformation process of alignment instead of the reference data may be the low image quality image.

第一の方法は、撮影自体が1回で終了するため被験者の負担は少ない。しかし、NORの回数を増やすほど1回の撮影時間が長くなってしまう。また、撮影途中に目の混濁や睫毛などのアーティファクトが入った場合には必ずしも良い画像が得られるとは限らない。第二の方法は、複数回撮影を行うため被験者の負担は少し増えてしまう。しかし、1回の撮影時間が短く済むのと、1回の撮影でアーティファクトが入ったとしても、別の撮影でアーティファクトが写らなければ最終的にはアーティファクトの少ないきれいな画像を得ることが出来る。これらの特徴を鑑みて、データを集める際には被験者の状況に合わせて任意の方法を選択する。   In the first method, the burden on the subject is small because the shooting itself is completed once. However, as the number of NORs increases, the shooting time for one shooting becomes longer. In addition, a good image is not always obtained when an artifact such as cloudiness of the eyes or eyelashes is included in the shooting. In the second method, the burden on the subject is slightly increased because the images are taken multiple times. However, one shooting time is short, and even if an artifact is included in one shooting, if the artifact is not captured in another shooting, a beautiful image with few artifacts can be finally obtained. Considering these characteristics, when collecting data, an arbitrary method is selected according to the subject's situation.

本実施形態では、モーションコントラストデータを例として説明をしたがこれに限らない。モーションコントラストデータを生成するためにOCTデータを撮影しているため、OCTデータでも上記の方法で同じことが可能である。さらに、本実施形態においてトラッキング処理について説明を省略したが、被検眼の同一箇所や同一領域を撮影するため、被検眼のトラッキングを行いながら撮影を行うことが望ましい。   Although the present embodiment has been described by taking the motion contrast data as an example, the present invention is not limited to this. Since the OCT data is captured to generate the motion contrast data, the same method can be applied to the OCT data by the above method. Further, although the description of the tracking process is omitted in the present embodiment, it is desirable to perform imaging while tracking the eye to be inspected because the same area or the same area of the eye to be inspected is imaged.

本実施形態において、3次元の高画質データと低画質データのペアが出来ているため、ここから任意の2次元画像のペアを生成することが出来る。これに関して、図29を用いて説明をする。例えば、対象画像をOCTAのEn−Face画像とする場合、3次元データから所望の深度範囲でOCTAのEn−Face画像を生成する。所望の深度範囲とは、図28においてZ方向における範囲の事を示す。ここで生成するOCTAのEn−Face画像の例を図29(a)に示す。OCTAのEn−Face画像としては、表層(Im2910)、深層(Im2920)、外層(Im2930)、脈絡膜血管網(Im2940)など、異なる深度範囲で生成したOCTAのEn−Face画像を用いて学習を行う。なお、OCTAのEn−Face画像の種類はこれに限らず、基準となる層とオフセットの値を変えて異なる深度範囲を設定したOCTAのEn−Face画像を生成して種類を増やしてもよい。学習を行う際には、異なる深さのOCTAのEn−Face画像毎に別々に学習をしてもよいし、異なる深度範囲の画像を複数組み合わせて(例えば、表層側と深層側で分ける)学習してもよいし、全ての深度範囲のOCTAのEn−Face画像を一緒に学習させるようにしてもよい。OCTデータから生成する輝度のEn−Face画像の場合も、OCTAのEn−Faceと同様に、任意の深度範囲から生成した複数のEn−Face画像を用いて学習を行う。例えば、高画質化エンジンが、被検眼の異なる深度範囲に対応する複数のモーションコントラスト正面画像を含む学習データを用いて得た機械学習エンジンを含む場合を考える。このとき、取得部は、異なる深度範囲を含む長い深度範囲のうち一部の深度範囲に対応するモーションコントラスト正面画像を第1の画像として取得することができる。すなわち、学習データに含まれる複数のモーションコントラスト正面画像に対応する複数の深度範囲とは異なる深度範囲に対応するモーションコントラスト正面画像を、高画質化時の入力画像とすることができる。もちろん、学習時と同じ深度範囲のモーションコントラスト正面画像を、高画質化時の入力画像としてもよい。また、一部の深度範囲は、検者がユーザーインターフェース上の任意のボタンを押す等に応じて設定されてもよいし、自動的に設定されてもよい。なお、上述した内容は、モーションコントラスト正面画像に限るものではなく、例えば、輝度のEn−Face画像に対しても適用することができる。   In the present embodiment, since a pair of three-dimensional high-quality image data and low-quality image data is created, an arbitrary pair of two-dimensional images can be generated from this pair. This will be described with reference to FIG. For example, when the target image is an OCTA En-Face image, an OCTA En-Face image is generated in a desired depth range from the three-dimensional data. The desired depth range refers to the range in the Z direction in FIG. An example of the OCTA En-Face image generated here is shown in FIG. As an OCTA En-Face image, learning is performed using OCTA En-Face images generated in different depth ranges such as a surface layer (Im2910), a deep layer (Im2920), an outer layer (Im2930), and a choroidal vascular network (Im2940). . Note that the types of OCTA En-Face images are not limited to this, and the types may be increased by generating OCTA En-Face images in which different depth ranges are set by changing the reference layer and the offset value. When performing learning, learning may be performed separately for each En-Face image of OCTA having a different depth, or a plurality of images in different depth ranges may be combined (for example, divided on the surface side and the deep side). Alternatively, the En-Face images of OCTA in all depth ranges may be learned together. Also in the case of the En-Face image of the brightness generated from the OCT data, similarly to the En-Face of OCTA, learning is performed using a plurality of En-Face images generated from an arbitrary depth range. For example, consider a case where the image quality improving engine includes a machine learning engine obtained by using learning data including a plurality of motion contrast front images corresponding to different depth ranges of the eye to be inspected. At this time, the acquisition unit can acquire, as the first image, a motion contrast front image corresponding to a part of the depth ranges of a long depth range including different depth ranges. That is, a motion contrast front image corresponding to a depth range different from the plurality of depth ranges corresponding to the plurality of motion contrast front images included in the learning data can be used as an input image for high image quality. Of course, a motion contrast front image in the same depth range as during learning may be used as the input image for high image quality. Further, a part of the depth range may be set according to the examiner pressing an arbitrary button on the user interface, or may be set automatically. Note that the above-described contents are not limited to the motion contrast front image, and can be applied to, for example, an En-Face image of brightness.

なお、処理対象の画像が断層画像である場合、BスキャンであるOCT断層画像やモーションコントラストデータの断層画像を用いて学習を行う。これに関して、図29(b)を用いて説明をする。図29(b)において、Im2951〜Im2953はOCTの断層画像である。図29(b)において画像が異なるのは、副走査(Y)方向の位置が異なる場所の断層画像を示しているからである。断層画像においては、副走査方向の位置の違いを気にせずに一緒に学習をするようにしてもよい。ただし、撮影部位(例えば、黄斑部中心、視神経乳頭部中心)が異なる場所を撮影した画像の場合には、部位ごとに別々に学習をするようにしてもよいし、撮影部位を気にせずに一緒に学習をするようにしてもよい。なお、OCT断層画像と、モーションコントラストデータの断層画像においては画像特徴量が大きく異なるので別々に学習を行う方が良い。   When the image to be processed is a tomographic image, learning is performed using an OCT tomographic image that is a B scan or a tomographic image of motion contrast data. This will be described with reference to FIG. In FIG. 29B, Im2951 to Im2953 are tomographic images of OCT. The images are different in FIG. 29B because they show tomographic images at different positions in the sub-scanning (Y) direction. In the tomographic image, the learning may be performed together without worrying about the difference in the position in the sub-scanning direction. However, in the case of an image taken at a place where the imaged part (for example, the center of the macula, the center of the optic papilla) is imaged, learning may be done separately for each part, or the imaged part may be taken into consideration. You may also study together. Since the image feature amounts of the OCT tomographic image and the tomographic image of the motion contrast data are greatly different, it is better to perform learning separately.

重ね合わせ処理を行った重ね合わせ画像は、元画像群で共通して描出された画素が強調されるため、画像診断に適した高画質画像になる。この場合には、生成される高画質画像は、共通して描出された画素が強調された結果、低輝度領域と高輝度領域との違いがはっきりした高コントラストな画像になる。また、例えば、重ね合わせ画像では、撮影毎に発生するランダムノイズが低減されたり、ある時点の元画像ではうまく描出されなかった領域が他の元画像群によって補間されたりすることができる。   The superimposed image subjected to the superimposing processing is a high-quality image suitable for image diagnosis because the pixels commonly drawn in the original image group are emphasized. In this case, the generated high-quality image is a high-contrast image in which the difference between the low-luminance region and the high-luminance region is clear as a result of the commonly drawn pixels being emphasized. In addition, for example, in the superimposed image, random noise that occurs each time the image is captured can be reduced, or a region that was not drawn well in the original image at a certain point can be interpolated by another original image group.

また、機械学習モデルの入力データを複数の画像で構成する必要がある場合には、元画像群から必要な数の元画像群を選択し、入力データとすることができる。例えば、15の元画像群から1の重ね合わせ画像を得る場合において、機械学習モデルの入力データとして2の画像が必要であれば、105(15C2=105)のペア群を生成可能である。   Further, when the input data of the machine learning model needs to be composed of a plurality of images, a required number of original image groups can be selected from the original image group and used as the input data. For example, in the case of obtaining one superposed image from 15 original image groups, if 2 images are required as input data of the machine learning model, 105 (15C2 = 105) pair groups can be generated.

なお、教師データを構成するペア群のうち、高画質化に寄与しないペアは教師データから取り除くことができる。例えば、教師データのペアを構成する出力データである高画質画像が画像診断に適さない画質である場合には、当該教師データを用いて学習した高画質化エンジンが出力する画像も画像診断に適さない画質になってしまう可能性がある。そのため、出力データが画像診断に適さない画質であるペアを教師データから取り除くことで、高画質化エンジンが画像診断に適さない画質の画像を生成する可能性を低減させることができる。   It should be noted that, of the pair group forming the teacher data, the pair that does not contribute to the high image quality can be removed from the teacher data. For example, if the high-quality image that is the output data forming the pair of teacher data has an image quality that is not suitable for image diagnosis, the image output by the high-quality image learning engine learned using the teacher data is also suitable for image diagnosis. There is a possibility that the image quality will not be obtained. Therefore, it is possible to reduce the possibility that the image quality improving engine will generate an image with an image quality not suitable for image diagnosis by removing from the teacher data a pair whose output data has an image quality not suitable for image diagnosis.

また、ペアである画像群の平均輝度や輝度分布が大きく異なる場合には、当該教師データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる輝度分布を持つ画像診断に適さない画像を出力する可能性がある。このため、平均輝度や輝度分布が大きく異なる入力データと出力データのペアを教師データから取り除くこともできる。   Further, when the average brightness and the brightness distribution of the pair of images are significantly different, the image quality improving engine learned by using the teacher data is an image not suitable for image diagnosis having a brightness distribution significantly different from the low image quality image. May be output. Therefore, a pair of input data and output data having a large difference in average luminance or luminance distribution can be removed from the teacher data.

さらに、ペアである画像群に描画される撮影対象の構造や位置が大きく異なる場合には、当該教師データを用いて学習した高画質化エンジンが、低画質画像と大きく異なる構造や位置に撮影対象を描画した画像診断に適さない画像を出力する可能性がある。このため、描画される撮影対象の構造や位置が大きく異なる入力データと出力データのペアを教師データから取り除くこともできる。また、高画質化エンジンについて、品質保持の観点から、自身が出力する高画質画像を教師データとして用いないように構成することができる。   Further, when the structure or position of the shooting target drawn in the pair of images is significantly different, the image quality improvement engine learned using the teacher data causes the shooting target to have a structure or position significantly different from the low quality image. There is a possibility to output an image that is not suitable for image diagnosis. Therefore, a pair of input data and output data, which differ greatly in the structure or position of the imaged object to be drawn, can be removed from the teacher data. Further, the high quality image engine can be configured not to use the high quality image output by itself as the teacher data from the viewpoint of maintaining the quality.

このように機械学習を行った高画質化エンジンを用いることで、高画質化部404は、一回の撮影で取得された医用画像が入力された場合に、重ね合わせ処理によって高コントラスト化やノイズ低減等が行われたような高画質画像を出力することができる。このため、高画質化部404は、入力画像である低画質画像に基づいて、画像診断に適した高画質画像を生成することができる。   By using the image quality improving engine that has been machine-learned in this way, the image quality improving unit 404 can increase the contrast and noise by superimposing processing when a medical image acquired in one shooting is input. It is possible to output a high-quality image that has undergone reduction and the like. Therefore, the image quality improving unit 404 can generate a high quality image suitable for image diagnosis based on the low quality image which is the input image.

次に、図5のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。図5は本実施形態に係る一連の画像処理のフロー図である。まず、本実施形態に係る一連の画像処理が開始されると、処理はステップS510に移行する。   Next, a series of image processing according to the present embodiment will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart of a series of image processing according to this embodiment. First, when the series of image processes according to the present embodiment is started, the process proceeds to step S510.

ステップS510では、取得部401が、回路やネットワークを介して接続された撮影装置10から、撮影装置10が撮影した画像を入力画像として取得する。なお、取得部401は、撮影装置10からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。   In step S510, the acquisition unit 401 acquires an image captured by the image capturing apparatus 10 as an input image from the image capturing apparatus 10 connected via a circuit or a network. The acquisition unit 401 may acquire the input image in response to a request from the imaging device 10. Such a request is, for example, when the image capturing apparatus 10 generates an image, before or after saving the image generated by the image capturing apparatus 10 in a recording device included in the image capturing apparatus 10, the saved image is displayed on the display unit 20. It may be issued when a high-quality image is used for image analysis processing, or the like.

なお、取得部401は、撮影装置10から画像を生成するためのデータを取得し、画像処理装置400が当該データに基づいて生成した画像を入力画像として取得してもよい。この場合、画像処理装置400が各種画像を生成するための画像生成方法としては、既存の任意の画像生成方法を採用してよい。   In addition, the acquisition unit 401 may acquire data for generating an image from the image capturing apparatus 10 and acquire an image generated by the image processing apparatus 400 based on the data as an input image. In this case, as an image generation method for the image processing apparatus 400 to generate various images, any existing image generation method may be adopted.

ステップS520では、撮影条件取得部402が、入力画像の撮影条件群を取得する。具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。なお、上述のように、入力画像に撮影条件が保存されていない場合には、撮影条件取得部402は、撮影装置10や不図示の画像管理システムから撮影条件群を含む撮影情報群を取得することができる。   In step S520, the shooting condition acquisition unit 402 acquires a shooting condition group of the input image. Specifically, the shooting condition group stored in the data structure forming the input image is acquired according to the data format of the input image. As described above, when the shooting condition is not stored in the input image, the shooting condition acquisition unit 402 acquires a shooting information group including a shooting condition group from the shooting device 10 or an image management system (not shown). be able to.

ステップS530においては、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンによって入力画像を高画質化可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズが、高画質化エンジンによって対処可能な条件と一致するか否かを判定する。   In step S530, the image quality improvement possibility determination unit 403 determines whether or not the image quality of the input image can be improved by the image quality improvement engine provided in the image quality improvement unit 404 using the acquired shooting condition group. To do. Specifically, the image quality improvement availability determination unit 403 determines whether or not the imaging region, imaging method, imaging angle of view, and image size of the input image match the conditions that can be handled by the image quality improvement engine. .

高画質化可否判定部403が、すべての撮影条件を判定し、対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。   The image quality improvement availability determination unit 403 determines all the shooting conditions, and when it is determined that it is possible to deal with the processing, the process proceeds to step S540. On the other hand, when the image quality improvement determination unit 403 determines that the image quality improvement engine cannot handle the input image based on these shooting conditions, the process proceeds to step S550.

なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、撮影画角、及び画像サイズのうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。例えば、高画質化エンジンが、被検者のいずれの撮影部位に対しても網羅的に対応可能であると想定され、入力データに未知の撮影部位が含まれていたとしても対処可能であるように実装されている場合等には、このような処理を行ってもよい。また、高画質化可否判定部403は、所望の構成に応じて、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズのうちの少なくとも一つが高画質化エンジンによって対処可能な条件と一致するか否かを判定してもよい。   It should be noted that, depending on the settings and implementation of the image processing apparatus 400, even if it is determined that the input image cannot be processed based on a part of the imaging region, the imaging method, the imaging angle of view, and the image size, The image quality enhancement process in step S540 may be performed. For example, it is assumed that the high image quality engine can comprehensively support any imaging part of the subject, and it is possible to cope even if the input data includes an unknown imaging part. Such a process may be performed when it is installed in. In addition, the image quality improvement possibility determination unit 403 determines that at least one of the image capturing part, the image capturing method, the image capturing angle of view, and the image size of the input image can be handled by the image quality enhancing engine according to the desired configuration. You may judge whether it corresponds.

ステップS540においては、高画質化部404が、高画質化エンジンを用いて、入力画像を高画質化し、入力画像よりも画像診断に適した高画質画像を生成する。具体的には、高画質化部404は、入力画像を高画質化エンジンに入力し、高画質化された高画質画像を生成させる。高画質化エンジンは、教師データを用いて機械学習を行った機械学習モデルに基づいて、入力画像を用いて重ね合わせ処理を行ったような高画質画像を生成する。このため、高画質化エンジンは、入力画像よりも、ノイズ低減されたり、コントラスト強調されたりした高画質画像を生成することができる。   In step S540, the image quality improving unit 404 uses the image quality improving engine to improve the image quality of the input image, and generates a high image quality image more suitable for image diagnosis than the input image. Specifically, the image quality improving unit 404 inputs the input image to the image quality improving engine and generates a high quality image with high image quality. The image quality improving engine generates a high quality image that is obtained by performing a superimposing process using an input image based on a machine learning model in which machine learning is performed using teacher data. Therefore, the image quality improving engine can generate a high quality image in which noise is reduced or contrast is emphasized more than the input image.

なお、画像処理装置400の設定や実装形態によっては、高画質化部404が、撮影条件群に応じて、高画質化エンジンに入力画像とともにパラメータを入力して、高画質化の程度等を調節してもよい。また、高画質化部404は、検者の入力に応じたパラメータを高画質化エンジンに入力画像とともに入力して高画質化の程度等を調整してもよい。   It should be noted that, depending on the settings and implementation of the image processing apparatus 400, the image quality improving unit 404 adjusts the degree of image quality improvement by inputting parameters together with the input image to the image quality improving engine according to the shooting condition group. You may. Further, the image quality improving unit 404 may input a parameter according to the input of the examiner to the image quality improving engine together with the input image to adjust the degree of image quality improvement and the like.

ステップS550では、出力部405が、ステップS540において高画質画像が生成されていれば、高画質画像を出力して、表示部20に表示させる。一方、ステップS530において高画質化処理が不可能であるとされていた場合には、入力画像を出力し、表示部20に表示させる。なお、出力部405は、表示部20に出力画像を表示させるのに代えて、撮影装置10や他の装置に出力画像を表示させたり、記憶させたりしてもよい。また、出力部405は、画像処理装置400の設定や実装形態によっては、出力画像を撮影装置10や他の装置が利用可能なように加工したり、画像管理システム等に送信可能なようにデータ形式を変換したりしてもよい。   In step S550, the output unit 405 outputs the high-quality image and displays it on the display unit 20 if the high-quality image is generated in step S540. On the other hand, if it is determined in step S530 that the image quality enhancement process cannot be performed, the input image is output and displayed on the display unit 20. Note that the output unit 405 may display or store the output image on the imaging device 10 or another device, instead of displaying the output image on the display unit 20. In addition, the output unit 405 processes the output image so that it can be used by the image capturing apparatus 10 or another apparatus, or outputs the data so that it can be transmitted to the image management system or the like, depending on the setting of the image processing apparatus 400 or the mounting mode. You may convert the format.

上記のように、本実施形態に係る画像処理装置400は、取得部401と、高画質化部404とを備える。取得部401は、被検者の所定部位の画像である入力画像(第1の画像)を取得する。高画質化部404は、機械学習エンジンを含む高画質化エンジンを用いて、入力画像から、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされた高画質画像(第2の画像)を生成する。高画質化エンジンは、重ね合わせ処理により得られた画像を学習データとした機械学習エンジンを含む。   As described above, the image processing device 400 according to this embodiment includes the acquisition unit 401 and the image quality improvement unit 404. The acquisition unit 401 acquires an input image (first image) that is an image of a predetermined region of the subject. The image quality improving unit 404 uses the image quality improving engine including the machine learning engine to perform high quality image (second image) in which at least one of noise reduction and contrast enhancement is performed on the input image as compared with the input image. ) Is generated. The image quality improving engine includes a machine learning engine in which an image obtained by the superposition processing is used as learning data.

当該構成により、本実施形態に係る画像処理装置400は、入力画像から、ノイズが低減されていたり、コントラストが強調されていたりする高画質画像を出力することができる。このため、画像処理装置400は、より明瞭な画像や観察したい部位や病変が強調されている画像等の画像診断に適した画像を、従来と比べて、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく、より少ない代償で取得することができる。   With this configuration, the image processing apparatus 400 according to the present embodiment can output a high-quality image in which noise is reduced or contrast is emphasized from the input image. For this reason, the image processing apparatus 400 makes an image suitable for image diagnosis such as a clearer image or an image in which a region to be observed or a lesion is emphasized more invasive to the photographer and the subject than the conventional image. It can be obtained at a lower price without increasing or increasing labor.

また、画像処理装置400は、入力画像に対して、高画質化エンジンを用いて高画質画像を生成できる否かを判定する高画質化可否判定部403を更に備える。高画質化可否判定部403は、入力画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つに基づいて当該判定を行う。   The image processing apparatus 400 further includes an image quality improvement possibility determination unit 403 that determines whether or not a high quality image can be generated using an image quality enhancement engine for an input image. The image quality improvement determination unit 403 makes the determination based on at least one of the imaged region of the input image, the image capturing method, the image capturing angle of view, and the image size.

当該構成により、本実施形態に係る画像処理装置400は、高画質化部404が処理できない入力画像を高画質化処理から省くことができ、画像処理装置400の処理負荷やエラーの発生を低減させることができる。   With this configuration, the image processing apparatus 400 according to the present embodiment can omit an input image that cannot be processed by the image quality enhancement unit 404 from the image quality enhancement processing, and reduce the processing load of the image processing apparatus 400 and the occurrence of errors. be able to.

なお、本実施形態においては、出力部405(表示制御部)は、生成された高画質画像を表示部20に表示させる構成としたが、出力部405の動作はこれに限られない。例えば、出力部405は、高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力することもできる。このため、高画質画像は、これらの装置のユーザーインターフェースに表示されたり、任意の記録装置に保存されたり、任意の画像解析に利用されたり、画像管理システムに送信されたりすることができる。   Although the output unit 405 (display control unit) is configured to display the generated high-quality image on the display unit 20 in the present embodiment, the operation of the output unit 405 is not limited to this. For example, the output unit 405 can output the high-quality image to another device connected to the imaging device 10 or the image processing device 400. Therefore, the high-quality image can be displayed on the user interface of these devices, stored in any recording device, used for any image analysis, or transmitted to the image management system.

本実施形態においては、高画質化可否判定部403が、高画質化エンジンによって高画質化可能な入力画像であるか否かを判定して、高画質化可能な入力画像であれば高画質化部404が高画質化を行った。これに対し、撮影装置10によって、高画質化可能な撮影条件でのみ撮影が行なわれる等の場合には、撮影装置10から取得した画像を無条件に高画質化してもよい。この場合には、図6に示すように、ステップS520とステップS530の処理を省き、ステップS510の次にステップS540を実施することができる。   In this embodiment, the image quality improvement determination unit 403 determines whether or not the input image can be image-quality-improved by the image quality improvement engine, and if the input image can be image-quality-improved, the image quality is improved. The section 404 improved the image quality. On the other hand, in the case where the image capturing apparatus 10 performs image capturing only under image capturing conditions capable of achieving high image quality, the image acquired from the image capturing apparatus 10 may be unconditionally made high in image quality. In this case, as shown in FIG. 6, the processes of steps S520 and S530 can be omitted and step S540 can be performed after step S510.

なお、本実施形態においては、出力部405が、表示部20に高画質画像を表示させる構成とした。しかしながら、出力部405は、検者からの指示に応じて、高画質画像を表示部20に表示させてもよい。例えば、出力部405は、検者が表示部20のユーザーインターフェース上の任意のボタンを押すことに応じて、高画質画像を表示部20に表示させてもよい。この場合、出力部405は、入力画像と切り替えて高画質画像を表示させてもよいし、入力画像と並べて高画質画像を表示させてもよい。   In the present embodiment, the output unit 405 is configured to display a high quality image on the display unit 20. However, the output unit 405 may display the high-quality image on the display unit 20 according to an instruction from the examiner. For example, the output unit 405 may display the high-quality image on the display unit 20 in response to the examiner pressing an arbitrary button on the user interface of the display unit 20. In this case, the output unit 405 may switch the input image to display the high quality image, or may display the high quality image side by side with the input image.

さらに、出力部405は、表示部20に高画質画像を表示させる際に、表示されている画像が機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示を高画質画像とともに表示させてもよい。この場合には、ユーザーは、当該表示によって、表示された高画質画像が撮影によって取得した画像そのものではないことが容易に識別できるため、誤診断を低減させたり、診断効率を向上させたりすることができる。なお、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示は、入力画像と当該処理により生成された高画質画像とを識別可能な表示であればどのような態様のものでもよい。   Further, the output unit 405, when displaying the high quality image on the display unit 20, displays a display indicating that the displayed image is the high quality image generated by the process using the machine learning algorithm. May be displayed together with. In this case, the user can easily identify by the display that the displayed high-quality image is not the image itself acquired by shooting, and therefore, it is possible to reduce false diagnosis or improve diagnosis efficiency. You can Note that the display indicating that the high-quality image generated by the process using the machine learning algorithm is in any form as long as the display can distinguish the input image from the high-quality image generated by the process. It may be one.

また、出力部405は、機械学習アルゴリズムを用いた処理により生成された高画質画像であることを示す表示について、機械学習アルゴリズムがどのような教師データによって学習を行ったものであるかを示す表示を表示部20に表示させてもよい。当該表示としては、教師データの入力データと出力データの種類の説明や、入力データと出力データに含まれる撮影部位等の教師データに関する任意の表示を含んでよい。   Further, the output unit 405 displays a display indicating what kind of teacher data the machine learning algorithm has learned about the display indicating that the image is a high-quality image generated by the process using the machine learning algorithm. May be displayed on the display unit 20. The display may include a description of the types of the input data and the output data of the teacher data, and an arbitrary display regarding the teacher data such as the imaging region included in the input data and the output data.

本実施形態に係る高画質化エンジンでは、教師データの出力データとして、重ね合わせ画像を用いたが、教師データはこれに限られない。教師データの出力データとして、高画質画像を得る手段である、重ね合わせ処理や、後述する処理群、後述する撮影方法のうち、少なくとも一つを行うことで得られる高画質画像を用いてもよい。   In the image quality improving engine according to the present embodiment, the superimposed image is used as the output data of the teacher data, but the teacher data is not limited to this. As the output data of the teacher data, a high-quality image obtained by performing at least one of a superimposing process, a process group described later, and a photographing method described later, which is a means for obtaining a high-quality image, may be used. .

例えば、教師データの出力データとして、元画像群に対して最大事後確率推定処理(MAP推定処理)を行うことで得られる高画質画像を用いてもよい。MAP推定処理では、複数の低画質画像における各画素値の確率密度から尤度関数を求め、求めた尤度関数を用いて真の信号値(画素値)を推定する。   For example, as the output data of the teacher data, a high-quality image obtained by performing the maximum posterior probability estimation process (MAP estimation process) on the original image group may be used. In the MAP estimation processing, a likelihood function is obtained from the probability density of each pixel value in a plurality of low-quality images, and a true signal value (pixel value) is estimated using the obtained likelihood function.

MAP推定処理により得られた高画質画像は、真の信号値に近い画素値に基づいて高コントラストな画像となる。また、推定される信号値は、確率密度に基づいて求められるため、MAP推定処理により得られた高画質画像では、ランダムに発生するノイズが低減される。このため、MAP推定処理により得られた高画質画像を教師データとして用いることで、高画質化エンジンは、入力画像から、ノイズが低減されたり、高コントラストとなったりした、画像診断に適した高画質画像を生成することができる。なお、教師データの入力データと出力データのペアの生成方法は、重ね合わせ画像を教師データとした場合と同様の方法で行われてよい。   The high-quality image obtained by the MAP estimation process becomes a high-contrast image based on the pixel value close to the true signal value. In addition, since the estimated signal value is obtained based on the probability density, noise that is randomly generated is reduced in the high-quality image obtained by the MAP estimation process. Therefore, by using the high-quality image obtained by the MAP estimation process as the teacher data, the high-quality image engine can reduce the noise from the input image and have a high contrast, which is suitable for image diagnosis. A high quality image can be generated. A method of generating a pair of input data and output data of the teacher data may be the same as the method of using the superimposed image as the teacher data.

また、教師データの出力データとして、元画像に平滑化フィルタ処理を適用した高画質画像を用いてもよい。この場合には、高画質化エンジンは、入力画像から、ランダムノイズが低減された高画質画像を生成することができる。さらに、教師データの出力データとして、元画像に階調変換処理を適用した画像を用いてもよい。この場合には、高画質化エンジンは、入力画像から、コントラスト強調された高画質画像を生成することができる。なお、教師データの入力データと出力データのペアの生成方法は、重ね合わせ画像を教師データとした場合と同様の方法で行われてよい。   Alternatively, a high-quality image obtained by applying a smoothing filter process to the original image may be used as the output data of the teacher data. In this case, the image quality improving engine can generate a high quality image with reduced random noise from the input image. Further, an image obtained by applying the gradation conversion process to the original image may be used as the output data of the teacher data. In this case, the image quality enhancement engine can generate a high-quality image with contrast enhancement from the input image. A method of generating a pair of input data and output data of the teacher data may be the same as the method of using the superimposed image as the teacher data.

なお、教師データの入力データは、撮影装置10と同じ画質傾向を持つ撮影装置から取得された画像でもよい。また、教師データの出力データは、逐次近似法等の高コストな処理によって得られた高画質画像であってもよいし、入力データに対応する被検者を、撮影装置10よりも高性能な撮影装置で撮影することで取得した高画質画像であってもよい。さらに、出力データは、ルールベースによるノイズ低減処理を行うことによって取得された高画質画像であってもよい。ここで、ノイズ低減処理は、例えば、低輝度領域内に現れた明らかにノイズである1画素のみの高輝度画素を、近傍の低輝度画素値の平均値に置き換える等の処理を含むことができる。このため、高画質化エンジンは、入力画像の撮影に用いられる撮影装置よりも高性能な撮影装置によって撮影された画像、又は入力画像の撮影工程よりも工数の多い撮影工程で取得された画像を学習データとしてもよい。例えば、高画質化エンジンは、モーションコントラスト正面画像を入力画像とする場合、入力画像のOCTA撮影に用いられるOCT撮影装置よりも高性能なOCT撮影装置によってOCTA撮影されて得た画像、又は入力画像のOCTA撮影工程よりも工数の多いOCTA撮影工程で取得されて得た画像を学習データとしてもよい。   It should be noted that the input data of the teacher data may be an image acquired from a photographing device having the same image quality tendency as the photographing device 10. The output data of the teacher data may be a high-quality image obtained by high-cost processing such as the successive approximation method, or the subject corresponding to the input data may have higher performance than the imaging device 10. It may be a high-quality image acquired by shooting with a shooting device. Furthermore, the output data may be a high-quality image acquired by performing noise reduction processing based on a rule. Here, the noise reduction process can include, for example, a process of replacing a high-luminance pixel of only one pixel, which is apparently noise appearing in the low-luminance region, with an average value of neighboring low-luminance pixel values. . For this reason, the high image quality engine processes an image captured by an image capturing device having a higher performance than the image capturing device used to capture the input image, or an image captured in a capturing process that requires more man-hours than the capturing process of the input image. It may be used as learning data. For example, when a motion contrast front image is used as an input image, the high image quality engine uses an image obtained by OCTA imaging by an OCT imaging device having a higher performance than an OCT imaging device used for OCTA imaging of the input image, or the input image. The images acquired and obtained in the OCTA imaging process, which requires more man-hours than the OCTA imaging process in step S1, may be used as the learning data.

なお、本実施形態の説明では省略したが、教師データの出力データとして用いられる、複数の画像から生成された高画質画像は、位置合わせ済みの複数の画像から生成されることができる。当該位置合わせ処理としては、例えば、複数の画像のうちの一つをテンプレートとして選択し、テンプレートの位置と角度を変えながらその他の画像との類似度を求め、テンプレートとの位置ずれ量を求め、位置ずれ量に基づいて各画像を補正してよい。また、その他の既存の任意の位置合わせ処理を行ってもよい。   Although omitted in the description of this embodiment, a high-quality image generated from a plurality of images, which is used as output data of teacher data, can be generated from a plurality of images that have already been aligned. As the alignment processing, for example, one of a plurality of images is selected as a template, the similarity with other images is obtained while changing the position and angle of the template, and the amount of positional deviation from the template is obtained. Each image may be corrected based on the amount of displacement. Further, any other existing alignment processing may be performed.

なお、三次元画像を位置合わせする場合には、三次元画像を複数の二次元画像に分解し、二次元画像毎に位置合わせしたものを統合することで、三次元画像の位置合わせを行ってもよい。また、二次元画像を一次元画像に分解し、一次元画像毎に位置合わせしたものを統合することで、二次元画像の位置合わせを行ってもよい。なお、画像ではなく、画像を生成するためのデータに対して、これら位置合わせを行ってもよい。   When aligning a 3D image, the 3D image is decomposed into a plurality of 2D images, and the 3D images are aligned by integrating the 2D images. Good. Further, the two-dimensional images may be aligned by decomposing the two-dimensional images into one-dimensional images and integrating the one-dimensional images aligned with each other. Note that these alignments may be performed not on the image but on the data for generating the image.

また、本実施形態では、高画質化可否判定部403が高画質化部404によって入力画像が対処可能であると判断したら、処理がステップS540に移行して、高画質化部404による高画質化処理が開始された。これに対し、出力部405が高画質化可否判定部403による判定結果を表示部20に表示させ、高画質化部404が検者からの指示に応じて高画質化処理を開始してもよい。この際、出力部405は、判定結果とともに、入力画像や入力画像について取得した撮影部位等の撮影条件を表示部20に表示させることができる。この場合には、検者によって判定結果が正しいか否かが判断された上で、高画質化処理が行われるため、誤判定に基づく高画質化処理を低減させることができる。   In addition, in the present embodiment, when the image quality improvement determination unit 403 determines that the image quality improvement unit 404 can handle the input image, the process proceeds to step S540, and the image quality improvement unit 404 improves the image quality. The process has started. On the other hand, the output unit 405 may cause the display unit 20 to display the determination result of the image quality improvement determination unit 403, and the image quality enhancement unit 404 may start the image quality enhancement process in response to an instruction from the examiner. . At this time, the output unit 405 can cause the display unit 20 to display the imaging conditions such as the input image and the imaging site acquired for the input image together with the determination result. In this case, the image quality improving process is performed after the examiner determines whether or not the determination result is correct, so that the image quality improving process based on the erroneous determination can be reduced.

また、高画質化可否判定部403による判定を行わず、出力部405が入力画像や入力画像について取得した撮影部位等の撮影条件を表示部20に表示させ、高画質化部404が検者からの指示に応じて高画質化処理を開始してもよい。   Further, the image quality improvement possibility determination unit 403 does not perform the determination, and the output unit 405 causes the display unit 20 to display the imaging conditions such as the input image and the imaging site acquired for the input image. The image quality improving process may be started in response to the instruction.

<第2の実施形態>
次に、図4及び7を参照して、第2の実施形態に係る画像処理装置について説明する。第1の実施形態では、高画質化部404は、一つの高画質化エンジンを備えていた。これに対して、本実施形態では、高画質化部が、異なる教師データを用いて機械学習を行った複数の高画質化エンジンを備え、入力画像に対して複数の高画質画像を生成する。
<Second Embodiment>
Next, an image processing apparatus according to the second embodiment will be described with reference to FIGS. In the first embodiment, the image quality improving unit 404 includes one image quality improving engine. On the other hand, in the present embodiment, the image quality improving unit includes a plurality of image quality improving engines that perform machine learning using different teacher data, and generates a plurality of high quality images for the input image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る高画質化部404には、それぞれ異なる教師データを用いて機械学習が行われた二つ以上の高画質化エンジンが備えられている。ここで、本実施形態に係る教師データ群の作成方法について説明する。具体的には、まず、様々な撮影部位が撮影された、入力データとしての元画像と出力データとしての重ね合わせ画像のペア群を用意する。次に、撮影部位毎にペア群をグルーピングすることで、教師データ群を作成する。例えば、第1の撮影部位を撮影して取得されたペア群で構成される第1の教師データ、第2の撮影部位を撮影して取得されたペア群で構成される第2の教師データというように、教師データ群を作成する。   The image quality improving unit 404 according to the present embodiment includes two or more image quality improving engines in which machine learning is performed using different teacher data. Here, a method of creating the teacher data group according to the present embodiment will be described. Specifically, first, a pair group of an original image as input data and a superimposed image as output data in which various imaging regions are imaged is prepared. Next, the teacher data group is created by grouping the pair groups for each imaging region. For example, the first teacher data composed of a pair group acquired by photographing the first imaged region and the second teacher data composed of a pair group acquired by photographing the second imaged region. In this way, the teacher data group is created.

その後、各教師データを用いて別々の高画質化エンジンに機械学習を行わせる。例えば、第1の教師データでトレーニングされた機械学習モデルに対応する第1の高画質化エンジン、第2の教師データでトレーニングされた機械学習モデルに対応する第2の高画質化エンジンというように高画質化エンジン群を用意する。   After that, machine learning is performed by different image quality improving engines using each teacher data. For example, a first image quality improvement engine corresponding to a machine learning model trained with first teacher data, a second image quality improvement engine corresponding to a machine learning model trained with second teacher data, and so on. Prepare a high-quality image engine group.

このような高画質化エンジンは、それぞれ対応する機械学習モデルのトレーニングに用いた教師データが異なるため、高画質化エンジンに入力される画像の撮影条件によって、入力画像を高画質化できる程度が異なる。具体的には、第1の高画質化エンジンは、第1の撮影部位を撮影して取得された入力画像に対しては高画質化の程度が高く、第2の撮影部位を撮影して取得された画像に対しては高画質化の程度が低い。同様に、第2の高画質化エンジンは、第2の撮影部位を撮影して取得された入力画像に対しては高画質化の程度が高く、第1の撮影部位を撮影して取得された画像に対しては高画質化の程度が低い。   Since such high image quality engine has different teacher data used for training the corresponding machine learning model, the degree to which the high quality of the input image can be achieved differs depending on the image capturing conditions of the image input to the high image quality engine. . Specifically, the first image-quality improving engine has a high degree of image quality improvement with respect to the input image acquired by capturing the first imaged region, and acquires the image by capturing the second imaged region. The degree of high image quality of the captured image is low. Similarly, the second image quality improving engine has a high degree of image quality improvement with respect to the input image acquired by capturing the second imaged region, and is acquired by capturing the first imaged region. The degree of image quality improvement is low for images.

教師データのそれぞれが撮影部位によってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、高画質化エンジンは対応する撮影部位であれば、第1の実施形態に係る高画像化エンジンよりも効果的に高画質化を行うことができる。なお、教師データのペアをグルーピングするための撮影条件は、撮影部位に限られず、撮影画角であったり、画像の解像度であったり、これらのうちの二つ以上の組み合わせであったりしてもよい。   Since each of the teacher data is made up of a pair group that is grouped according to the imaged site, the image quality tendencies of the image groups forming the pair group are similar. Therefore, the high image quality engine can perform higher image quality more effectively than the high image quality engine according to the first embodiment as long as it is a corresponding imaging region. Note that the shooting conditions for grouping pairs of teacher data are not limited to the shooting region, and may be the shooting angle of view, the image resolution, or a combination of two or more of these. Good.

以下、図7を参照して、本実施形態に係る一連の画像処理について説明する。図7は、本実施形態に係る一連の画像処理のフロー図である。なお、ステップS710及びステップS720の処理は、第1の実施形態に係るステップS510及びステップS520と同様であるため、説明を省略する。なお、入力画像に対して、無条件で高画質化する場合には、ステップS720の処理の後に、ステップS730の処理を省き、処理をステップS740に移行してよい。   Hereinafter, a series of image processing according to this embodiment will be described with reference to FIG. 7. FIG. 7 is a flowchart of a series of image processing according to this embodiment. Note that the processes of steps S710 and S720 are the same as steps S510 and S520 according to the first embodiment, and thus description thereof will be omitted. When the image quality of the input image is unconditionally improved, the process of step S730 may be omitted after the process of step S720 and the process may proceed to step S740.

ステップS720において入力画像の撮影条件が取得されると、処理はステップS730に移行する。ステップS730においては、高画質化可否判定部403が、ステップS720において取得した撮影条件群を用いて、高画質化部404が備える高画質化エンジン群のいずれかが、入力画像を対処可能であるか否かを判定する。   When the shooting condition of the input image is acquired in step S720, the process proceeds to step S730. In step S730, the image quality improvement availability determination unit 403 can handle the input image by using one of the image quality improvement engine groups included in the image quality improvement unit 404 using the shooting condition group acquired in step S720. Or not.

高画質化可否判定部403が、高画質化エンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS760に移行する。一方で、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS740に移行する。なお、画像処理装置400の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS740を実施してもよい。   When the image quality improvement determination unit 403 determines that none of the image quality improvement engine groups can handle the input image, the process proceeds to step S760. On the other hand, when the image quality improvement availability determination unit 403 determines that one of the image quality enhancement engine groups can handle the input image, the process proceeds to step S740. Note that, depending on the setting and implementation of the image processing apparatus 400, even if the image quality improving engine determines that some image capturing conditions cannot be handled, as in the first embodiment, step S740 is performed. You may.

ステップS740においては、高画質化部404が、ステップS720で取得した入力画像の撮影条件及び高画質化エンジン群の教師データの情報に基づいて、高画質化エンジン群から高画質化処理を行う高画質化エンジンを選択する。具体的には、例えば、ステップS720において取得した撮影条件群のうちの撮影部位に対して、同撮影部位又は周囲の撮影部位に関する教師データの情報を有し、高画質化の程度が高い高画質化エンジンを選択する。上述の例では、撮影部位が第1の撮影部位である場合には、高画質化部404は第1の高画質化エンジンを選択する。   In step S740, the image quality enhancement unit 404 performs the image quality enhancement process from the image quality enhancement engine group based on the shooting condition of the input image acquired in step S720 and the information of the teacher data of the image quality enhancement engine group. Select the image quality engine. Specifically, for example, with respect to the imaged part of the imaged condition group acquired in step S720, there is teacher data information about the imaged part or surrounding imaged parts, and the image quality is high. Select an optimization engine. In the above example, when the imaged part is the first imaged part, the image quality improving unit 404 selects the first image quality improving engine.

ステップS750では、高画質化部404が、ステップS740において選択した高画質化エンジンを用いて、入力画像を高画質化した高画質画像を生成する。その後、ステップS760において、出力部405は、ステップS750において高画質画像が生成されていれば、高画質画像を出力して、表示部20に表示させる。一方、ステップS730において高画質化処理が不可能であるとされていた場合には、入力画像を出力し、表示部20に表示させる。なお、出力部405は、高画質画像を表示部20に表示させる際、高画質化部404によって選択された高画質化エンジンを用いて生成された高画質画像であることを表示させてもよい。   In step S750, the image quality improving unit 404 uses the image quality improving engine selected in step S740 to generate a high quality image obtained by improving the quality of the input image. Then, in step S760, the output unit 405 outputs the high-quality image and displays it on the display unit 20 if the high-quality image is generated in step S750. On the other hand, if it is determined in step S730 that the image quality enhancement process cannot be performed, the input image is output and displayed on the display unit 20. The output unit 405 may display, when displaying the high-quality image on the display unit 20, that the high-quality image is generated by using the high-quality image engine selected by the high-quality image generation unit 404. .

上記のように、本実施形態に係る高画質化部404は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備える。ここで、複数の高画質化エンジンの各々は、それぞれ撮影部位、撮影画角、異なる深度の正面画像、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行ったものである。高画質化部404は、入力画像の撮影部位、撮影画角、異なる深度の正面画像、及び画像の解像度のうちの少なくとも一つに応じた高画質化エンジンを用いて、高画質画像を生成する。   As described above, the image quality improving unit 404 according to the present embodiment includes a plurality of image quality improving engines that perform learning using different learning data. Here, each of the plurality of image quality enhancement engines performs learning by using different learning data regarding at least one of the imaging region, the imaging angle of view, the front image with different depth, and the resolution of the image. Is. The image quality improving unit 404 generates a high quality image by using an image quality improving engine according to at least one of a captured region of an input image, a captured field angle, a front image with different depths, and image resolution. .

このような構成により、本実施形態に係る画像処理装置400は、より効果的な高画質画像を生成することができる。   With such a configuration, the image processing device 400 according to the present embodiment can generate a more effective high quality image.

本実施形態では、高画質化部404が、入力画像の撮影条件に基づいて高画質化処理に用いる高画質化エンジンを選択したが、高画質化エンジンの選択処理はこれに限られない。例えば、出力部405が、取得した入力画像の撮影条件と高画質化エンジン群を表示部20のユーザーインターフェースに表示させ、検者からの指示に応じて、高画質化部404が高画質化処理に用いる高画質化エンジンを選択してもよい。なお、出力部405は、高画質化エンジン群とともに各高画質化エンジンの学習に用いた教師データの情報を表示部20に表示させてもよい。なお、高画質化エンジンの学習に用いた教師データの情報の表示態様は任意であってよく、例えば、学習に用いた教師データに関連する名称を用いて高画質化エンジン群を表示してもよい。   In the present embodiment, the image quality improving unit 404 selects the image quality improving engine to be used for the image quality improving process based on the shooting condition of the input image, but the image quality improving engine selection process is not limited to this. For example, the output unit 405 causes the captured image of the acquired input image and the group of image quality enhancement engines to be displayed on the user interface of the display unit 20, and the image quality enhancement unit 404 performs the image quality enhancement process in response to an instruction from the examiner. The image quality enhancement engine used for the above may be selected. The output unit 405 may cause the display unit 20 to display the information of the teacher data used for learning of each image quality improvement engine together with the image quality improvement engine group. The display mode of the information of the teacher data used for learning of the high image quality engine may be arbitrary. For example, even if the name of the teacher data used for learning is used to display the high image quality engine group. Good.

また、出力部405が、高画質化部404によって選択された高画質化エンジンを表示部20のユーザーインターフェースに表示させ、検者からの指示を受け付けてもよい。この場合、高画質化部404は、検者からの指示に応じて、当該高画質化エンジンを高画質化処理に用いる高画質化エンジンとして最終的に選択するか否かを判断してもよい。   Further, the output unit 405 may display the image quality improving engine selected by the image quality improving unit 404 on the user interface of the display unit 20 and receive an instruction from the examiner. In this case, the image quality improving unit 404 may determine whether or not to finally select the image quality improving engine as the image quality improving engine used for the image quality improving processing, in response to an instruction from the examiner. .

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第3の実施形態>
次に、図4及び7を参照して、第3の実施形態に係る画像処理装置について説明する。第1及び2の実施形態では、撮影条件取得部402は、入力画像のデータ構造等から撮影条件群を取得する。これに対して、本実施形態では、撮影条件取得部は、撮影箇所推定エンジンを用いて、入力画像の撮影部位又は撮影領域を入力画像に基づいて推定する。
<Third Embodiment>
Next, an image processing device according to the third embodiment will be described with reference to FIGS. In the first and second embodiments, the shooting condition acquisition unit 402 acquires a shooting condition group from the data structure of the input image or the like. On the other hand, in the present embodiment, the imaging condition acquisition unit estimates the imaging site or imaging region of the input image based on the input image by using the imaging site estimation engine.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第2の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第2の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1及び2の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the second embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the second embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is similar to the configuration of the image processing apparatus according to the first and second embodiments, so the configuration illustrated in FIG. Is omitted.

本実施形態に係る撮影条件取得部402には、取得部401が取得した入力画像に描画されている撮影部位又は撮影領域を推定する撮影箇所推定エンジンが備えられている。本実施形態に係る撮影箇所推定エンジンの備える撮影箇所の推定手法では、機械学習アルゴリズムを用いた推定処理を行う。   The shooting condition acquisition unit 402 according to the present embodiment includes a shooting position estimation engine that estimates a shooting region or a shooting region drawn in the input image acquired by the acquisition unit 401. In the method of estimating a shooting location included in the shooting location estimation engine according to the present embodiment, an estimation process using a machine learning algorithm is performed.

本実施形態では、機械学習アルゴリズムを用いた撮影箇所推定手法に係る機械学習モデルのトレーニングには、画像である入力データと、入力データに対応する撮影部位ラベルや撮影領域ラベルである出力データとのペア群で構成された教師データを用いる。ここで、入力データとは、処理対象(入力画像)として想定される特定の撮影条件を持つ画像のことである。入力データとしては、撮影装置10と同じ画質傾向を持つ撮影装置から取得された画像であることが好ましく、撮影装置10と同じ設定をされた同じ機種であるとより良い。出力データである撮影部位ラベルや撮影領域ラベルの種類は、入力データに少なくとも一部が含まれている撮影部位や撮影領域であってよい。出力データである撮影部位ラベルの種類は、例えば、OCTであれば、“黄斑部”、“視神経乳頭部”、“黄斑部及び視神経乳頭部”、並びに“その他”等であってよい。   In the present embodiment, the training of the machine learning model related to the imaging part estimation method using the machine learning algorithm is performed by using input data that is an image and output data that is an imaging part label or imaging region label corresponding to the input data. Teacher data composed of pairs are used. Here, the input data is an image having specific shooting conditions assumed as a processing target (input image). The input data is preferably an image acquired from an image capturing apparatus having the same image quality tendency as the image capturing apparatus 10, and more preferably the same model with the same settings as the image capturing apparatus 10. The type of the imaged part label or the imaged region label that is the output data may be the imaged part or the imaged region whose input data includes at least a part. The type of the imaging part label that is the output data may be, for example, in the case of OCT, “macular part”, “optic nerve head”, “macular part and optic nerve head”, and “other”.

本実施形態に係る撮影箇所推定エンジンは、このような教師データを用いた学習を行ったことにより、入力された画像に描画されている撮影部位や撮影領域がどこであるかを出力することができる。また、撮影箇所推定エンジンは、必要な詳細レベルの撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力することもできる。撮影箇所推定エンジンを用いることで、撮影条件取得部402は、入力画像に基づいて、入力画像の撮影部位や撮影領域を推定し、入力画像についての撮影条件として取得することができる。なお、撮影箇所推定エンジンが撮影部位ラベルや撮影領域ラベル毎に、該撮影部位や撮影領域である確率を出力する場合には、撮影条件取得部402は、最も確率の高い撮影部位や撮影領域を入力画像の撮影条件として取得する。   The learning part estimation engine according to the present embodiment can output the imaging part and the imaging region drawn in the input image by performing the learning using the teacher data. . Further, the imaged part estimation engine can output the probability of being the imaged part or the imaged region for each of the imaged part labels and the imaged region labels of a required detail level. By using the shooting location estimation engine, the shooting condition acquisition unit 402 can estimate the shooting site or shooting area of the input image based on the input image, and obtain the shooting condition or the shooting condition for the input image. When the imaging location estimation engine outputs the probability of being the imaging area or imaging area for each imaging area label or imaging area label, the imaging condition acquisition unit 402 determines the imaging area or imaging area with the highest probability. It is acquired as the shooting condition of the input image.

次に、第2の実施形態と同様に、図7のフロー図を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS710、及びステップS730〜ステップS760の処理は、第2の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、無条件で高画質化する場合には、ステップS720の処理の後に、ステップS730の処理を省き、処理をステップS740に移行してよい。   Next, similar to the second embodiment, a series of image processing according to the present embodiment will be described with reference to the flowchart of FIG. 7. Note that the processes of step S710 and steps S730 to S760 according to the present embodiment are the same as those of the second embodiment, so description thereof will be omitted. When the image quality of the input image is unconditionally improved, the process of step S730 may be omitted after the process of step S720 and the process may proceed to step S740.

ステップS710において入力画像が取得されると、処理はステップS720に移行する。ステップS720では、撮影条件取得部402が、ステップS710において取得した入力画像の撮影条件群を取得する。   When the input image is acquired in step S710, the process proceeds to step S720. In step S720, the shooting condition acquisition unit 402 acquires the shooting condition group of the input image acquired in step S710.

具体的には、入力画像のデータ形式に応じて、入力画像を構成するデータ構造に保存された撮影条件群を取得する。また、撮影条件群に撮影部位や撮影領域に関する情報が含まれていない場合、撮影条件取得部402は撮影箇所推定エンジンに入力画像を入力し、入力画像がどの撮影部位を撮影して取得されたものなのかを推定する。具体的には、撮影条件取得部402は、撮影箇所推定エンジンに入力画像を入力し、撮影部位ラベル群のそれぞれに対して出力された確率を評価し、最も確率の高い撮影部位を入力画像の撮影条件として設定・取得する。   Specifically, the shooting condition group stored in the data structure forming the input image is acquired according to the data format of the input image. Further, when the image capturing condition group does not include information about the image capturing site or the image capturing region, the image capturing condition acquiring unit 402 inputs the input image to the image capturing site estimating engine, and the input image is acquired by capturing which image capturing site. Estimate what it is. Specifically, the imaging condition acquisition unit 402 inputs the input image to the imaging part estimation engine, evaluates the probability output to each of the imaging part label groups, and determines the imaging part having the highest probability as the input image. Set / get as shooting conditions.

なお、入力画像に撮影部位や撮影領域以外の撮影条件が保存されていない場合には、撮影条件取得部402は、撮影装置10や不図示の画像管理システムから撮影条件群を含む撮影情報群を取得することができる。   Note that when the input image does not store the shooting conditions other than the shooting region or the shooting region, the shooting condition acquisition unit 402 acquires the shooting information group including the shooting condition group from the shooting device 10 or an image management system (not shown). Can be obtained.

以降の処理は、第2実施形態に係る一連の画像処理と同様であるため説明を省略する。   Subsequent processing is the same as the series of image processing according to the second embodiment, and therefore description thereof will be omitted.

上記のように、本実施形態に係る撮影条件取得部402は、入力画像の撮影部位及び撮影領域のうちの少なくとも一方を推定する推定部として機能する。撮影条件取得部402は、撮影部位や撮影領域のラベルが付けられた画像を学習データとした撮影箇所推定エンジンを含み、撮影箇所推定エンジンに入力画像を入力することで、入力画像の撮影部位や撮影領域を推定する。   As described above, the shooting condition acquisition unit 402 according to the present embodiment functions as an estimation unit that estimates at least one of the shooting region and the shooting region of the input image. The imaging condition acquisition unit 402 includes an imaging part estimation engine that uses images labeled with imaging parts and imaging regions as learning data. By inputting an input image to the imaging part estimation engine, the imaging part of the input image Estimate the shooting area.

これにより、本実施形態に係る画像処理装置400は、入力画像の撮影部位や撮影領域についての撮影条件を入力画像に基づいて取得することができる。   As a result, the image processing apparatus 400 according to the present embodiment can acquire the shooting conditions for the shooting region and the shooting area of the input image based on the input image.

なお、本実施形態では、撮影条件取得部402は、撮影条件群に撮影部位や撮影領域に関する情報が含まれていない場合に撮影箇所推定エンジンを用いて入力画像の撮影部位や撮影領域について推定を行った。しかしながら、撮影箇所推定エンジンを用いて撮影部位や撮影領域について推定を行う状況はこれに限られない。撮影条件取得部402は、入力画像のデータ構造に含まれる撮影部位や撮影領域についての情報が、必要な詳細レベルの情報として不足している場合にも、撮影箇所推定エンジンを用いて撮影部位や撮影領域について推定を行ってもよい。   In the present embodiment, the imaging condition acquisition unit 402 uses the imaging part estimation engine to estimate the imaging part or imaging region of the input image when the imaging condition group does not include information about the imaging part or imaging region. went. However, the situation in which the imaging site and the imaging region are estimated using the imaging site estimation engine is not limited to this. The imaging condition acquisition unit 402 uses the imaging part estimation engine to detect the imaging part and the imaging part even when the information about the imaging part or the imaging region included in the data structure of the input image is insufficient as the information of the necessary detail level. You may estimate about a photography area.

また、入力画像のデータ構造に撮影部位や撮影領域についての情報が含まれているか否かとは無関係に、撮影条件取得部402が撮影箇所推定エンジンを用いて入力画像の撮影部位や撮影領域を推定してもよい。この場合、出力部405が、撮影箇所推定エンジンから出力された推定結果と入力画像のデータ構造に含まれる撮影部位や撮影領域についての情報を表示部20に表示させ、撮影条件取得部402が検者の指示に応じて、これらの撮影条件を決定してもよい。   In addition, regardless of whether or not the data structure of the input image includes information about the imaged region or the imaged region, the image capturing condition acquisition unit 402 uses the imaged region estimation engine to estimate the imaged region or the imaged region of the input image. You may. In this case, the output unit 405 causes the display unit 20 to display the estimation result output from the imaging location estimation engine and the information about the imaging region and the imaging region included in the data structure of the input image, and the imaging condition acquisition unit 402 detects the information. These shooting conditions may be determined according to a person's instruction.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第4の実施形態>
次に、図4、5、8及び9を参照して、第4の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が、入力画像を高画質化エンジンが対処可能な画像サイズになるように、入力画像を拡大又は縮小する。また、高画質化部は、高画質化エンジンからの出力画像を、出力画像の画像サイズが入力画像の画像サイズになるように縮小又は拡大して高画質画像を生成する。
<Fourth Embodiment>
Next, an image processing apparatus according to the fourth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit enlarges or reduces the input image so that the input image has an image size that can be handled by the image quality improving engine. The image quality improving unit reduces or enlarges the output image from the image quality improving engine so that the image size of the output image becomes the image size of the input image to generate a high quality image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る高画質化部404には、第1の実施形態に係る高画質化エンジンと同様の、高画質化エンジンが備えられている。ただし、本実施形態では、高画質化エンジンの学習に用いる教師データとして、入力データの画像及び出力データの画像を一定の画像サイズになるように拡大又は縮小した画像群により構成した、入力データと出力データのペア群を用いている。   The image quality improving unit 404 according to the present embodiment includes an image quality improving engine similar to the image quality improving engine according to the first embodiment. However, in the present embodiment, as the teacher data used for learning of the image quality enhancement engine, the input data composed of an image group of the input data image and the output data image enlarged or reduced to have a constant image size It uses a pair of output data pairs.

ここで、図8を参照して、本実施形態に係る高画質化エンジンの教師データについて説明する。図8に示すように、例えば、教師データについて設定された一定の画像サイズより小さな低画質画像Im810と高画質画像Im820とがある場合を考える。この場合、教師データについて設定された一定の画像サイズとなるように、低画質画像Im810及び高画質画像Im820のそれぞれを拡大する。そして、拡大した低画質画像Im811と拡大した高画質画像Im821とをペアとして、当該ペアを教師データの一つとして用いる。   Here, the teacher data of the image quality improving engine according to the present embodiment will be described with reference to FIG. 8. As shown in FIG. 8, let us consider a case where, for example, there are a low image quality image Im810 and a high image quality image Im820 that are smaller than the fixed image size set for the teacher data. In this case, each of the low-quality image Im810 and the high-quality image Im820 is enlarged so that the fixed image size set for the teacher data is obtained. Then, the enlarged low-quality image Im811 and the enlarged high-quality image Im821 are used as a pair, and the pair is used as one of the teacher data.

なお、第1の実施形態と同様に、教師データの入力データには、処理対象(入力画像)として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、及び撮影画角である。つまり、本実施形態に係る当該特定の撮影条件には、第1の実施形態と異なり、画像サイズは含まれない。   As in the first embodiment, the input data of the teacher data is an image having a specific shooting condition assumed as a processing target (input image), but the specific shooting condition is determined in advance. The photographing part, photographing method, and photographing angle of view. That is, unlike the first embodiment, the specific shooting condition according to the present embodiment does not include the image size.

本実施形態に係る高画質化部404は、このような教師データで学習が行われた高画質化エンジンを用いて、入力画像を高画質化して高画質画像を生成する。この際、高画質化部404は、入力画像を教師データについて設定された一定の画像サイズになるように拡大又は縮小した変形画像を生成し、変形画像を高画質化エンジン入力する。また、高画質化部404は、高画質化エンジンからの出力画像を入力画像の画像サイズになるように縮小又は拡大し、高画質画像を生成する。このため、本実施形態に係る高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。   The image quality improving unit 404 according to this embodiment uses the image quality improving engine learned with such teacher data to improve the quality of the input image and generate a high quality image. At this time, the image quality improving unit 404 generates a modified image obtained by enlarging or reducing the input image to have a constant image size set for the teacher data, and inputs the modified image to the image quality improving engine. Further, the image quality improving unit 404 reduces or enlarges the output image from the image quality improving engine so as to have the image size of the input image, and generates a high quality image. Therefore, the image quality improving unit 404 according to the present embodiment generates an image with high image quality by the image quality improving engine even if the input image has an image size that cannot be dealt with in the first embodiment. be able to.

次に、図5及び9を参照して、本実施形態に係る一連の画像処理について説明する。図9は、本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510、ステップS520、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIGS. FIG. 9 is a flowchart of the image quality improving process according to the present embodiment. Note that the processes of step S510, step S520, and step S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. When the image quality of the input image is unconditionally improved under shooting conditions other than the image size, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS520において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら処理はステップS530に移行する。ステップS530では、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影条件について、高画質化エンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。高画質化可否判定部403は、第1の実施形態と異なり、画像サイズは判定しない。   In step S520, as in the first embodiment, when the shooting condition acquisition unit 402 acquires the shooting condition group of the input image, the process proceeds to step S530. In step S530, the image quality improvement availability determination unit 403 determines whether the image quality improvement engine included in the image quality improvement unit 404 can handle the input image using the acquired shooting condition group. Specifically, the image quality improvement availability determination unit 403 determines whether or not the imaging condition of the input image is an imaging region, an imaging method, and an imaging angle of view that can be handled by the image quality improvement engine. Unlike the first embodiment, the image quality improvement availability determination unit 403 does not determine the image size.

高画質化可否判定部403が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。   If it is determined that the input image can be dealt with, the process proceeds to step S540. On the other hand, when the image quality improvement determination unit 403 determines that the image quality improvement engine cannot handle the input image based on these shooting conditions, the process proceeds to step S550. Even if it is determined that the input image cannot be processed based on a part of the imaging region, the imaging method, and the imaging angle of view, depending on the setting or the mounting mode of the image processing apparatus 400, in step S540. Image quality improvement processing may be performed.

処理がステップS540に移行すると、図9に示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS910において、高画質化部404が、入力画像を教師データについて設定された一定の画像サイズに拡大又は縮小し、変形画像を生成する。   When the process proceeds to step S540, the image quality improving process according to the present embodiment shown in FIG. 9 is started. In the image quality improving process according to the present embodiment, first, in step S910, the image quality improving unit 404 enlarges or reduces the input image to a certain image size set for the teacher data to generate a deformed image.

次に、ステップS920において、高画質化部404は、生成した変形画像を高画質化エンジンに入力し高画質化された高画質な変形画像を取得する。   Next, in step S920, the image quality improving unit 404 inputs the generated deformed image to the image quality improving engine and acquires the image quality improved deformed image.

その後、ステップS930において、高画質化部404は、高画質な変形画像を入力画像の画像サイズに縮小又は拡大し、高画質画像を生成する。高画質化部404がステップS930において高画質画像を生成したら、本実施形態に係る高画質化処理は終了し、処理はステップS550に移行する。ステップS550の処理は、第1の実施形態のステップS550と同様であるため説明を省略する。   After that, in step S930, the image quality improving unit 404 reduces or enlarges the high-quality deformed image to the image size of the input image to generate a high-quality image. When the image quality improving unit 404 generates a high quality image in step S930, the image quality improving process according to the present embodiment ends, and the process proceeds to step S550. The process of step S550 is the same as step S550 of the first embodiment, and thus the description thereof is omitted.

上記のように、本実施形態に係る高画質化部404は、入力画像の画像サイズを、高画質化エンジンが対処可能な画像サイズに調整して高画質化エンジンに入力する。また、高画質化部404は、高画質化エンジンからの出力画像を入力画像の元の画像サイズに調整することで高画質画像を生成する。これにより、本実施形態の画像処理装置400は、高画質化エンジンを用いて、第1の実施形態では対処できなかった画像サイズの入力画像についても高画質化して、画像診断に適切な高画質画像を生成することができる。   As described above, the image quality improving unit 404 according to the present embodiment adjusts the image size of the input image to an image size that can be handled by the image quality improving engine and inputs the image size to the image quality improving engine. Further, the image quality improving unit 404 adjusts the output image from the image quality improving engine to the original image size of the input image to generate a high quality image. As a result, the image processing apparatus 400 according to the present embodiment uses the image quality improving engine to improve the image quality of an input image having an image size that cannot be dealt with in the first embodiment, and achieves a high image quality suitable for image diagnosis. Images can be generated.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第5の実施形態>
次に、図4、5、10及び11を参照して、第5の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が、高画質化エンジンによる一定の解像度を基準とした高画質化処理により高画質画像を生成する。
<Fifth Embodiment>
Next, an image processing apparatus according to the fifth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit generates a high quality image by the image quality improving process based on a fixed resolution by the image quality improving engine.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。ただし、本実施形態では、高画質化エンジンの学習に用いる教師データが第1の実施形態における教師データと異なる。具体的には、教師データの入力データと出力データとのペア群を構成する画像群の解像度が一定の解像度となるような画像サイズに当該画像群を拡大又は縮小した後、十分に大きい一定の画像サイズとなるようにパディングしている。ここで、画像群の解像度とは、例えば、撮影装置の空間分解能や撮影領域に対する解像度をいう。   The image quality improvement unit 404 according to the present embodiment includes the same image quality improvement engine as in the first embodiment. However, in this embodiment, the teacher data used for learning of the image quality enhancement engine is different from the teacher data in the first embodiment. Specifically, after enlarging or reducing the image group to an image size such that the resolution of the image group forming the pair group of the input data and the output data of the teacher data becomes a constant resolution, a sufficiently large constant It is padded to the image size. Here, the resolution of the image group refers to, for example, the spatial resolution of the imaging device or the resolution for the imaging region.

ここで、図10を参照して、本実施形態に係る高画質化エンジンの教師データについて説明する。図10に示すように、例えば、教師データについて設定された一定の解像度より低い解像度を持つ低画質画像Im1010と高画質画像Im1020とがある場合を考える。この場合、教師データについて設定された一定の解像度となるように、低画質画像Im1010と高画質画像Im1020のそれぞれを拡大する。さらに、拡大された低画質画像Im1010と高画質画像Im1020のそれぞれについて、教師データについて設定された一定の画像サイズとなるようにパディングする。そして、拡大及びパディングが行われた低画質画像Im1011と高画質画像Im1021とをペアとし、当該ペアを教師データの一つとして用いる。   Here, the teacher data of the image quality enhancement engine according to the present embodiment will be described with reference to FIG. 10. As shown in FIG. 10, for example, consider a case where there is a low image quality image Im1010 and a high image quality image Im1020 having a resolution lower than a certain resolution set for teacher data. In this case, each of the low-quality image Im1010 and the high-quality image Im1020 is enlarged so that the constant resolution set for the teacher data is obtained. Further, each of the enlarged low-quality image Im1010 and high-quality image Im1020 is padded so as to have a constant image size set for the teacher data. Then, the enlarged and padded low-quality image Im1011 and high-quality image Im1021 are paired, and the pair is used as one of the teacher data.

なお、教師データについて設定された一定の画像サイズとは、処理対象(入力画像)として想定される画像を一定の解像度となるように拡大又は縮小したときの最大となりうる画像サイズである。当該一定の画像サイズが十分に大きくない場合には、高画質化エンジンに入力された画像を拡大したときに、機械学習モデルが対処不可能な画像サイズとなる可能性がある。   It should be noted that the fixed image size set for the teacher data is the maximum image size that can be obtained when the image assumed as the processing target (input image) is enlarged or reduced to have a fixed resolution. If the certain image size is not large enough, when the image input to the image quality enhancement engine is enlarged, the machine learning model may have an image size that cannot be handled.

また、パディングが行われる領域は、効果的に高画質化できるように機械学習モデルの特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。なお、第1の実施形態と同様に、入力データには、処理対象として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、撮影画角である。つまり、本実施形態に係る当該特定の撮影条件には、第1の実施形態と異なり、画像サイズは含まれない。   In addition, the padding area is filled with a fixed pixel value, a neighboring pixel value, or mirror padded according to the characteristics of the machine learning model so that the image quality can be effectively improved. As in the first embodiment, an image having a specific imaging condition assumed as a processing target is used as the input data. The specific imaging condition is a predetermined imaging part, imaging method, This is the shooting angle of view. That is, unlike the first embodiment, the specific shooting condition according to the present embodiment does not include the image size.

本実施形態に係る高画質化部404は、このような教師データで学習が行われた高画質化エンジンを用いて、入力画像を高画質化して高画質画像を生成する。この際、高画質化部404は、入力画像を教師データについて設定された一定の解像度になるように拡大又は縮小した変形画像を生成する。また、高画質化部404は、変形画像について、教師データについて設定された一定の画像サイズとなるようにパディングを行ってパディング画像を生成し、パディング画像を高画質化エンジン入力する。   The image quality improving unit 404 according to this embodiment uses the image quality improving engine learned with such teacher data to improve the quality of the input image and generate a high quality image. At this time, the image quality improving unit 404 generates a deformed image obtained by enlarging or reducing the input image so as to have a constant resolution set for the teacher data. Further, the image quality improving unit 404 performs padding on the deformed image so that the image size becomes a constant image size set for the teacher data, generates a padding image, and inputs the padding image to the image quality improving engine.

また、高画質化部404は、高画質化エンジンから出力された高画質なパディング画像について、パディングを行った領域分だけトリミングし、高画質な変形画像を生成する。その後、高画質化部404は、生成した高画質な変形画像を入力画像の画像サイズになるように縮小又は拡大し、高画質画像を生成する。   Further, the image quality improving unit 404 trims only the padded area of the high quality padding image output from the image quality improving engine to generate a high quality deformed image. After that, the image quality improving unit 404 reduces or enlarges the generated high quality deformed image so as to have the image size of the input image, and generates a high quality image.

このため、本実施形態に係る高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。   Therefore, the image quality improving unit 404 according to the present embodiment generates an image with high image quality by the image quality improving engine even if the input image has an image size that cannot be dealt with in the first embodiment. be able to.

次に、図5及び11を参照して、本実施形態に係る一連の画像処理について説明する。図11は、本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510、ステップS520、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIGS. FIG. 11 is a flowchart of the image quality improving process according to this embodiment. Note that the processes of step S510, step S520, and step S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. When the image quality of the input image is unconditionally improved under shooting conditions other than the image size, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS520において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS530に移行する。ステップS530では、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影条件について、高画質化エンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。高画質化可否判定部403は、第1の実施形態と異なり、画像サイズは判定しない。   In step S520, as in the first embodiment, when the shooting condition acquisition unit 402 acquires the shooting condition group of the input image, the process proceeds to step S530. In step S530, the image quality improvement availability determination unit 403 determines whether the image quality improvement engine included in the image quality improvement unit 404 can handle the input image using the acquired shooting condition group. Specifically, the image quality improvement availability determination unit 403 determines whether or not the imaging condition of the input image is an imaging region, an imaging method, and an imaging angle of view that can be handled by the image quality improvement engine. Unlike the first embodiment, the image quality improvement availability determination unit 403 does not determine the image size.

高画質化可否判定部403が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。   If it is determined that the input image can be dealt with, the process proceeds to step S540. On the other hand, when the image quality improvement determination unit 403 determines that the image quality improvement engine cannot handle the input image based on these shooting conditions, the process proceeds to step S550. Even if it is determined that the input image cannot be processed based on a part of the imaging region, the imaging method, and the imaging angle of view, depending on the setting or the mounting mode of the image processing apparatus 400, in step S540. Image quality improvement processing may be performed.

処理がステップS540に移行すると、図11に示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS1110において、高画質化部404が、入力画像を教師データについて設定された一定の解像度となるように拡大又は縮小し、変形画像を生成する。   When the process proceeds to step S540, the image quality improving process according to the present embodiment shown in FIG. 11 is started. In the image quality improving process according to the present embodiment, first, in step S1110, the image quality improving unit 404 enlarges or reduces the input image to have a constant resolution set for the teacher data, and generates a deformed image. .

次に、ステップS1120において、高画質化部404は、生成した変形画像について、教師データについて設定された画像サイズとなるように、パディングを行ってパディング画像を生成する。この際、高画質化部404は、パディングを行う領域について、効果的に高画質化できるように機械学習モデルの特性に合わせて、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。   Next, in step S1120, the image quality improving unit 404 performs padding on the generated deformed image so that the image size is set for the teacher data to generate a padding image. At this time, the image quality improving unit 404 fills a region to be padded with a constant pixel value, a neighboring pixel value, or a mirror pixel value according to the characteristics of the machine learning model so as to effectively improve the image quality. Padding

ステップS1130では、高画質化部404がパディング画像を高画質化エンジンに入力し高画質化された高画質なパディング画像を取得する。   In step S1130, the image quality improving unit 404 inputs the padding image to the image quality improving engine and acquires the high quality padding image.

次に、ステップS1140において、高画質化部404は、高画質なパディング画像について、ステップS1120でパディングを行った領域分だけトリミングを行い、高画質な変形画像を生成する。   Next, in step S1140, the high quality image generation unit 404 trims the high quality padding image by the area padded in step S1120 to generate a high quality deformed image.

その後、ステップS1150において、高画質化部404は、高画質な変形画像を入力画像の画像サイズに縮小又は拡大し、高画質画像を生成する。高画質化部404がステップS1130において高画質画像を生成したら、本実施形態に係る高画質化処理は終了し、処理はステップS550に移行する。ステップS550の処理は、第1の実施形態のステップS550と同様であるため説明を省略する。   After that, in step S1150, the image quality improving unit 404 reduces or enlarges the high quality deformed image to the image size of the input image to generate a high quality image. When the image quality improving unit 404 generates the high image quality image in step S1130, the image quality improving process according to the present embodiment ends, and the process proceeds to step S550. The process of step S550 is the same as step S550 of the first embodiment, and thus the description thereof is omitted.

上記のように、本実施形態による高画質化部404は、入力画像の解像度が所定の解像度となるように、入力画像の画像サイズを調整する。また、高画質化部404は、画像サイズが調整された入力画像について、調整された画像サイズが高画質化エンジンによって対処可能な画像サイズとなるように、パディングを行ったパディング画像を生成し、パディング画像を高画質化エンジンに入力する。その後、高画質化部404は、高画質化エンジンからの出力画像について、パディングを行った領域分だけトリミングを行う。そして、高画質化部404は、トリミングが行われた画像の画像サイズを、入力画像の元の画像サイズに調整することで高画質画像を生成する。   As described above, the image quality improving unit 404 according to the present embodiment adjusts the image size of the input image so that the input image has a predetermined resolution. Further, the image quality improving unit 404 generates a padding image that has been padded so that the adjusted image size becomes an image size that can be handled by the image quality improving engine, for the input image whose image size has been adjusted, Input the padding image to the high quality image engine. After that, the image quality improving unit 404 trims the output image from the image quality improving engine only for the padded area. Then, the image quality improving unit 404 generates a high quality image by adjusting the image size of the trimmed image to the original image size of the input image.

これにより、本実施形態の高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。また、解像度を基準とした教師データで学習した高画質化エンジンを用いることで、単純に同一な画像サイズの画像を処理する第4の実施形態に係る高画質化エンジンよりも、効率よく入力画像を高画質化できる場合がある。   As a result, the image quality improving unit 404 of the present embodiment generates an image with a high image quality by the image quality improving engine even if the input image has an image size that cannot be dealt with by the first embodiment. You can Further, by using the image quality improving engine learned with the teacher data based on the resolution, the input image can be more efficiently processed than the image quality improving engine according to the fourth embodiment which simply processes images of the same image size. May be able to improve the image quality.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第6の実施形態>
次に、図4、5、12及び13を参照して、第6の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が、入力画像を一定の画像サイズの領域毎に高画質化することにより高画質画像を生成する。
<Sixth Embodiment>
Next, an image processing apparatus according to the sixth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit generates a high quality image by improving the image quality of the input image for each area having a constant image size.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。ただし、本実施形態では、高画質化エンジンの学習に用いる教師データが第1の実施形態における教師データと異なる。具体的には、教師データを構成する、低画質画像である入力データと高画質画像である出力データとのペア群を、低画質画像及び高画質画像における、位置関係が対応する一定の画像サイズの矩形領域画像によって構成している。なお、矩形領域は、部分領域の一例であり、矩形である必要はなく、どのような形状であってもよい。   The image quality improvement unit 404 according to the present embodiment includes the same image quality improvement engine as in the first embodiment. However, in this embodiment, the teacher data used for learning of the image quality enhancement engine is different from the teacher data in the first embodiment. Specifically, a group of pairs of low-quality image input data and high-quality image output data, which form teacher data, is assigned a fixed image size corresponding to the positional relationship between the low-quality image and the high-quality image. The rectangular area image of The rectangular area is an example of the partial area and does not have to be rectangular and may have any shape.

ここで、図12を参照して、本実施形態に係る高画質化エンジンの教師データについて説明する。図12に示すように、教師データを構成するペア群の一つに、例えば、低画質画像である元画像Im1210と、高画質画像である重ね合わせ画像Im1220があるとした場合を考える。この場合、第1の実施形態においては、教師データの入力データをIm1210、出力データをIm1220とした。   Here, the teacher data of the image quality improving engine according to the present embodiment will be described with reference to FIG. As shown in FIG. 12, let us consider a case where, for example, one of the pair groups forming the teacher data includes an original image Im1210 that is a low-quality image and a superimposed image Im1220 that is a high-quality image. In this case, in the first embodiment, the input data of the teacher data is Im1210 and the output data is Im1220.

これに対し、本実施形態においては、元画像Im1210のうちの矩形領域画像R1211を入力データとし、重ね合わせ画像Im1220において矩形領域画像R1211と同じ撮影領域である矩形領域画像R1221を出力データとする。そして、入力データである矩形領域画像R1211と出力データである矩形領域画像R1221によって教師データのペア(以下、第1の矩形領域画像ペア)を構成する。ここで、矩形領域画像R1211と矩形領域画像R1221は、一定の画像サイズの画像とされる。なお、元画像Im1210と重ね合わせ画像Im1220は任意の方法により位置合わせされてよい。また、矩形領域画像R1211と矩形領域画像R1221の対応する位置関係はテンプレートマッチングなどの任意の方法によって特定されてよい。なお、高画質化エンジンの設計によっては、入力データと出力データの、それぞれの画像サイズや次元数は異なっていてもよい。例えば、処理対象がOCTの画像である場合に、入力データがBスキャン画像(二次元画像)の一部であるとき、出力データがAスキャン画像(一次元画像)の一部であってもよい。   On the other hand, in the present embodiment, the rectangular area image R1211 of the original image Im1210 is used as input data, and the rectangular area image R1221 that is the same shooting area as the rectangular area image R1211 in the superimposed image Im1220 is used as output data. Then, the rectangular area image R1211, which is the input data, and the rectangular area image R1221, which is the output data, form a pair of teacher data (hereinafter, a first rectangular area image pair). Here, the rectangular area image R1211 and the rectangular area image R1221 are images having a constant image size. The original image Im1210 and the superimposed image Im1220 may be aligned by any method. Further, the corresponding positional relationship between the rectangular area image R1211 and the rectangular area image R1221 may be specified by an arbitrary method such as template matching. The image size and the number of dimensions of the input data and the output data may be different depending on the design of the high image quality engine. For example, when the processing target is an OCT image, when the input data is a part of the B scan image (two-dimensional image), the output data may be a part of the A scan image (one-dimensional image). .

矩形領域画像R1211,R1221に関する一定の画像サイズは、例えば、処理対象(入力画像)として想定される画像の画像サイズ群について、対応する各次元の画素数群の公約数から決定することができる。この場合には、高画質化エンジンが出力する矩形領域画像群の位置関係が重なることを防ぐことができる。具体的に、例えば、処理対象として想定される画像が二次元画像であり、画像サイズ群のうちの第1の画像サイズが幅500画素、高さ500画素であり、第2の画像サイズが幅100画素、高さ100画素である場合を考える。ここで、各辺の公約数から、矩形領域画像R1211,R1221に関する一定の画像サイズを選択する。この場合には、例えば、一定の画像サイズを、幅100画素、高さ100画素や、幅50画素、高さ50画素や、幅25画素、高さ25画素等から選択する。   The constant image size of the rectangular area images R1211 and R1221 can be determined from, for example, the common divisor of the pixel number group of each dimension for the image size group of the image assumed as the processing target (input image). In this case, it is possible to prevent the positional relationships of the rectangular area image groups output by the image quality improving engine from overlapping. Specifically, for example, the image supposed to be processed is a two-dimensional image, the first image size in the image size group is 500 pixels wide and 500 pixels high, and the second image size is wide. Consider the case of 100 pixels and height 100 pixels. Here, a fixed image size for the rectangular area images R1211 and R1221 is selected from the common divisor of each side. In this case, for example, a fixed image size is selected from width 100 pixels, height 100 pixels, width 50 pixels, height 50 pixels, width 25 pixels, height 25 pixels, and the like.

処理対象として想定される画像が三次元である場合には、幅、高さ、奥行きに関して画素数を決定する。なお、矩形領域は、入力データに対応する低画質画像と出力データに対応する高画質画像のペアの一つに対して、複数設定可能である。このため、例えば、元画像Im1210のうちの矩形領域画像R1212を入力データ、重ね合わせ画像Im1220において矩形領域画像R1212と同じ撮影領域である矩形領域画像R1222を出力データとする。そして、入力データである矩形領域画像R1212と出力データである矩形領域画像R1222によって教師データのペアを構成する。これにより、第1の矩形領域画像ペアとは別の矩形領域画像ペアを作成できる。   When the image supposed to be processed is three-dimensional, the number of pixels is determined in terms of width, height and depth. It should be noted that a plurality of rectangular areas can be set for one of a pair of a low-quality image corresponding to input data and a high-quality image corresponding to output data. Therefore, for example, the rectangular area image R1212 of the original image Im1210 is used as input data, and the rectangular area image R1222 that is the same shooting area as the rectangular area image R1212 in the superimposed image Im1220 is used as output data. Then, the rectangular area image R1212 that is the input data and the rectangular area image R1222 that is the output data form a pair of teacher data. Thereby, a rectangular area image pair different from the first rectangular area image pair can be created.

なお、矩形領域の画像を異なる座標の画像に変えながら多数の矩形領域画像のペアを作成することで教師データを構成するペア群を充実させることができ、当該教師ペアを用いて学習を行った高画質化エンジンによって効率的な高画質化が期待できる。ただし、機械学習モデルの高画質化に寄与しないペアは教師データに加えないようにすることができる。例えば、ペアを構成する出力データである高画質画像から作成した矩形領域画像が診断に適さない画質である場合には、そのような教師データを用いて学習を行った高画質化エンジンが出力する画像も画像診断に適さない画質になってしまう可能性がある。そのため、そのような高画質画像を含むペアを教師データから取り除くことができる。   It should be noted that it is possible to enhance the group of pairs forming the teacher data by creating a large number of pairs of rectangular area images while changing the image of the rectangular area to images of different coordinates, and the learning was performed using the teacher pairs. Efficient image quality can be expected with the image quality improvement engine. However, pairs that do not contribute to improving the image quality of the machine learning model can be excluded from the teacher data. For example, when the rectangular area image created from the high-quality image that is the output data forming the pair has an image quality not suitable for diagnosis, the image-quality improving engine that has performed learning using such teacher data outputs the image. Images may also have an image quality that is not suitable for image diagnosis. Therefore, the pair including such a high quality image can be removed from the teacher data.

また、例えば、ペアである、低画質画像から作成した矩形領域画像と高画質画像から作成した矩形領域画像の平均輝度や輝度分布が大きく異なる場合も、そのようなペアを教師データから取り除くことができる。そのような教師データを用いて学習を行うと、高画質化エンジンが入力画像と大きく異なる輝度分布を持つ画像診断に適さない画像を出力してしまう可能性がある。   Further, for example, even when the average brightness and the brightness distribution of a rectangular area image created from a low-quality image and a rectangular area image created from a high-quality image that are a pair are significantly different, such a pair can be removed from the teacher data. it can. If learning is performed using such teacher data, the image quality improving engine may output an image having a luminance distribution that is significantly different from the input image, which is not suitable for image diagnosis.

さらに、例えば、ペアである、低画質画像から作成した矩形領域画像と高画質画像から作成した矩形領域画像とに描画される撮影対象の構造や位置が大きく異なる場合を考える。この場合には、そのような教師データを用いて学習を行った高画質化エンジンが入力画像と大きく異なる構造や位置に撮影対象を描画した画像診断に適さない画像を出力してしまう可能性がある。そのため、このようなペアを教師データから取り除くこともできる。   Further, for example, consider a case where the structure and the position of the imaging target drawn in the rectangular area image created from the low-quality image and the rectangular area image created from the high-quality image that are paired are significantly different. In this case, there is a possibility that an image quality improvement engine that has performed learning using such teacher data may output an image that is not suitable for image diagnosis in which the imaging target is drawn at a structure or position that is significantly different from the input image. is there. Therefore, such a pair can be removed from the teacher data.

なお、第1の実施形態と同様に、教師データの入力データには、処理対象として想定される特定の撮影条件を持つ画像を用いるが、当該特定の撮影条件は、予め決定された撮影部位、撮影方式、及び撮影画角である。つまり、本実施形態に係る当該特定の撮影条件には、第1の実施形態と異なり、画像サイズは含まれない。   Note that, as in the first embodiment, an image having a specific image capturing condition assumed as a processing target is used as the input data of the teacher data, and the specific image capturing condition is a predetermined image capturing part, The shooting method and the shooting angle of view. That is, unlike the first embodiment, the specific shooting condition according to the present embodiment does not include the image size.

本実施形態に係る高画質化部404は、このような教師データで学習が行われた高画質化エンジンを用いて、入力画像を高画質化して高画質画像を生成する。この際、高画質化部404は、入力された画像を、隙間なく連続する、教師データについて設定された一定の画像サイズの矩形領域画像群に分割する。高画質化部404は、分割した矩形領域画像群のそれぞれを高画質化エンジンにより高画質化し、高画質な矩形領域画像群を生成する。その後、高画質化部404は、生成した高画質な矩形領域画像群を、入力画像の位置関係に応じて配置して結合し、高画質画像を生成する。ここで、学習時には、ペア画像である入力データと出力データとの互いの位置関係が対応していれば、それぞれの矩形領域を低画質画像及び高画質画像における任意の場所から切り出して(抽出して)もよい。一方、高画質化時には、入力画像を隙間なく連続する矩形領域画像群に分割してもよい。また、学習時の各ペア画像の画像サイズと、高画質化時の各矩形領域画像の画像サイズとが互いが対応する(例えば、同一となる)ように設定されてもよい。これらにより、学習効率を上げつつ、無駄な計算や足りない所が出てくると画像にならないという問題が生じないようにすることができる。   The image quality improving unit 404 according to this embodiment uses the image quality improving engine learned with such teacher data to improve the quality of the input image and generate a high quality image. At this time, the image quality improving unit 404 divides the input image into a rectangular area image group that is continuous with no gap and has a constant image size set for the teacher data. The image quality improving unit 404 improves the image quality of each of the divided rectangular area image groups by the image quality improving engine, and generates a high image quality rectangular area image group. After that, the image quality improving unit 404 arranges the generated high-quality rectangular area image groups according to the positional relationship of the input images and combines them to generate a high-quality image. Here, at the time of learning, if the mutual positional relationship between the input data and the output data, which are pair images, corresponds to each other, each rectangular area is cut out (extracted) from an arbitrary position in the low-quality image and the high-quality image. Good). On the other hand, when the image quality is improved, the input image may be divided into continuous rectangular area image groups without a gap. Further, the image size of each pair image at the time of learning and the image size of each rectangular area image at the time of high image quality may be set to correspond to each other (for example, be the same). As a result, it is possible to improve the learning efficiency and prevent the problem that an image is not formed when useless calculation or a lacking portion appears.

このように、本実施形態の高画質化部404は、入力された画像を矩形領域単位で高画質化し、高画質化した画像を結合することで、第1の実施形態では対処できなかった画像サイズの画像をも高画質化して高画質画像を生成することができる。   As described above, the image quality improving unit 404 of the present embodiment improves the image quality of the input image in units of rectangular areas, and combines the images of high image quality, so that the image that cannot be dealt with in the first embodiment. It is possible to generate a high quality image by improving the quality of a size image.

次に、図5、13及び14を参照して、本実施形態に係る一連の画像処理について説明する。図13は、本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510、ステップS520、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、画像サイズ以外の撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIGS. FIG. 13 is a flowchart of the image quality improving process according to this embodiment. Note that the processes of step S510, step S520, and step S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. When the image quality of the input image is unconditionally improved under shooting conditions other than the image size, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS520において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS530に移行する。ステップS530では、高画質化可否判定部403が、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。具体的には、高画質化可否判定部403は、入力画像の撮影条件について、高画質化エンジンが対処可能な、撮影部位、撮影方式、及び撮影画角であるか否かを判定する。高画質化可否判定部403は、第1の実施形態と異なり、画像サイズは判定しない。   In step S520, as in the first embodiment, when the shooting condition acquisition unit 402 acquires the shooting condition group of the input image, the process proceeds to step S530. In step S530, the image quality improvement availability determination unit 403 determines whether the image quality improvement engine included in the image quality improvement unit 404 can handle the input image using the acquired shooting condition group. Specifically, the image quality improvement availability determination unit 403 determines whether or not the imaging condition of the input image is an imaging region, an imaging method, and an imaging angle of view that can be handled by the image quality improvement engine. Unlike the first embodiment, the image quality improvement availability determination unit 403 does not determine the image size.

高画質化可否判定部403が、撮影部位、撮影方式、及び撮影画角について判定し、入力画像が対処可能と判定された場合には、処理はステップS540に移行する。一方、高画質化可否判定部403が、これら撮影条件に基づいて、高画質化エンジンが入力画像を対処不可能であると判定した場合には、処理はステップS550に移行する。なお、画像処理装置400の設定や実装形態によっては、撮影部位、撮影方式、及び撮影画角のうちの一部に基づいて入力画像が処理不可能であると判定されたとしても、ステップS540における高画質化処理が実施されてもよい。   If it is determined that the input image can be dealt with, the process proceeds to step S540. On the other hand, when the image quality improvement determination unit 403 determines that the image quality improvement engine cannot handle the input image based on these shooting conditions, the process proceeds to step S550. Even if it is determined that the input image cannot be processed based on a part of the imaging region, the imaging method, and the imaging angle of view, depending on the setting or the mounting mode of the image processing apparatus 400, in step S540. Image quality improvement processing may be performed.

処理がステップS540に移行すると、図13に示される本実施形態に係る高画質化処理が開始される。これについて図14を用いて説明をする。本実施形態に係る高画質化処理では、まず、ステップS1310において、図14(a)に示すように、入力画像を隙間なく連続する、教師データについて設定された一定の画像サイズ(R1411に示すサイズ)の矩形領域画像群に分割する。ここで、図14(a)は、入力画像Im1410を一定の画像サイズの矩形領域画像R1411〜R1426群に分割した一例を示す。なお、上述のよぅに、高画質化エンジンの設計によっては、高画質化エンジンの入力画像と出力画像の、それぞれの画像サイズや次元数が異なってもよい。この場合には、ステップS1320において生成される結合された高画質画像に欠損が無いように、入力画像の分割位置を重複させたり、分離させたりして、調整することができる。図14(b)には分割位置を重複させる例を示す。図14(b)において、R1411’、R1412’が重複した領域を示している。煩雑になるため図示はしないが、R1413〜R1426においても同様な重複領域R1413’〜R1426’を持つものとする。なお、図14(b)の場合の教師データについて設定される矩形領域サイズは、R1411’に示すサイズである。入力画像Im1410の画像外部の周辺(上下左右端)においてはデータが存在しないため、一定の画素値で埋めたり、近傍画素値で埋めたり、ミラーパディングしたりする。また、高画質化エンジンによっては、フィルタ処理により画像内部の周辺(上下左右端)では、高画質化の精度が低下する場合がある。そのため、図14(b)のように分割位置を重複して矩形領域画像を設定し、最終的な画像としては矩形領域画像の一部をトリミングして合成するようにしてもよい。高画質化エンジンの特性に応じて、矩形領域のサイズを設定する。なお、図14(a)、(b)にはOCTの断層画像を例示したが、図14(c)、(d)に示すように入力画像(Im1450)はOCTAのEn−Face画像のような正面画像でもよく、同様の処理が可能である。なお、矩形領域画像のサイズは、対象とする画像や高画質化エンジンの種類に応じて適切に設定を行う。   When the process proceeds to step S540, the image quality improving process according to the present embodiment shown in FIG. 13 is started. This will be described with reference to FIG. In the image quality improving process according to the present embodiment, first, in step S1310, as shown in FIG. 14A, a constant image size (size indicated by R1411) set for the teacher data, in which the input images are continuous without gaps. ) Rectangular area image group. Here, FIG. 14A shows an example in which the input image Im1410 is divided into rectangular area images R1411 to R1426 having a constant image size. As described above, depending on the design of the image quality improving engine, the image size and the number of dimensions of the input image and the output image of the image quality improving engine may be different. In this case, the divided positions of the input images can be adjusted to be overlapped or separated so that the combined high-quality images generated in step S1320 have no defects. FIG. 14B shows an example in which division positions are overlapped. In FIG. 14B, the regions where R1411 'and R1412' overlap are shown. Although not shown because of complexity, it is assumed that R1413 to R1426 also have similar overlapping regions R1413 'to R1426'. The rectangular area size set for the teacher data in the case of FIG. 14B is the size shown in R1411 '. Since data does not exist around the periphery (upper, left, right ends) of the input image Im1410 outside the image, the pixel is padded with a constant pixel value, neighboring pixel values, or mirror padded. In addition, depending on the image quality improving engine, the accuracy of image quality improvement may be reduced at the periphery (upper, left, right edges) inside the image due to the filtering process. Therefore, as shown in FIG. 14 (b), the division positions may be overlapped to set the rectangular area image, and a part of the rectangular area image may be trimmed and combined as a final image. The size of the rectangular area is set according to the characteristics of the image quality enhancement engine. 14A and 14B illustrate OCT tomographic images, the input image (Im1450) is an OCTA En-Face image as illustrated in FIGS. 14C and 14D. A front image may be used, and similar processing is possible. Note that the size of the rectangular area image is appropriately set according to the target image and the type of image quality enhancement engine.

次に、ステップS1320において、高画質化部404は、矩形領域画像R1411〜R1426群、あるいは重複領域を設定している場合は矩形領域画像R1411’〜R1426’群のそれぞれを高画質化エンジンにより高画質化し、高画質な矩形領域画像群を生成する。   Next, in step S1320, the image quality improving unit 404 enhances each of the rectangular area images R1411 to R1426, or the rectangular area images R1411 ′ to R1426 ′ group when the overlapping area is set by the image quality improving engine. Image quality is improved and a high-quality rectangular area image group is generated.

そして、ステップS1330において、高画質化部404は、生成した高画質な矩形領域画像群のそれぞれを、入力画像について分割した矩形領域画像R1411〜R1426群のそれぞれと同様の位置関係に配置して結合し、高画質画像を生成する。重複領域を設定している場合には、矩形領域画像R1411’〜R1426’それぞれと同様の位置関係に配置した後に矩形領域画像R1411〜R1426を切り出して結合し、高画質画像を生成する。なお、重複領域を利用して矩形領域画像R1411’〜R1426’の輝度値を補正するようにしてもよい。例えば、基準とする矩形領域画像を任意に設定する。そして、基準矩形画像と重複する領域のある隣接矩形画像において、同じ座標点の輝度値を計測することで、隣接画像間における輝度値の差(比率)が分かる。同様に、全ての画像においても重複領域における輝度値の差(比率)を求めることで、全体として輝度値のムラを無くすように補正を行うことが可能となる。なお、輝度値補正に重複領域を全て利用する必要はなく、重複領域の一部(周辺部数ピクセル)は使用しなくてもよい。   Then, in step S1330, image quality improving section 404 arranges and combines each of the generated high-quality rectangular area image groups in the same positional relationship as each of the divided rectangular area images R1411 to R1426. Then, a high quality image is generated. When the overlapping area is set, the rectangular area images R1411 'to R1426' are arranged in the same positional relationship as each other, and then the rectangular area images R1411 to R1426 are cut out and combined to generate a high quality image. The brightness values of the rectangular area images R1411 'to R1426' may be corrected using the overlapping area. For example, a rectangular area image as a reference is arbitrarily set. Then, by measuring the brightness value of the same coordinate point in the adjacent rectangular image having an area overlapping the reference rectangular image, the difference (ratio) of the brightness values between the adjacent images can be known. Similarly, by obtaining the difference (ratio) of the brightness values in the overlapping areas in all the images, it becomes possible to perform correction so as to eliminate the unevenness of the brightness values as a whole. Note that it is not necessary to use the entire overlapping area for brightness value correction, and it is not necessary to use part of the overlapping area (a few pixels in the peripheral portion).

上記のように、本実施形態に係る高画質化部404は、入力画像を所定の画像サイズの複数の矩形領域画像(第3の画像)R1411〜R1426に分割する。その後、高画質化部404は、分割した複数の矩形領域画像R1411〜R1426を高画質化エンジンに入力して複数の第4の画像を生成し、複数の第4の画像を統合することで、高画質画像を生成する。なお、統合時に矩形領域群間で位置関係が重なる場合には、該矩形領域群の画素値群を統合したり、上書きしたりすることができる。   As described above, the image quality improving unit 404 according to the present embodiment divides the input image into a plurality of rectangular area images (third images) R1411 to R1426 having a predetermined image size. After that, the image quality improving unit 404 inputs the plurality of divided rectangular area images R1411 to R1426 to the image quality improving engine to generate a plurality of fourth images, and integrates the plurality of fourth images. Generate high quality images. In addition, when the positional relationships among the rectangular area groups overlap at the time of integration, the pixel value groups of the rectangular area groups can be integrated or overwritten.

これにより、本実施形態の高画質化部404は、第1の実施形態では対処できなかった画像サイズの入力画像であっても、高画質化エンジンによって高画質化して高画質画像を生成することができる。また、教師データを、低画質画像及び高画質画像を所定の画像サイズに分割した複数の画像から作成すると、少ない画像から多くの教師データを作成することができる。そのため、この場合には、教師データを作成するための低画質画像及び高画質画像の数を少なくすることができる。   As a result, the image quality improving unit 404 of the present embodiment generates an image with a high image quality by the image quality improving engine even if the input image has an image size that cannot be dealt with by the first embodiment. You can Further, when the teacher data is created from a plurality of images obtained by dividing the low-quality image and the high-quality image into predetermined image sizes, a large number of teacher data can be created from a small number of images. Therefore, in this case, the number of low-quality images and high-quality images for creating the teacher data can be reduced.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第7の実施形態>
次に、図15〜17を参照して、第7の実施形態に係る画像処理装置について説明する。本実施形態では、画質評価部が、検者の指示に応じて、複数の高画質化エンジンから出力された複数の高画質画像のうち最も高画質な画像を選択する。
<Seventh Embodiment>
Next, an image processing apparatus according to the seventh embodiment will be described with reference to FIGS. In the present embodiment, the image quality evaluation unit selects the highest quality image among the plurality of high quality images output from the plurality of quality enhancement engines according to the instruction of the examiner.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment.

図15は、本実施形態に係る画像処理装置1500の概略的な構成を示す。本実施形態に係る画像処理装置1500には、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405に加えて、画質評価部1506が設けられている。なお、画像処理装置1500は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   FIG. 15 shows a schematic configuration of the image processing apparatus 1500 according to this embodiment. The image processing apparatus 1500 according to the present embodiment is provided with an image quality evaluation unit 1506 in addition to the acquisition unit 401, the shooting condition acquisition unit 402, the image quality improvement possibility determination unit 403, the image quality improvement unit 404, and the output unit 405. Has been. The image processing apparatus 1500 may be composed of a plurality of devices provided with some of these components. Here, the acquisition unit 401, the shooting condition acquisition unit 402, the image quality improvement possibility determination unit 403, the image quality improvement unit 404, and the output unit 405 have the same configurations as the image processing apparatus according to the first embodiment. 4, the same reference numerals are used for the configuration shown in FIG. 4, and description thereof is omitted.

また、画像処理装置1500は、第1の実施形態に係る画像処理装置400と同様に撮影装置10、表示部20及び不図示の他の装置と、任意の回路やネットワークを介して接続されてよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。   Further, the image processing apparatus 1500 may be connected to the image capturing apparatus 10, the display unit 20, and other devices (not shown) similarly to the image processing apparatus 400 according to the first embodiment via an arbitrary circuit or network. . Further, these devices may be connected to any other device via a circuit or a network, or may be configured integrally with any other device. Although these devices are separate devices in the present embodiment, some or all of these devices may be integrally configured.

本実施形態に係る高画質化部404には、それぞれ異なる教師データを用いて機械学習が行われた二つ以上の高画質化エンジンが備えられている。ここで、本実施形態に係る教師データ群の作成方法について説明する。具体的には、まず、様々な撮影条件によって撮影された、低画質画像である入力データと高画質画像である出力データのペア群を用意する。次に、任意の撮影条件の組み合わせによってペア群をグルーピングすることで、教師データ群を作成する。例えば、第1の撮影条件の組み合わせによって取得されたペア群で構成される第1の教師データ、第2の撮影条件の組み合わせによって取得されたペア群で構成される第2の教師データというように、教師データ群として作成する。   The image quality improving unit 404 according to the present embodiment includes two or more image quality improving engines in which machine learning is performed using different teacher data. Here, a method of creating the teacher data group according to the present embodiment will be described. Specifically, first, a pair group of input data, which is a low-quality image, and output data, which is a high-quality image, which are shot under various shooting conditions, is prepared. Next, the teacher data group is created by grouping the pair groups according to an arbitrary combination of shooting conditions. For example, the first teacher data composed of the pair group acquired by the combination of the first shooting conditions, the second teacher data composed of the pair group acquired by the combination of the second shooting conditions, and so on. , Create as a teacher data group.

その後、各教師データを用いて別々の高画質化エンジンに機械学習を行わせる。例えば、第1の教師データでトレーニングされた機械学習モデルに対応する第1の高画質化エンジン、第1の教師データでトレーニングされた機械学習モデルに対応する第1の高画質化エンジンというように高画質化エンジン群を用意する。   After that, machine learning is performed by different image quality improving engines using each teacher data. For example, a first image quality improvement engine corresponding to a machine learning model trained with first teacher data, a first image quality improvement engine corresponding to a machine learning model trained with first teacher data, and so on. Prepare a high-quality image engine group.

このような高画質化エンジンは、それぞれ対応する機械学習モデルのトレーニングに用いた教師データが異なるため、高画質化エンジンに入力される画像の撮影条件によって、入力画像を高画質化できる程度が異なる。具体的には、第1の高画質化エンジンは、第1の撮影条件の組み合わせで撮影して取得された入力画像に対しては高画質化の程度が高く、第2の撮影条件の組み合わせで撮影して取得された画像に対しては高画質化の程度が低い。同様に、第2の高画質化エンジンは、第2の撮影条件で撮影して取得された入力画像に対しては高画質化の程度が高く、第1の撮影条件で撮影して取得された画像に対しては高画質化の程度が低い。   Since such high image quality engine has different teacher data used for training the corresponding machine learning model, the degree to which the high quality of the input image can be achieved differs depending on the image capturing conditions of the image input to the high image quality engine. . Specifically, the first image-quality improving engine has a high degree of image quality improvement for the input image obtained by shooting under the combination of the first shooting conditions, and the first image-quality improving engine under the combination of the second shooting conditions. The degree of image quality improvement is low for images captured and acquired. Similarly, the second image quality improving engine has a high degree of image quality improvement with respect to the input image captured and acquired under the second image capturing condition, and is captured and acquired under the first image capturing condition. The degree of image quality improvement is low for images.

教師データのそれぞれが撮影条件の組み合わせによってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、高画質化エンジンは対応する撮影条件の組み合わせであれば、第1の実施形態に係る高画像化エンジンよりも効果的に高画質化を行うことができる。なお、教師データのペアをグルーピングするための撮影条件の組み合わせは、任意であってよく、例えば、撮影部位、撮影画角、及び画像の解像度のうちの二つ以上の組み合わせであってよい。また、教師データのグルーピングを、第2の実施形態と同様に、一つの撮影条件に基づいて行ってもよい。   Since each of the teacher data is composed of a pair group grouped by a combination of shooting conditions, image quality tendencies of the image groups forming the pair group are similar. Therefore, the image quality improving engine can achieve higher image quality more effectively than the image enhancing engine according to the first embodiment as long as the combination of corresponding shooting conditions is used. It should be noted that the combination of shooting conditions for grouping the pair of teacher data may be arbitrary, and may be, for example, a combination of two or more of a shooting region, a shooting angle of view, and an image resolution. Further, the teacher data may be grouped based on one shooting condition as in the second embodiment.

画質評価部1506は、高画質化部404が、複数の高画質化エンジンを用いて生成した複数の高画質画像について、検者の指示に応じて、最も画質の高い高画質画像を選択する。   The image quality evaluation unit 1506 selects the highest image quality image from the plurality of high image quality images generated by the image quality improvement unit 404 using the plurality of image quality improvement engines according to an instruction from the examiner.

出力部405は、画質評価部1506が選択した高画質画像を表示部20に表示させたり、他の装置に出力したりすることができる。なお、出力部405は、高画質化部404が生成した複数の高画質画像を表示部20に表示させることができ、画質評価部1506は、表示部20を確認した検者からの指示に応じて最も画質の高い高画質画像を選択することができる。   The output unit 405 can display the high-quality image selected by the image quality evaluation unit 1506 on the display unit 20 or output it to another device. The output unit 405 can display a plurality of high-quality images generated by the high-quality image generation unit 404 on the display unit 20, and the image quality evaluation unit 1506 responds to an instruction from the examiner who has confirmed the display unit 20. It is possible to select a high quality image having the highest image quality.

これにより、画像処理装置1500は、複数の高画質化エンジンを用いて生成された複数の高画質画像のうち、検者の指示に応じた最も画質の高い高画質画像を出力することができる。   As a result, the image processing apparatus 1500 can output the highest quality image in accordance with the instruction from the examiner among the plurality of quality images generated by using the plurality of quality enhancement engines.

以下、図16及び17を参照して、本実施形態に係る一連の画像処理について説明する。図16は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS1610及びステップS1620の処理は、第1の実施形態におけるステップS510及びステップS520での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS1620の処理の後に、ステップS1630の処理を省き、処理をステップS1640に移行してよい。   Hereinafter, a series of image processing according to the present embodiment will be described with reference to FIGS. FIG. 16 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S1610 and S1620 according to the present embodiment is the same as the processing of steps S510 and S520 in the first embodiment, so description will be omitted. In addition, when the image quality of an input image is unconditionally improved, the process of step S1630 may be omitted after the process of step S1620, and the process may proceed to step S1640.

ステップS1620において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS1630に移行する。ステップS1630では、高画質化可否判定部403が、第2の実施形態と同様に、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンのいずれかが入力画像を対処可能であるか否かを判定する。   In step S1620, as in the first embodiment, when the shooting condition acquisition unit 402 acquires the shooting condition group of the input image, the process proceeds to step S1630. In step S1630, as in the second embodiment, the image quality improvement possibility determination unit 403 uses the acquired shooting condition group to cause any of the image quality improvement engines included in the image quality improvement unit 404 to input the input image. It is determined whether it can be dealt with.

高画質化可否判定部403が、高画質化エンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS1660に移行する。一方で、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS1640に移行する。なお、画像処理装置400の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS1640を実施してもよい。   If the image quality improvement determination unit 403 determines that none of the image quality improvement engine groups can handle the input image, the process proceeds to step S1660. On the other hand, when the image quality improvement availability determination unit 403 determines that one of the image quality enhancement engine groups can handle the input image, the process proceeds to step S1640. Note that, depending on the setting and implementation of the image processing apparatus 400, even if the image quality enhancement engine determines that some image capturing conditions cannot be dealt with, step S1640 is performed, as in the first embodiment. You may.

ステップS1640においては、高画質化部404が、高画質化エンジン群のそれぞれにステップS1610において取得した入力画像を入力し、高画質画像群を生成する。   In step S1640, the image quality improving unit 404 inputs the input image acquired in step S1610 to each of the image quality improving engine groups to generate a high quality image group.

ステップS1650では、画質評価部1506が、ステップS1640において生成された高画質画像群のうち最も高画質な画像を選択する。具体的には、まず、出力部405が、ステップS1640で生成された高画質画像群を、表示部20のユーザーインターフェースに表示させる。   In step S1650, the image quality evaluation unit 1506 selects the highest quality image from the high quality image group generated in step S1640. Specifically, first, the output unit 405 displays the high-quality image group generated in step S1640 on the user interface of the display unit 20.

ここで、図17に当該インターフェースの一例を示す。当該インターフェースには、入力画像Im1710、及び高画質化エンジン群のそれぞれが出力した高画質画像Im1720,Im1730,Im1740,Im1750のそれぞれが表示される。検者は不図示の任意の入力装置を操作して、画像群(高画質画像Im1720〜Im1750)のうち、最も高画質、つまり、最も画像診断に適した画像を指示する。なお、高画質化エンジンによって高画質化していない入力画像の方が、画像診断に適している可能性もあるので、検者による指示の対象となる画像群に入力画像を加えてもよい。   Here, FIG. 17 shows an example of the interface. The input image Im1710 and each of the high-quality images Im1720, Im1730, Im1740, and Im1750 output by each of the high-quality image engine groups are displayed on the interface. The examiner operates an arbitrary input device (not shown) to indicate the highest image quality among the image groups (high quality images Im1720 to Im1750), that is, the image most suitable for image diagnosis. Since an input image that has not been improved in image quality by the image quality improvement engine may be more suitable for image diagnosis, the input image may be added to the image group to be instructed by the examiner.

その後、画質評価部1506は、検者によって指示された高画質画像を最も高画質な画像として選択する。   Then, the image quality evaluation unit 1506 selects the high quality image designated by the examiner as the highest quality image.

ステップS1660においては、出力部405が、ステップS1650において選択された画像を表示部20に表示させたり、他の装置に出力したりする。ただし、ステップS1630において、入力画像が処理不可能であると判定されている場合には、出力部405は、入力画像を出力画像として出力する。なお、出力部405は、検者によって入力画像が指示された場合や、入力画像が処理不可能であった場合には、表示部20に出力画像が入力画像と同じであることを表示させてもよい。   In step S1660, output unit 405 causes display unit 20 to display the image selected in step S1650 or outputs the image to another device. However, if it is determined in step S1630 that the input image cannot be processed, the output unit 405 outputs the input image as the output image. It should be noted that the output unit 405 causes the display unit 20 to display that the output image is the same as the input image when the examiner instructs the input image or when the input image cannot be processed. Good.

上記のように、本実施形態に係る高画質化部404は、複数の高画質化エンジンを用いて、入力画像から複数の高画質画像を生成し、画像処理装置1500の出力部405は、検者の指示に応じて、複数の高画質画像のうち少なくとも一つの画像を出力する。特に、本実施形態では、出力部405は、検者の指示に応じて、最も高画質な画像を出力する。これにより、画像処理装置1500は、複数の高画質化エンジンを用いて生成された複数の高画質画像のうち、検者の指示に応じた画質の高い高画質画像を出力することができる。   As described above, the image quality improving unit 404 according to the present embodiment uses the plurality of image quality improving engines to generate a plurality of high quality images from the input image, and the output unit 405 of the image processing apparatus 1500 detects the image quality. At least one image out of the plurality of high-quality images is output according to the instruction of the person. In particular, in this embodiment, the output unit 405 outputs the image with the highest image quality in accordance with the instruction from the examiner. As a result, the image processing apparatus 1500 can output a high-quality image having a high image quality in accordance with an instruction from the examiner, out of the plurality of high-quality images generated by using the plurality of high-quality images engines.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置1500に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 1500, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第8の実施形態>
次に、図15及び16を参照して、第8の実施形態に係る画像処理装置について説明する。本実施形態では、画質評価部が、画質評価エンジンを用いて、複数の高画質化エンジンから出力された複数の高画質画像のうち最も高画質な画像を選択する。
<Eighth Embodiment>
Next, an image processing apparatus according to the eighth embodiment will be described with reference to FIGS. In the present embodiment, the image quality evaluation unit uses the image quality evaluation engine to select the highest quality image among the plurality of high quality images output from the plurality of quality improvement engines.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第7の実施形態に係る画像処理装置1500と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第7の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第7の実施形態に係る画像処理装置の構成と同様であるため、図15に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 1500 according to the seventh embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the seventh embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the seventh embodiment, the same reference numerals are used for the configuration illustrated in FIG. 15, and description thereof will be omitted. To do.

本実施形態に係る画質評価部1506には、入力された画像の画質を評価する画質評価エンジンが備えられている。画質評価エンジンは入力された画像に対する画質評価指数を出力する。本実施形態に係る画質評価エンジンにおいて画質評価指数を算出する画質評価処理手法は、機械学習アルゴリズムを用いて構築した機械学習モデルを用いる。機械学習モデルをトレーニングする教師データを構成するペアの入力データは、事前に様々な撮影条件によって撮影された低画質画像群と高画質画像群とで構成される画像群である。また、機械学習モデルをトレーニングする教師データを構成するペアの出力データは、例えば、画像診断を行う検者が入力データの画像群のそれぞれについて設定した画質評価指数群である。   The image quality evaluation unit 1506 according to this embodiment includes an image quality evaluation engine that evaluates the image quality of an input image. The image quality evaluation engine outputs an image quality evaluation index for the input image. The image quality evaluation processing method for calculating the image quality evaluation index in the image quality evaluation engine according to the present embodiment uses a machine learning model constructed using a machine learning algorithm. The input data of a pair forming the teacher data for training the machine learning model is an image group including a low image quality image group and a high image quality image group that have been captured in advance under various image capturing conditions. Further, the output data of the pair forming the teacher data for training the machine learning model is, for example, the image quality evaluation index group set for each image group of the input data by the examiner who performs image diagnosis.

次に図16を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS1610、ステップS1620、ステップS1630、及びステップS1660の処理は、第7の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS1620の処理の後に、ステップS1630の処理を省き、処理をステップS1640に移行してよい。   Next, with reference to FIG. 16, a series of image processing according to the present embodiment will be described. Note that the processes of step S1610, step S1620, step S1630, and step S1660 according to the present embodiment are the same as those of the seventh embodiment, so description thereof will be omitted. In addition, when the image quality of an input image is unconditionally improved, the process of step S1630 may be omitted after the process of step S1620, and the process may proceed to step S1640.

ステップS1630において、第7の実施形態と同様に、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS1640に移行する。なお、画像処理装置400の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS1640を実施してもよい。   In step S1630, if the image quality improvement availability determination unit 403 determines that one of the image quality enhancement engine groups can handle the input image, as in the seventh embodiment, the process proceeds to step S1640. Transition. Note that, depending on the setting and implementation of the image processing apparatus 400, even if the image quality enhancement engine determines that some image capturing conditions cannot be dealt with, step S1640 is performed, as in the first embodiment. You may.

ステップS1640においては、高画質化部404が、高画質化エンジン群のそれぞれにステップS1610において取得した入力画像を入力し、高画質画像群を生成する。   In step S1640, the image quality improving unit 404 inputs the input image acquired in step S1610 to each of the image quality improving engine groups to generate a high quality image group.

ステップS1650では、画質評価部1506が、ステップS1640において生成された高画質画像群のうち最も高画質な画像を選択する。具体的には、まず、画質評価部1506が、ステップS1640で生成された高画質画像群を、画質評価エンジンに入力する。画質評価エンジンは、入力された各高画質画像について、学習に基づいて、画質評価指数を算出する。画質評価部1506は、算出された画質評価指数のうち最も高い画質評価指数が算出された高画質画像を選択する。なお、高画質化エンジンによって高画質化していない入力画像の方が、画像診断に適している可能性もあるので、画質評価部1506は、画質評価エンジンに入力画像も入力し、入力画像に対する画質評価指数も選択に加えてもよい。ステップS1660は、第7の実施形態のステップS1660と同様であるため説明を省略する。   In step S1650, the image quality evaluation unit 1506 selects the highest quality image from the high quality image group generated in step S1640. Specifically, first, the image quality evaluation unit 1506 inputs the high quality image group generated in step S1640 to the image quality evaluation engine. The image quality evaluation engine calculates an image quality evaluation index for each input high quality image based on learning. The image quality evaluation unit 1506 selects the high quality image for which the highest image quality evaluation index has been calculated among the calculated image quality evaluation indexes. Since the input image that has not been improved in image quality by the image quality improvement engine may be more suitable for image diagnosis, the image quality evaluation unit 1506 also inputs the input image to the image quality evaluation engine and An evaluation index may also be added to the selection. Since step S1660 is similar to step S1660 of the seventh embodiment, description thereof will be omitted.

上記のように、本実施形態に係る画像処理装置1500は、高画質画像の画質を評価する画質評価部1506を更に備える。高画質化部404は、複数の高画質化エンジンを用いて、入力画像から複数の高画質画像を生成し、画像処理装置1500の出力部405は、画質評価部1506による評価結果に応じて、複数の高画質画像のうち少なくとも一つの画像を出力する。特に、本実施形態に係る画質評価部1506は、所定の評価手法による評価値を学習データとした画質評価エンジンを含む。画質評価部1506は、複数の高画質画像のうち、画質評価部1506による画質評価エンジンを用いた評価の結果が最も高い高画質画像を選択する。出力部405は、画質評価部1506によって選択された最も評価値が高い高画質画像を出力する。   As described above, the image processing apparatus 1500 according to this embodiment further includes the image quality evaluation unit 1506 that evaluates the image quality of the high quality image. The image quality improving unit 404 uses the plurality of image quality improving engines to generate a plurality of high image quality images from the input image, and the output unit 405 of the image processing apparatus 1500 outputs the image quality evaluation unit 1506 according to the evaluation result. At least one of the plurality of high quality images is output. In particular, the image quality evaluation unit 1506 according to the present embodiment includes an image quality evaluation engine that uses the evaluation value obtained by a predetermined evaluation method as learning data. The image quality evaluation unit 1506 selects a high quality image that has the highest evaluation result by the image quality evaluation unit 1506 using the image quality evaluation engine from the plurality of high quality images. The output unit 405 outputs the high quality image having the highest evaluation value selected by the image quality evaluation unit 1506.

これにより、本実施形態に係る画像処理装置1500では、画質評価エンジンの出力に基づいて、複数の高画質画像から最も画像診断に適した高画質画像を容易に出力することができる。   As a result, the image processing apparatus 1500 according to the present embodiment can easily output a high-quality image most suitable for image diagnosis from a plurality of high-quality images based on the output of the image quality evaluation engine.

なお、本実施形態では、画質評価部1506が画質評価エンジンによって出力される画質評価指数のうち最も高い画質評価指数の高画質画像を選択し、出力部405が選択された高画質画像を表示部20に表示させた。しかしながら、画質評価部1506の構成はこれに限られない。例えば、画質評価部1506は画質評価エンジンによって出力される画質評価指数のうち上位いくつかの画質評価指数の高画質画像を選択し、出力部405が選択された高画質画像を表示部20に表示させてもよい。また、出力部405が、画質評価エンジンによって出力された画質評価指数を対応する高画質画像とともに表示部20に表示させ、画質評価部1506が検者の指示に応じて、最も高画質な画像を選択してもよい。   In this embodiment, the image quality evaluation unit 1506 selects the high quality image having the highest image quality evaluation index among the image quality evaluation indexes output by the image quality evaluation engine, and the output unit 405 displays the selected high quality image. It was displayed on 20. However, the configuration of the image quality evaluation unit 1506 is not limited to this. For example, the image quality evaluation unit 1506 selects the high quality images of the top several image quality evaluation indexes of the image quality evaluation indexes output by the image quality evaluation engine, and the output unit 405 displays the selected high quality images on the display unit 20. You may let me. In addition, the output unit 405 causes the image quality evaluation index output by the image quality evaluation engine to be displayed on the display unit 20 together with the corresponding high quality image, and the image quality evaluation unit 1506 displays the highest quality image according to the instruction of the examiner. You may choose.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置1500に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 1500, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第9の実施形態>
次に、図18及び19を参照して、第9の実施形態に係る画像処理装置について説明する。本実施形態では、真贋評価部が、真贋評価エンジンを用いて、高画質化部404によって生成された高画質画像が十分に高画質化されたものであるか否かを評価する。
<Ninth Embodiment>
Next, an image processing apparatus according to the ninth embodiment will be described with reference to FIGS. In the present embodiment, the authenticity evaluation unit uses an authenticity evaluation engine to evaluate whether or not the high-quality image generated by the image quality improvement unit 404 is sufficiently high quality.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment.

図18は、本実施形態に係る画像処理装置1800の概略的な構成を示す。本実施形態に係る画像処理装置1800には、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405に加えて、真贋評価部1807が設けられている。なお、画像処理装置1800は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   FIG. 18 shows a schematic configuration of an image processing device 1800 according to this embodiment. The image processing apparatus 1800 according to the present embodiment is provided with an authenticity evaluation unit 1807 in addition to the acquisition unit 401, the imaging condition acquisition unit 402, the image quality improvement possibility determination unit 403, the image quality improvement unit 404, and the output unit 405. Has been. The image processing device 1800 may be configured by a plurality of devices provided with some of these components. Here, the acquisition unit 401, the shooting condition acquisition unit 402, the image quality improvement possibility determination unit 403, the image quality improvement unit 404, and the output unit 405 have the same configurations as the image processing apparatus according to the first embodiment. 4, the same reference numerals are used for the configuration shown in FIG. 4, and description thereof is omitted.

また、画像処理装置1800は、第1の実施形態に係る画像処理装置400と同様に撮影装置10、表示部20及び不図示の他の装置と、任意の回路やネットワークを介して接続されてよい。また、これらの装置は、他の任意の装置と回路やネットワークを介して接続されてもよいし、他の任意の装置と一体的に構成されてもよい。なお、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。   Further, the image processing device 1800 may be connected to the image capturing device 10, the display unit 20, and other devices (not shown) similarly to the image processing device 400 according to the first embodiment via an arbitrary circuit or network. . Further, these devices may be connected to any other device via a circuit or a network, or may be configured integrally with any other device. Although these devices are separate devices in the present embodiment, some or all of these devices may be integrally configured.

真贋評価部1807には、真贋評価エンジンが備えられている。真贋評価部1807は、真贋評価エンジンを用いて、高画質化エンジンが生成した高画質画像が十分に高画質化されているか否かを評価する。本実施形態に係る真贋評価エンジンにおける真贋評価処理手法は、機械学習アルゴリズムを用いて構築した機械学習モデルを用いる。   The authenticity evaluation unit 1807 includes an authenticity evaluation engine. The authenticity evaluation unit 1807 evaluates whether or not the high quality image generated by the high quality image engine is sufficiently high quality by using the authenticity evaluation engine. The authenticity evaluation processing method in the authenticity evaluation engine according to the present embodiment uses a machine learning model constructed by using a machine learning algorithm.

機械学習モデルをトレーニングする教師データには、事前に様々な撮影条件によって撮影された高画質画像群と対象の撮影装置によって撮影され取得されたことを表すラベル(以下、真作ラベル)とのペア群が含まれる。また、教師データには、高画質化の精度の悪い高画質化エンジンに低画質画像を入力して生成した高画質画像群と対象の撮影装置によって撮影され取得されていないことを表すラベル(以下、贋作ラベル)とのペア群が含まれる。   The teacher data for training the machine learning model has a pair of high-quality images that were captured in advance under various capturing conditions and a label (hereinafter, a true label) representing that the image was captured and captured by the target image capturing device. Groups are included. Further, in the teacher data, a high-quality image group generated by inputting a low-quality image into a high-quality image engine with poor accuracy in image quality and a label indicating that the target image capturing device has not captured and acquired , Counterfeit label) and a group of pairs.

このような教師データを用いて学習が行われた真贋評価エンジンは、入力された画像に対し、確実に撮影装置によって撮影され取得された画像か否かを評価できるわけではないが、撮影装置によって撮影され取得された画像らしさを持つ画像か否かを評価できる。この特性を利用して、真贋評価部1807は、真贋評価エンジンに高画質化部404が生成した高画質画像を入力することで、高画質化部404が生成した高画質画像が十分に高画質化されているか否かを評価できる。   The authenticity evaluation engine learned by using such teacher data cannot evaluate whether or not the input image is an image captured and acquired by the image capturing device, but it does not depend on the image capturing device. It is possible to evaluate whether or not the image has the image-likeness that is captured and acquired. By utilizing this characteristic, the authenticity evaluation unit 1807 inputs the high-quality image generated by the high-quality image generation unit 404 to the authenticity evaluation engine, so that the high-quality image generated by the high-quality image generation unit 404 is sufficiently high in quality. It is possible to evaluate whether or not

出力部405は、真贋評価部1807によって高画質化部404が生成した高画質画像が十分に高画質化されていると判断されたら、当該高画質画像を表示部20に表示させる。一方、出力部405は、真贋評価部1807によって、高画質化部404が生成した高画質画像が十分に高画質化されていないと判断されたら、入力画像を表示部20に表示させる。なお、出力部405は、入力画像を表示させる際に、高画質化部404によって生成された高画質画像が十分に高画質化されなかったことや表示されている画像が入力画像であることを表示部20に表示させることができる。   When it is determined by the authenticity evaluation unit 1807 that the high quality image generated by the high quality image generation unit 404 is sufficiently high quality, the output unit 405 displays the high quality image on the display unit 20. On the other hand, the output unit 405 causes the display unit 20 to display the input image when the authenticity evaluation unit 1807 determines that the high quality image generated by the high quality image generation unit 404 is not sufficiently high quality. The output unit 405, when displaying the input image, confirms that the high-quality image generated by the high-quality image generation unit 404 has not been sufficiently improved in quality, and that the displayed image is the input image. It can be displayed on the display unit 20.

以下、図19を参照して、本実施形態に係る一連の画像処理について説明する。図19は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS1910〜ステップS1940の処理は、第1の実施形態におけるステップS510〜ステップS540での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS1920の処理の後に、ステップS1930の処理を省き、処理をステップS1940に移行してよい。   Hereinafter, a series of image processing according to the present embodiment will be described with reference to FIG. FIG. 19 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S1910 to S1940 according to the present embodiment is the same as the processing of steps S510 to S540 in the first embodiment, so description will be omitted. In addition, when the image quality of the input image is unconditionally improved with respect to the shooting condition, the process of step S1930 may be omitted after the process of step S1920 and the process may proceed to step S1940.

ステップS1940において、高画質化部404が高画質画像群を生成したら、処理はステップS1950に移行する。ステップS1950では、真贋評価部1807が、ステップS1940において生成された高画質画像を真贋評価エンジンに入力し、真贋評価エンジンの出力に基づいて真贋評価を行う。具体的には、真贋評価部1807は、真贋評価エンジンから真作ラベル(真)が出力された場合には、生成された高画質画像が十分に高画質化されていると評価する。一方、真贋評価エンジンから贋作ラベル(偽)が出力された場合には、真贋評価部1807は、生成された高画質画像が十分に高画質化されていないと評価する。   In step S1940, when the image quality improving unit 404 generates a high quality image group, the process proceeds to step S1950. In step S1950, the authenticity evaluation unit 1807 inputs the high-quality image generated in step S1940 into the authenticity evaluation engine and evaluates the authenticity based on the output of the authenticity evaluation engine. Specifically, the authenticity evaluation unit 1807 evaluates that the generated high quality image is sufficiently high quality when the authenticity label (true) is output from the authenticity evaluation engine. On the other hand, when an authentication label (false) is output from the authentication evaluation engine, the authentication evaluation unit 1807 evaluates that the generated high quality image is not sufficiently high quality.

ステップS1960においては、出力部405が、真贋評価部1807によって高画質化部404が生成した高画質画像が十分に高画質化されていると判断されたら、当該高画質画像を表示部20に表示させる。一方、出力部405は、真贋評価部1807によって、高画質化部404が生成した高画質画像が十分に高画質化されていないと判断されたら、入力画像を表示部20に表示させる。   In step S1960, when the output unit 405 determines that the high quality image generated by the high quality image generation unit 404 by the authenticity evaluation unit 1807 is sufficiently high quality, the high quality image is displayed on the display unit 20. Let On the other hand, the output unit 405 causes the display unit 20 to display the input image when the authenticity evaluation unit 1807 determines that the high quality image generated by the high quality image generation unit 404 is not sufficiently high quality.

上記のように、本実施形態に係る画像処理装置1800は、高画質画像の画質を評価する真贋評価部1807を更に備え、真贋評価部1807は画像の真贋を評価する真贋評価エンジンを含む。真贋評価エンジンは、高画質化部404の高画質化エンジンよりも高画質化処理の精度が低い(悪い)高画質化エンジンによって生成された画像を学習データとした機械学習エンジンを含む。画像処理装置1800の出力部405は、真贋評価部の真贋評価エンジンからの出力が真である場合に、高画質画像を出力する。   As described above, the image processing apparatus 1800 according to this embodiment further includes the authenticity evaluation unit 1807 that evaluates the image quality of a high-quality image, and the authenticity evaluation unit 1807 includes an authenticity evaluation engine that evaluates the authenticity of the image. The authenticity evaluation engine includes a machine learning engine in which an image generated by an image quality improving engine whose image quality improving processing is lower (bad) than the image quality improving engine of the image quality improving unit 404 is used as learning data. The output unit 405 of the image processing device 1800 outputs a high-quality image when the output from the authenticity evaluation engine of the authenticity evaluation unit is true.

これにより、本実施形態に係る画像処理装置1800では、検者は十分に高画質化された高画質画像を効率よく確認することができる。   As a result, in the image processing device 1800 according to the present embodiment, the examiner can efficiently check the high-quality image with sufficiently high image quality.

また、高画質化エンジンの機械学習モデルと真贋評価エンジンの機械学習モデルとを協調させてトレーニングすることによって、双方のエンジンの効率や精度を向上させてもよい。   Further, the machine learning model of the image quality improving engine and the machine learning model of the authenticity evaluation engine may be trained in cooperation with each other to improve the efficiency and accuracy of both engines.

なお、本実施形態では、高画質化部404が一つの高画質画像を生成し、真贋評価部1807が生成された一つの高画質画像について評価を行う構成としたが、真贋評価部1807の評価はこれに限られない。例えば、第2の実施形態のように、高画質化部404が複数の高画質化エンジンを用いて複数の高画質画像を生成する場合には、真贋評価部1807が生成された複数の高画質画像の少なくとも一つについて評価を行う構成としてもよい。この場合、例えば真贋評価部1807は、生成された複数の高画質画像の全てについて評価を行ってもよいし、複数の高画質画像のうち検者によって指示された画像のみについて評価を行ってもよい。   In the present embodiment, the image quality improving unit 404 generates one high quality image, and the authenticity evaluation unit 1807 evaluates one generated high quality image. However, the evaluation by the authenticity evaluation unit 1807 is not limited to this. Is not limited to this. For example, when the image quality improving unit 404 generates a plurality of high image quality images using a plurality of image quality improving engines as in the second embodiment, the authenticity evaluation unit 1807 generates a plurality of high image quality images. The evaluation may be performed on at least one of the images. In this case, for example, the authenticity evaluation unit 1807 may evaluate all of the generated plurality of high quality images, or may evaluate only the image instructed by the examiner among the plurality of high quality images. Good.

さらに、出力部405は、真贋評価部1807による高画質画像が十分に高画質化されているか否かの判断結果を表示部20に表示させ、検者の指示に応じて、高画質画像を出力してもよい。   Further, the output unit 405 causes the display unit 20 to display the determination result of whether or not the high quality image by the authenticity evaluation unit 1807 is sufficiently high quality, and outputs the high quality image according to the instruction of the examiner. You may.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置1800に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 1800, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第10の実施形態>
次に、図4及び5を参照して、第10の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が三次元の入力画像を複数の二次元画像に分割して高画質化エンジンに入力し、高画質化エンジンからの出力画像を結合することで三次元の高画質画像を生成する。
<Tenth Embodiment>
Next, an image processing apparatus according to the tenth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit divides the three-dimensional input image into a plurality of two-dimensional images, inputs the images into the image quality improving engine, and combines the output images from the image quality improving engine to combine the three-dimensional image. Generate high quality images.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、構造的に連続する二次元画像群で構成された、三次元画像を取得する。具体的には、三次元画像は、例えば、OCTのBスキャン像(断層画像)群で構成された三次元OCTボリューム画像である。また、例えば、アキシャル断層像群で構成された三次元CTボリューム画像である。   The acquisition unit 401 according to the present embodiment acquires a three-dimensional image composed of a structurally continuous two-dimensional image group. Specifically, the three-dimensional image is, for example, a three-dimensional OCT volume image composed of a B scan image (tomographic image) group of OCT. In addition, for example, it is a three-dimensional CT volume image composed of a group of axial tomographic images.

高画質化部404には、第1の実施形態と同様に、高画質化エンジンが備えられている。なお、高画質化エンジンの教師データである入力データと出力データのペア群は二次元画像の画像群により構成されている。高画質化部404は、取得された三次元画像を複数の二次元画像に分割し、二次元画像毎に高画質化エンジンに入力する。これにより、高画質化部404は、複数の二次元の高画質画像を生成することができる。   The image quality improving unit 404 is provided with an image quality improving engine as in the first embodiment. A pair group of input data and output data, which is teacher data of the image quality improving engine, is composed of an image group of two-dimensional images. The image quality improving unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images, and inputs each two-dimensional image to the image quality improving engine. Thereby, the image quality improving unit 404 can generate a plurality of two-dimensional high quality images.

出力部405は、高画質化部404によって、三次元画像の各二次元画像について生成された複数の二次元の高画質画像を結合し、三次元の高画質画像を出力する。   The output unit 405 combines the plurality of two-dimensional high-quality images generated for each two-dimensional image of the three-dimensional image by the high-quality rendering unit 404 and outputs the three-dimensional high-quality image.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS510〜ステップS530、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。ただし、ステップS510では、取得部401は三次元画像を取得する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of steps S510 to S530 and step S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. However, in step S510, the acquisition unit 401 acquires a three-dimensional image. Note that when the image quality of the input image is unconditionally improved, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS530において、高画質化可否判定部403が、高画質化エンジンによって入力画像を対処可能と判定した場合には、処理はステップS540に移行する。なお、高画質化可否判定部403は、三次元画像の撮影条件に基づいて当該判定を行ってもよいし、三次元画像を構成する複数の二次元画像に関する撮影条件に基づいて当該判定を行ってもよい。ステップS540では、高画質化部404が、取得された三次元画像を複数の二次元画像に分割する。高画質化部404は、分割した複数の二次元画像のそれぞれを高画質化エンジンに入力し、複数の二次元の高画質画像を生成する。高画質化部404は、取得した三次元画像に基づいて、生成した複数の二次元の高画質画像を結合し、三次元の高画質画像を生成する。   When the image quality improvement determination unit 403 determines in step S530 that the input image can be handled by the image quality improvement engine, the process proceeds to step S540. The image quality improvement determination unit 403 may make the determination based on the shooting conditions of the three-dimensional image, or may make the determination based on the shooting conditions of a plurality of two-dimensional images forming the three-dimensional image. May be. In step S540, the image quality improving unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images. The image quality improving unit 404 inputs each of the plurality of divided two-dimensional images to the image quality improving engine and generates a plurality of two-dimensional high quality images. The image quality improving unit 404 combines the plurality of generated two-dimensional high-quality images based on the acquired three-dimensional image to generate a three-dimensional high-quality image.

ステップS550では、出力部405は、生成された三次元の高画質画像を表示部20に表示させる。なお、三次元の高画質画像の表示態様は任意であってよい。   In step S550, the output unit 405 causes the display unit 20 to display the generated three-dimensional high quality image. The display mode of the three-dimensional high-quality image may be arbitrary.

上記のように、本実施形態に係る高画質化部404は、三次元の入力画像を複数の二次元の画像に分割して高画質化エンジンに入力する。高画質化部404は、高画質化エンジンから出力された複数の二次元の高画質画像を結合し、三次元の高画質画像を生成する。   As described above, the image quality improving unit 404 according to the present embodiment divides the three-dimensional input image into a plurality of two-dimensional images and inputs them to the image quality improving engine. The image quality improving unit 404 combines a plurality of two-dimensional image quality images output from the image quality improving engine to generate a three-dimensional image quality image.

これにより、本実施形態に係る高画質化部404は、二次元画像の教師データを用いて学習が行われた高画質化エンジンを用いて、三次元画像を高画質化することができる。   As a result, the image quality improving unit 404 according to the present embodiment can improve the image quality of the three-dimensional image using the image quality improving engine that has been learned using the teacher data of the two-dimensional image.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第11の実施形態>
次に、図4及び5を参照して、第11の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が三次元の入力画像を複数の二次元画像に分割し、複数の二次元画像を複数の高画質化エンジンによって並列に高画質化し、高画質化エンジンからの出力画像を結合することで三次元の高画質画像を生成する。
<Eleventh Embodiment>
Next, an image processing apparatus according to the eleventh embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving section divides the three-dimensional input image into a plurality of two-dimensional images, and the plurality of two-dimensional images are image-processed in parallel by a plurality of image quality improving engines. By combining the output images, a three-dimensional high quality image is generated.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第10の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第10の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1及び10の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the tenth embodiment. Therefore, in the following, the image processing apparatus according to the present embodiment will be described focusing on the differences from the image processing apparatus according to the tenth embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to the configuration of the image processing apparatus according to the first and tenth embodiments, the configuration illustrated in FIG. Is omitted.

本実施形態に係る高画質化部404には、第10の実施形態と同様の高画質化エンジンが、複数備えられている。なお、高画質化部404に備えられた複数の高画質化エンジン群は、回路やネットワークを介して、二つ以上の装置群に分散処理可能なように実装されていてもよいし、単一の装置に実装されていてもよい。   The image quality improving unit 404 according to the present embodiment includes a plurality of image quality improving engines similar to those of the tenth embodiment. Note that the plurality of image quality improvement engine groups provided in the image quality improvement unit 404 may be mounted so as to be able to perform distributed processing in two or more device groups via a circuit or a network. It may be mounted on the device.

高画質化部404は、第10の実施形態と同様に、取得された三次元画像を複数の二次元画像に分割する。高画質化部404は、複数の二次元画像を複数の高画質化エンジンを用いて、分担して(並列的に)高画質化を行い、複数の二次元の高画質画像を生成する。高画質化部404は、複数の高画質化エンジンから出力された複数の二次元の高画質画像を、処理対象である三次元画像に基づいて結合し、三次元の高画質画像を生成する。   The image quality improving unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images, as in the tenth embodiment. The image quality improving unit 404 uses a plurality of image quality improving engines to share (in parallel) the image quality of a plurality of two-dimensional images to generate a plurality of two-dimensional image quality images. The image quality improving unit 404 combines a plurality of two-dimensional image quality images output from a plurality of image quality improvement engines based on the processing target three-dimensional image to generate a three-dimensional image quality image.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS510〜ステップS530、及びステップS550の処理は、第10の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of steps S510 to S530 and step S550 according to the present embodiment are the same as those of the tenth embodiment, so description thereof will be omitted. Note that when the image quality of the input image is unconditionally improved, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS530において、高画質化可否判定部403が、高画質化エンジンによって入力画像を対処可能と判定した場合には、処理はステップS540に移行する。なお、高画質化可否判定部403は、三次元画像の撮影条件に基づいて当該判定を行ってもよいし、三次元画像を構成する複数の二次元画像に関する撮影条件に基づいて当該判定を行ってもよい。   When the image quality improvement determination unit 403 determines in step S530 that the input image can be handled by the image quality improvement engine, the process proceeds to step S540. The image quality improvement determination unit 403 may make the determination based on the shooting conditions of the three-dimensional image, or may make the determination based on the shooting conditions of a plurality of two-dimensional images forming the three-dimensional image. May be.

ステップS540では、高画質化部404が、取得された三次元画像を複数の二次元画像に分割する。高画質化部404は、分割した複数の二次元画像のそれぞれを複数の高画質化エンジンに入力し、並列的に高画質化処理して、複数の二次元の高画質画像を生成する。高画質化部404は、取得した三次元画像に基づいて、生成した複数の二次元の高画質画像を結合し、三次元の高画質画像を生成する。   In step S540, the image quality improving unit 404 divides the acquired three-dimensional image into a plurality of two-dimensional images. The image quality improvement unit 404 inputs each of the plurality of divided two-dimensional images to a plurality of image quality improvement engines, performs image quality improvement processing in parallel, and generates a plurality of two-dimensional image quality images. The image quality improving unit 404 combines the plurality of generated two-dimensional high-quality images based on the acquired three-dimensional image to generate a three-dimensional high-quality image.

ステップS550では、出力部405は、生成された三次元の高画質画像を表示部20に表示させる。なお、三次元の高画質画像の表示態様は任意であってよい。   In step S550, the output unit 405 causes the display unit 20 to display the generated three-dimensional high quality image. The display mode of the three-dimensional high-quality image may be arbitrary.

上記のように、本実施形態に係る高画質化部404は、複数の高画質化エンジンを含む。高画質化部404は、三次元の入力画像を複数の二次元の画像に分割し、複数の高画質化エンジンを並列的に用いて、複数の二次元の高画質画像を生成する。高画質化部404は複数の二次元の高画質画像を統合することで、三次元の高画質画像を生成する。   As described above, the image quality improving unit 404 according to the present embodiment includes a plurality of image quality improving engines. The image quality improving unit 404 divides the three-dimensional input image into a plurality of two-dimensional images and uses a plurality of image quality improving engines in parallel to generate a plurality of two-dimensional high quality images. The image quality improving unit 404 generates a three-dimensional high quality image by integrating a plurality of two-dimensional high quality images.

これにより、本実施形態に係る高画質化部404は、二次元画像の教師データを用いて学習が行われた高画質化エンジンを用いて、三次元画像を高画質化することができる。また、第10の実施形態と比べて、より効率的に三次元画像を高画質化することができる。   As a result, the image quality improving unit 404 according to the present embodiment can improve the image quality of the three-dimensional image using the image quality improving engine that has been learned using the teacher data of the two-dimensional image. In addition, the quality of the three-dimensional image can be improved more efficiently than in the tenth embodiment.

なお、複数の高画質化エンジンの教師データは、各高画質化エンジンで処理を行う処理対象に応じて異なる教師データであってもよい。例えば、第1の高画質化エンジンは第1の撮影領域についての教師データで学習を行い、第2の高画質化エンジンは第2の撮影領域についての教師データで学習を行ってもよい。この場合には、それぞれの高画質化エンジンが、より精度良く二次元画像の高画質化を行うことができる。   The teacher data of the plurality of image quality improving engines may be different teacher data depending on the processing target to be processed by each image quality improving engine. For example, the first image-quality improving engine may perform learning using teacher data for the first image capturing area, and the second image-quality improving engine may perform learning using teacher data for the second image capturing area. In this case, each image quality improving engine can improve the image quality of the two-dimensional image with higher accuracy.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Moreover, the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第12の実施形態>
次に、図5及び20を参照して、第12の実施形態に係る画像処理装置について説明する。本実施形態では、取得部401が撮影装置ではなく画像管理システム2000から入力画像を取得する。
<Twelfth Embodiment>
Next, an image processing apparatus according to the twelfth embodiment will be described with reference to FIGS. In the present embodiment, the acquisition unit 401 acquires an input image from the image management system 2000 instead of the image capturing device.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は第1の実施形態に係る画像処理装置400の構成と同様であるため、図4に示す構成について同じ参照符号を用いて説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Note that the configuration of the image processing apparatus according to the present embodiment is similar to the configuration of the image processing apparatus 400 according to the first embodiment, so the same reference numerals are used for the configuration shown in FIG.

図20は、本実施形態に係る画像処理装置400の概略的な構成を示す。本実施形態に係る画像処理装置400は画像管理システム2000、及び表示部20と任意の回路やネットワークを介して接続されている。画像管理システム2000は、任意の撮影装置によって撮影された画像や画像処理された画像を受信して保存する装置及びシステムである。また、画像管理システム2000は、接続された装置の要求に応じて画像を送信したり、保存された画像に対して画像処理を行ったり、画像処理の要求を他の装置に要求したりすることができる。画像管理システムとしては、例えば、画像保存通信システム(PACS)を含むことができる。   FIG. 20 shows a schematic configuration of the image processing device 400 according to this embodiment. The image processing apparatus 400 according to the present embodiment is connected to the image management system 2000 and the display unit 20 via an arbitrary circuit or network. The image management system 2000 is an apparatus and system that receives and saves an image captured by an arbitrary image capturing device or an image that has undergone image processing. Further, the image management system 2000 may transmit an image in response to a request from a connected device, perform image processing on a stored image, or request an image processing request from another device. You can The image management system may include, for example, an image storage communication system (PACS).

本実施形態に係る取得部401は、画像処理装置400に接続される画像管理システム2000から入力画像を取得することができる。また、出力部405は、高画質化部404によって生成された高画質画像を、画像管理システム2000に出力することができる。   The acquisition unit 401 according to the present embodiment can acquire an input image from the image management system 2000 connected to the image processing apparatus 400. Further, the output unit 405 can output the high quality image generated by the high quality image generation unit 404 to the image management system 2000.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520〜ステップS540の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of steps S520 to S540 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. Note that when the image quality of the input image is unconditionally improved, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS510において、取得部401は、回路やネットワークを介して接続された画像管理システム2000から、画像管理システム2000が保存している画像を入力画像として取得する。なお、取得部401は、画像管理システム2000からの要求に応じて、入力画像を取得してもよい。このような要求は、例えば、画像管理システム2000が画像を保存した時や、保存した画像を他の装置に送信する前、保存された画像を表示部20に表示する時に発行されてよい。また、当該要求は、例えば、画像管理システム2000を利用者が操作して高画質化処理の要求を行った時や、画像管理システム2000が備える画像解析機能に高画質画像を利用する時等に発行されてよい。   In step S510, the acquisition unit 401 acquires an image stored in the image management system 2000 as an input image from the image management system 2000 connected via a circuit or a network. The acquisition unit 401 may acquire the input image in response to a request from the image management system 2000. Such a request may be issued, for example, when the image management system 2000 saves an image, before transmitting the saved image to another device, or when displaying the saved image on the display unit 20. Further, the request is, for example, when a user operates the image management system 2000 to make a request for high image quality processing, or when the high image quality is used for the image analysis function of the image management system 2000. May be issued.

ステップS520〜ステップS540の処理は、第1の実施形態における処理と同様である。ステップS540において高画質化部404が高画質画像を生成したら、処理はステップS550に移行する。ステップS550において、出力部405は、ステップS540において高画質画像が生成されていれば、該高画質画像を画像管理システム2000に出力画像として出力する。ステップS540において高画質画像が生成されていなければ、上記入力画像を画像管理システム2000に出力画像として出力する。なお、出力部405は、画像処理装置400の設定や実装によっては、出力画像を画像管理システム2000が利用可能なように加工したり、出力画像のデータ形式を変換したりしてもよい。   The processing of steps S520 to S540 is the same as the processing in the first embodiment. When the image quality improving unit 404 generates a high quality image in step S540, the process proceeds to step S550. In step S550, if the high quality image is generated in step S540, the output unit 405 outputs the high quality image to the image management system 2000 as an output image. If a high quality image has not been generated in step S540, the input image is output to the image management system 2000 as an output image. Note that the output unit 405 may process the output image so that it can be used by the image management system 2000 or convert the data format of the output image, depending on the settings and implementation of the image processing apparatus 400.

上記のように、本実施形態に係る取得部401は、画像管理システム2000から入力画像を取得する。このため、本実施形態の画像処理装置400は、画像管理システム2000が保存している画像を元に、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。また、出力された高画質画像は画像管理システム2000に保存されたり、画像管理システム2000が備えるユーザーインターフェースに表示されたりすることができる。また、出力された高画質画像は、画像管理システム2000が備える画像解析機能に利用されたり、画像管理システム2000に接続された他の装置に画像管理システム2000を介して送信されたりすることができる。   As described above, the acquisition unit 401 according to the present embodiment acquires the input image from the image management system 2000. Therefore, the image processing apparatus 400 according to the present embodiment, based on the images stored in the image management system 2000, provides a high-quality image suitable for image diagnosis to enhance the invasiveness of the photographer or the subject, It can be output without increasing labor. Further, the output high quality image can be stored in the image management system 2000 or can be displayed on a user interface included in the image management system 2000. Further, the output high-quality image can be used for an image analysis function included in the image management system 2000 or can be transmitted to another device connected to the image management system 2000 via the image management system 2000. .

なお、画像処理装置400や画像管理システム2000、表示部20は、不図示の他の装置と回路やネットワークを介して接続されていてもよい。また、これらの装置は本実施形態では別個の装置とされているが、これらの装置の一部又は全部を一体的に構成してもよい。   The image processing device 400, the image management system 2000, and the display unit 20 may be connected to other devices (not shown) via a circuit or a network. Further, although these devices are separate devices in the present embodiment, some or all of these devices may be integrally configured.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を画像管理システム2000や画像処理装置400に接続される他の装置に出力してもよい。   The output unit 405 may output the generated high-quality image to another device connected to the image management system 2000 or the image processing device 400, as in the first embodiment.

<第13の実施形態>
次に、図4、5、21A、及び21Bを参照して、第13の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が複数の画像を入力画像とし、一枚の高画質画像を生成する。
<Thirteenth Embodiment>
Next, with reference to FIGS. 4, 5, 21A, and 21B, an image processing apparatus according to the thirteenth embodiment will be described. In the present embodiment, the image quality improving unit uses a plurality of images as input images to generate one high quality image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、複数の画像を取得する。   The acquisition unit 401 according to the present embodiment acquires a plurality of images as input data to be processed from the image capturing device 10 or another device.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。また、教師データも第1の実施形態と同様であってよい。高画質化部404は、取得部401で取得された複数の画像のそれぞれを高画質化エンジンに入力し、出力された複数の高画質画像を重ね合わせ処理して、最終的な高画質画像を生成する。なお、高画質化部404は、複数の高画質画像を重ね合わせ処理する前に、任意の手法により複数の高画質画像を位置合わせしてよい。   The image quality improvement unit 404 according to the present embodiment includes the same image quality improvement engine as in the first embodiment. Further, the teacher data may be the same as in the first embodiment. The image quality improvement unit 404 inputs each of the plurality of images acquired by the acquisition unit 401 to the image quality improvement engine, superimposes the plurality of output high quality images, and outputs a final high quality image. To generate. Note that the image quality improving unit 404 may align the plurality of high quality images by an arbitrary method before performing the superimposing process on the plurality of high quality images.

出力部405は、高画質化部404が生成した最終的な高画質画像を表示部20に表示させる。なお、出力部405は、最終的な高画質画像とともに、複数の入力画像を表示部20に表示させてもよい。また、出力部405は、生成された複数の高画質画像を最終的な高画質画像や入力画像とともに表示部20に表示してもよい。   The output unit 405 causes the display unit 20 to display the final high quality image generated by the high quality image generation unit 404. The output unit 405 may display a plurality of input images on the display unit 20 together with the final high quality image. Further, the output unit 405 may display the plurality of generated high quality images on the display unit 20 together with the final high quality image and the input image.

次に、図5及び図21Aを参照して、本実施形態に係る一連の画像処理について説明する。図21Aは本実施形態に係る高画質化処理のフロー図である。なお、本実施形態に係るステップS510〜ステップS530の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。   Next, a series of image processing according to this embodiment will be described with reference to FIGS. 5 and 21A. FIG. 21A is a flowchart of the image quality improving process according to this embodiment. Note that the processes of steps S510 to S530 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted.

ただし、ステップS510では、取得部401は複数の画像を取得し、ステップS520及びS530では、複数の画像のそれぞれについて、撮影条件が取得されるとともに、高画質化エンジンによって対処可能か否かが判断される。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。また、複数の画像の一部の画像が、高画質化エンジンによって対処不可能であると判断された場合には、当該画像を以降の処理から除外することができる。   However, in step S510, the acquisition unit 401 acquires a plurality of images, and in steps S520 and S530, the shooting conditions are acquired for each of the plurality of images, and it is determined whether or not the image quality improvement engine can deal with the shooting conditions. To be done. Note that when the image quality of the input image is unconditionally improved, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540. In addition, when a part of the plurality of images is determined to be incapable of being dealt with by the image quality improving engine, the image can be excluded from the subsequent processing.

ステップS530において、高画質化可否判定部403が、複数の入力画像について高画質化エンジンによって対処可能と判定した場合には、処理はステップS540に移行する。処理がステップS540に移行すると、図21Aに示される本実施形態に係る高画質化処理が開始される。本実施形態に係る高画質化処理では、まず、ステップS2110において、高画質化部404が、複数の入力画像のそれぞれを高画質化エンジンに入力し、高画質画像群を生成する。   In step S530, when the image quality improvement determination unit 403 determines that the plurality of input images can be dealt with by the image quality improvement engine, the process proceeds to step S540. When the process proceeds to step S540, the image quality improving process according to the present embodiment shown in FIG. 21A is started. In the image quality improving process according to the present embodiment, first, in step S2110, the image quality improving unit 404 inputs each of the plurality of input images to the image quality improving engine to generate a high image quality image group.

次に、ステップS2120では、高画質化部404は、生成した高画質画像群を重ね合わせ処理して最終的な一枚の高画質画像を生成する。なお、重ね合わせ処理は加算平均等平均化の処理やその他の既存の任意の処理によって行われてよい。また、重ね合わせに際しては、高画質化部404は複数の高画質画像を任意の手法により位置合わせした上で重ね合わせしてよい。高画質化部404が最終的な高画質画像を生成したら、処理はステップS550に移行する。   Next, in step S2120, the high quality image generation unit 404 performs a superimposing process on the generated high quality image group to generate a final high quality image. The superposition processing may be performed by averaging processing such as arithmetic averaging or any other existing processing. Further, upon superimposing, the image quality improving unit 404 may align a plurality of high quality images by an arbitrary method and then superimpose them. When the image quality improving unit 404 generates the final high quality image, the process proceeds to step S550.

ステップS550では、出力部405が生成された最終的な高画質画像を表示部20に表示させる。   In step S550, the output unit 405 causes the display unit 20 to display the generated final high-quality image.

上記のように、本実施形態に係る高画質化部404は、複数の入力画像から一つの最終的な高画質画像を生成する。高画質化エンジンによる高画質化は入力画像に基づくため、例えば、病変部等が、ある入力画像において適切に表示されていない場合、当該入力画像を高画質化した高画質画像では低い画素値となってしまう。一方で、同一箇所を撮影した他の入力画像では病変部等が適切に表示されており、当該他の入力画像を高画質化した高画質画像では高い画素値となっている場合もある。そこで、これらの高画質画像を重ね合わせることで、当該低い又は高い画素値となっている箇所を適切に表示できるようになり、高コントラストな高画質画像を生成することができる。なお、入力画像の数は、従来の重ね合わせに必要な枚数よりも少ない数とすることで、従来のような撮影時間の長期化等の代償をより少なくすることができる。   As described above, the image quality improving unit 404 according to the present embodiment generates one final high quality image from a plurality of input images. Since the image quality improvement by the image quality improvement engine is based on the input image, for example, when the lesion area or the like is not properly displayed in a certain input image, the high image quality image obtained by improving the image quality of the input image has a low pixel value. turn into. On the other hand, a lesion part or the like is appropriately displayed in another input image obtained by photographing the same portion, and a high pixel value may be obtained in a high-quality image obtained by improving the quality of the other input image. Therefore, by superimposing these high-quality images, it becomes possible to appropriately display the portion having the low or high pixel value, and it is possible to generate a high-contrast high-quality image. Note that the number of input images is set to be smaller than the number required for conventional superimposition, so that the cost such as a longer shooting time as in the conventional case can be further reduced.

なお、当該作用については、例えば、OCTA等のモーションコントラストデータを用いた入力画像を用いる場合に顕著となる。   It should be noted that the action becomes remarkable when an input image using motion contrast data such as OCTA is used.

モーションコントラストデータは、撮影対象の同一箇所を繰り返し撮影した時間間隔における、撮影対象の時間的な変化を検出したものであるため、例えば、ある時間間隔では撮影対象の動きについて僅かな動きしか検出できない場合がある。これに対して、別の時間間隔撮影を行った場合には、撮影対象の動きをより大きな動きとして検出できる場合もある。そのため、それぞれの場合のモーションコントラスト画像を高画質化した画像を重ね合わせることで、特定のタイミングでは生じていなかった又は僅かにしか検出されていなかったモーションコントラストを補間することができる。そのため、このような処理によれば、撮影対象のより多くの動きについてコントラスト強調が行われたモーションコントラスト画像を生成することができ、検者は、撮影対象のより正確な状態を把握することができる。   Since the motion contrast data is obtained by detecting the temporal change of the shooting target at the time intervals at which the same part of the shooting target is repeatedly shot, for example, only a slight movement of the shooting target can be detected at a certain time interval. There are cases. On the other hand, when another time interval shooting is performed, the motion of the shooting target may be detected as a larger motion. Therefore, by superimposing the images obtained by improving the quality of the motion contrast images in each case, it is possible to interpolate the motion contrast that did not occur or was only slightly detected at a specific timing. Therefore, according to such processing, it is possible to generate a motion contrast image in which contrast enhancement is performed for more movements of the imaging target, and the examiner can grasp a more accurate state of the imaging target. it can.

従って、OCTA画像のように時間的に変化している箇所を描出する画像を入力画像として用いる場合には、異なる時間で取得した高画質画像を重ね合わせることによって、被検者の所定部位をより詳細に画像化することができる。   Therefore, when an image that depicts a temporally changing portion, such as an OCTA image, is used as an input image, high-quality images acquired at different times are superposed so that a predetermined part of the subject can be more accurately identified. It can be imaged in detail.

なお、本実施形態では、複数の入力画像からそれぞれ高画質画像を生成し、高画質画像を重ね合わせることで、最終的な一枚の高画質画像を生成したが、複数の入力画像から一枚の高画質画像を生成する方法はこれに限られない。例えば、図21Bに示す本実施形態の高画質化処理の別例では、ステップS540において高画質化処理が開始されると、ステップS2130において、高画質化部404が入力画像群を重ね合わせし、一枚の重ね合わせされた入力画像を生成する。   In this embodiment, a high-quality image is generated from each of a plurality of input images, and the high-quality images are superposed to generate one final high-quality image. The method of generating the high quality image of is not limited to this. For example, in another example of the image quality improving process of the present embodiment illustrated in FIG. 21B, when the image quality improving process is started in step S540, the image quality improving unit 404 superimposes the input image groups in step S2130, Generate a single superimposed input image.

その後、ステップS2140において、高画質化部404が、一枚の重ね合わされた入力画像を高画質化エンジンに入力し、一枚の高画質画像を生成する。このような、高画質化処理であっても、上述の高画質化処理と同様に、複数の入力画像について低い又は高い画素値となっている箇所を適切に表示できるようになり、高コントラストな高画質画像を生成することができる。当該処理も、上記OCTA画像等のモーションコントラスト画像を入力画像とした場合に、顕著な作用を奏することができる。   After that, in step S2140, the image quality improving unit 404 inputs one superimposed input image to the image quality improving engine, and generates one high quality image. Even in such an image quality improving process, similarly to the above-described image quality improving process, it becomes possible to appropriately display a portion having a low or high pixel value in a plurality of input images, and to obtain a high contrast. A high quality image can be generated. This process can also exert a remarkable effect when a motion contrast image such as the OCTA image is used as an input image.

なお、当該高画質処理を行う場合には、高画質化エンジンの教師データの入力データとして、処理対象とされる複数の入力画像と同数の入力画像の重ね合わせ画像を用いる。これにより、高画質化エンジンにより適切な高画質化処理を行うことができる。   In the case of performing the high image quality processing, a superimposition image of the same number of input images as the plurality of input images to be processed is used as the input data of the teacher data of the high image quality improvement engine. As a result, the image quality improving engine can perform an appropriate image quality improving process.

また、本実施形態による高画質化処理及び上述の別の高画質化処理について、高画質画像群又は入力画像群を組み合わせる処理は、重ね合わせに限られない。例えば、これらの画像群にMAP推定処理を適用することで一枚の画像を生成してもよい。また、高画質画像群又は入力画像群を合成して一枚の画像を生成してもよい。   Further, regarding the image quality improvement processing according to the present embodiment and the above-described other image quality improvement processing, the processing of combining the high image quality image group or the input image group is not limited to superposition. For example, one image may be generated by applying the MAP estimation process to these image groups. Further, one image may be generated by combining the high quality image group or the input image group.

高画質画像群又は入力画像群を合成して一枚の画像を生成する場合としては、例えば、入力画像として高輝度領域について広い階調を有する画像と低輝度領域に広い階調を有する画像を用いる場合がある。この場合には、例えば、高輝度領域について広い階調を有する画像を高画質化した画像と、低輝度領域について広い階調を有する画像を高画質化した画像とを合成する。これにより、より広い明るさの幅(ダイナミックレンジ)を表現できる画像を生成することができる。なお、この場合には、高画質化エンジンの教師データの入力データは、処理対象とされる、高輝度領域について広い階調を有する画像や低輝度領域について広い階調を有する低画質画像とすることができる。また、高画質化エンジンの教師データの出力データは、入力データに対応する高画質画像とすることができる。   When a high-quality image group or an input image group is combined to generate one image, for example, an image having a wide gradation in a high-luminance region and an image having a wide gradation in a low-luminance region are used as input images. May be used. In this case, for example, an image having a high image quality of an image having a wide gradation in the high luminance region and an image having a high image quality of an image having a wide gradation in the low luminance region are combined. This makes it possible to generate an image capable of expressing a wider brightness range (dynamic range). In this case, the input data of the teacher data of the image quality improving engine is an image to be processed, which has a wide gradation in a high brightness region and a low image quality image having a wide gradation in a low brightness region. be able to. Further, the output data of the teacher data of the image quality improving engine can be a high quality image corresponding to the input data.

また、高輝度領域について広い階調を有する画像と、低輝度領域について広い階調を有する画像とを合成し、合成した画像を高画質化エンジンによって高画質化してもよい。この場合にも、より広い明るさの幅を表現できる画像を生成することができる。なお、この場合には、高画質化エンジンの教師データの入力データは、処理対象とされる、高輝度領域について広い階調を有する低画質画像と低輝度領域について広い階調を有する低画質画像を合成した画像とすることができる。また、高画質化エンジンの教師データの出力データは、入力データに対応する高画質画像とすることができる。   Further, an image having a wide gradation in the high-luminance region and an image having a wide gradation in the low-luminance region may be combined, and the combined image may be rendered high in image quality by the image quality improving engine. Also in this case, it is possible to generate an image that can express a wider brightness range. In this case, the input data of the teacher data of the image quality improving engine is the low image quality image having a wide gradation in the high brightness region and the low image quality image having a wide gradation in the low brightness region, which are the processing targets. Can be a composite image. Further, the output data of the teacher data of the image quality improving engine can be a high quality image corresponding to the input data.

これらの場合には、高画質化エンジンを用いて、より広い明るさの幅を表現できる画像を高画質化することができ、従来と比べてより少ない枚数の画像等で処理を行うことができ、より少ない代償で、画像解析に適した画像を提供することができる。   In these cases, the high image quality engine can be used to improve the image quality of an image that can express a wider range of brightness, and processing can be performed with a smaller number of images or the like compared to the conventional case. , It is possible to provide an image suitable for image analysis with less cost.

なお、高輝度領域について広い階調を有する画像と、低輝度領域について広い階調を有する画像の撮影方法としては、撮影装置の露光時間をより短く又はより長くする等の、任意の方法を採用してよい。また、階調の幅の分け方は、低輝度領域及び高輝度領域に限られず、任意であってよい。   As an image capturing method for an image having a wide gradation in the high-luminance region and an image having a wide gradation in the low-luminance region, an arbitrary method such as a shorter or longer exposure time of the photographing device is adopted. You can do it. Further, the method of dividing the gradation width is not limited to the low-luminance region and the high-luminance region, and may be arbitrary.

また、本実施形態に係る高画質化処理において、複数の高画質化エンジンを用いて、複数の入力画像を並列的に処理してもよい。なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   In addition, in the image quality improving process according to the present embodiment, a plurality of image quality improving engines may be used to process a plurality of input images in parallel. Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第14の実施形態>
次に、図4及び5を参照して、第14の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が複数の低画質画像から生成された中画質画像を入力画像とし、高画質画像を生成する。
<Fourteenth Embodiment>
Next, an image processing apparatus according to the fourteenth embodiment will be described with reference to FIGS. In the present embodiment, the high quality image generation unit generates a high quality image by using a medium quality image generated from a plurality of low quality images as an input image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、複数の低画質画像を重ね合わせ処理した中画質画像を取得する。なお、低画質画像の重ね合わせに際しては、任意の位置合わせ処理が行われてよい。   The acquisition unit 401 according to the present embodiment acquires a medium-quality image obtained by superimposing a plurality of low-quality images as input data to be processed from the imaging device 10 or another device. Note that an arbitrary alignment process may be performed when superimposing low-quality images.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが備えられている。ただし、本実施形態の高画質化エンジンは、中程度の画質である中画質画像を入力し、高画質画像を出力するように設計されている。中画質画像とは複数の低画質画像群を重ね合わせして生成された重ね合わせ画像である。また、高画質画像は中画質画像よりも高画質な画像である。また、高画質化エンジンのトレーニングに用いられた教師データを構成するペア群についても、各ペアを構成する入力データは中画質画像と同様にして生成された中画質画像であり、出力データは高画質画像である。   The image quality improvement unit 404 according to the present embodiment includes the same image quality improvement engine as in the first embodiment. However, the image quality improving engine of the present embodiment is designed to input a medium image quality image having a medium image quality and output a high image quality image. The medium-quality image is a superimposed image generated by superimposing a plurality of low-quality image groups. A high quality image is a higher quality image than a medium quality image. Also, regarding the pair group that constitutes the teacher data used for the training of the image quality enhancement engine, the input data that configures each pair is a medium image quality image generated in the same way as the medium image quality image, and the output data is high. It is a high quality image.

出力部405は、高画質化部404が生成した高画質画像を表示部20に表示させる。なお、出力部405は、高画質画像とともに、入力画像を表示部20に表示させてもよく、この場合に、出力部405は、入力画像が複数の低画質画像から生成された画像であることを表示部20に表示してもよい。   The output unit 405 causes the display unit 20 to display the high quality image generated by the high quality image generation unit 404. The output unit 405 may display the input image on the display unit 20 together with the high-quality image. In this case, the output unit 405 determines that the input image is an image generated from a plurality of low-quality images. May be displayed on the display unit 20.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520〜ステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of steps S520 to S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted.

ステップS510においては、取得部401は、撮影装置10や他の装置から、入力画像として中画質画像を取得する。なお、取得部401は撮影装置10からの要求に応じて、撮影装置10が生成した中画質画像を入力画像として取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。   In step S510, the acquisition unit 401 acquires a medium-quality image as an input image from the imaging device 10 or another device. It should be noted that the acquisition unit 401 may acquire, as an input image, a medium image quality image generated by the image capturing apparatus 10 in response to a request from the image capturing apparatus 10. Such a request is, for example, when the image capturing apparatus 10 generates an image, before or after saving the image generated by the image capturing apparatus 10 in a recording device included in the image capturing apparatus 10, the saved image is displayed on the display unit 20. It may be issued when a high-quality image is used for image analysis processing, or the like.

以降の処理は、第1の実施形態における処理と同様であるため、説明を省略する。   Subsequent processing is the same as the processing in the first embodiment, so description will be omitted.

上記のように、本実施形態に係る取得部401は、被検者の所定部位の複数の画像を用いて生成された画像である中画質画像を入力画像として取得する。この場合、入力画像がより明瞭な画像となるため、高画質化エンジンは高画質画像をより精度良く生成することができる。なお、中画質画像を生成するために用いる低画質画像の枚数は、従来の重ね合わせ画像を生成するために用いられる画像の枚数より少なくてよい。   As described above, the acquisition unit 401 according to the present embodiment acquires, as an input image, a medium image quality image that is an image generated using a plurality of images of a predetermined region of the subject. In this case, since the input image is a clearer image, the image quality improving engine can generate the high quality image with higher accuracy. Note that the number of low-quality images used to generate a medium-quality image may be smaller than the number of images used to generate a conventional superimposed image.

なお、中画質画像は、複数の低画質画像を重ね合わせた画像に限られず、例えば、複数の低画質画像にMAP推定処理を適用した画像でもよいし、複数の低画質画像を合成した画像であってもよい。複数の低画質画像を合成する場合には、それぞれの画像の階調が異なっている画像同士を合成してもよい。   The medium image quality image is not limited to an image in which a plurality of low image quality images are superimposed, and may be an image obtained by applying MAP estimation processing to a plurality of low image quality images or an image obtained by combining a plurality of low image quality images. It may be. When a plurality of low-quality images are combined, images having different gradations may be combined.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   Moreover, the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第15の実施形態>
次に、図4及び5を参照して、第15の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が第1の実施形態等に係る高画質化とともに入力画像の高画像サイズ化(高サイズ化)を行う。
<Fifteenth Embodiment>
Next, an image processing device according to the fifteenth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit performs the image quality improvement (enlargement) of the input image together with the image quality improvement according to the first embodiment and the like.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、入力画像として低画像サイズの画像(低サイズ画像)を取得する。なお、低サイズ画像とは、後述する高画質化エンジンによって出力される高画像サイズの画像(高サイズ画像)よりも、画像を構成する画素数が少ない画像である。具体的には、例えば、高サイズ画像の画像サイズが幅1024画素、高さ1024画素、奥行き1024画素の場合に、低サイズ画像の画像サイズが512画素、高さ512画素、奥行き512画素である場合等である。これに関連して、本明細書における、高画像サイズ化とは、一画像あたりの画素数を増加させ、画像サイズを拡大する処理をいう。   The acquisition unit 401 according to the present embodiment acquires an image having a low image size (low size image) as an input image. The low-size image is an image having a smaller number of pixels forming the image than an image of a high image size (high-size image) output by an image quality improving engine described later. Specifically, for example, when the image size of the high size image is 1024 pixels in width, 1024 pixels in height, and 1024 pixels in depth, the image size of the low size image is 512 pixels, 512 pixels in height, and 512 pixels in depth. This is the case. In this context, increasing the image size in this specification means a process of increasing the number of pixels per image to increase the image size.

本実施形態に係る高画質化部404には、第1の実施形態と同様に、高画質化エンジンが備えられている。ただし、本実施形態の高画質化エンジンは、入力画像についてノイズ低減やコントラスト強調するとともに、入力画像の画像サイズを高画像サイズ化するように構成されている。そのため、本実施形態の高画質化エンジンは、低サイズ画像を入力し、高サイズ画像を出力するように構成されている。   The image quality improving unit 404 according to the present embodiment is provided with an image quality improving engine as in the first embodiment. However, the image quality improving engine of the present embodiment is configured to reduce the noise and enhance the contrast of the input image and increase the image size of the input image. Therefore, the image quality enhancement engine of the present embodiment is configured to input a low size image and output a high size image.

これに関連して、高画質化エンジンの教師データを構成するペア群について、各ペアを構成する入力データは低サイズ画像であり、出力データは高サイズ画像である。なお、出力データ用として用いる高サイズ画像は、低サイズ画像を取得した撮影装置よりも高性能な装置から取得したり、撮影装置の設定を変更することによって取得したりすることができる。また、高サイズ画像群が既にある場合には、当該高サイズ画像群を撮影装置10からの取得が想定される画像の画像サイズに縮小することで、入力データとして用いる低サイズ画像群を取得してもよい。また、高サイズ画像については、第1の実施形態等と同様に低サイズ画像を重ね合わせたものが用いられる。   In this regard, with respect to the pair group forming the teacher data of the image quality improving engine, the input data forming each pair is a low size image and the output data is a high size image. The high-size image used for output data can be acquired from a device having higher performance than the image-capturing device that acquired the low-size image, or can be acquired by changing the setting of the image-capturing device. If a high-size image group already exists, the low-size image group used as input data is acquired by reducing the high-size image group to the image size of the image expected to be acquired from the image capturing apparatus 10. May be. Further, as the high-size image, as in the first embodiment and the like, a superimposition of low-size images is used.

なお、本実施形態に係る高画質化部404による入力画像の画像サイズの拡大については、教師データとして撮影装置10よりも高性能な装置から取得したり、撮影装置10の設定を変更したりすることで取得しているため、単純な画像の拡大とは異なる。具体的には、本実施形態に係る高画質化部404による入力画像の画像サイズの拡大処理は、単純に画像を拡大した場合と比べ、解像度の劣化を低減することができる。   Note that, regarding the enlargement of the image size of the input image by the image quality improving unit 404 according to the present embodiment, it is acquired as teacher data from a device having a higher performance than the photographing device 10 or the setting of the photographing device 10 is changed. Since it is acquired by this, it is different from the simple image enlargement. Specifically, the image size enlargement processing of the input image by the image quality improving unit 404 according to the present embodiment can reduce the deterioration of resolution as compared with the case where the image is simply enlarged.

このような構成により、本実施形態に係る高画質化部404は、入力画像に対して、ノイズ低減やコントラスト強調がなされるとともに高画像サイズ化された高画質画像を生成することができる。   With such a configuration, the image quality improving unit 404 according to the present embodiment can generate a high quality image in which noise reduction and contrast enhancement are performed on the input image and the image size is increased.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520、ステップS530、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of step S520, step S530, and step S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. Note that when the image quality of the input image is unconditionally improved, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS510において、取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、低サイズ画像を取得する。なお、取得部401は撮影装置10からの要求に応じて、撮影装置10が生成した低サイズ画像を入力画像として取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。   In step S510, the acquisition unit 401 acquires a low-size image from the imaging device 10 or another device as input data to be processed. In addition, the acquisition unit 401 may acquire a low-size image generated by the image capturing apparatus 10 as an input image in response to a request from the image capturing apparatus 10. Such a request is, for example, when the image capturing apparatus 10 generates an image, before or after saving the image generated by the image capturing apparatus 10 in a recording device included in the image capturing apparatus 10, the saved image is displayed on the display unit 20. It may be issued when a high-quality image is used for image analysis processing, or the like.

ステップS520及びステップS530の処理は第1の実施形態での処理と同様であるため説明を省略する。ステップS540では、高画質化部404が、入力画像を高画質化エンジンに入力し、高画質画像としてノイズ低減やコントラスト強調がなされるとともに高画像サイズ化された画像を生成する。以降の処理は、第1の実施形態と同様であるため説明を省略する。   The processing of steps S520 and S530 is the same as the processing of the first embodiment, and therefore description thereof is omitted. In step S540, the image quality improving unit 404 inputs the input image to the image quality improving engine and generates an image having a high image size with noise reduction and contrast enhancement performed as the high quality image. Subsequent processing is the same as that of the first embodiment, and therefore description thereof is omitted.

上記のように、本実施形態に係る高画質化部404は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、画像サイズの拡大がなされた高画質画像を生成する。これにより、本実施形態に係る画像処理装置400は、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。   As described above, the image quality improving unit 404 according to the present embodiment generates a high quality image in which at least one of noise reduction and contrast enhancement is performed as compared with the input image and the image size is enlarged. . As a result, the image processing apparatus 400 according to the present embodiment can output a high-quality image suitable for image diagnosis without increasing the invasiveness of the photographer or the subject or increasing the labor.

なお、本実施形態では、一つの高画質化エンジンにより、第1の実施形態等による高画質化処理と高分解能化の処理を行った高画質画像を生成したが、これらの処理を行う構成はこれに限られない。例えば、高画質化部は、第1の実施形態等による高画質化処理を行う高画質化エンジン及び高画像サイズ化処理を行う別の高画質化エンジンを備えてもよい。   In this embodiment, one high image quality engine generates a high image quality image that has been subjected to the image quality improvement process and the high resolution process according to the first embodiment etc., but the configuration for performing these processes is It is not limited to this. For example, the image quality improving unit may include an image quality improving engine that performs the image quality improving process according to the first embodiment and the like, and another image quality improving engine that performs the image size increasing process.

この場合には、第1の実施形態等に係る高画質化処理を行う高画質化エンジンは第1の実施形態等に係る高画質化エンジンと同様に学習を行った機械学習モデルを用いることができる。また、高画像サイズ化処理を行う高画質化エンジンの教師データの入力データとしては、第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。また、当該高画質化エンジンの教師データの出力データとしては、高性能な撮影装置で取得された画像について第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。これにより、高画像サイズ化処理を行う高画質化エンジンは、第1の実施形態等に係る高画質化処理を行った高画質画像について高画像サイズ化した最終的な高画質画像を生成することができる。   In this case, the image quality improving engine that performs the image quality improving process according to the first embodiment or the like may use a machine learning model that has been learned as in the image quality improving engine according to the first embodiment or the like. it can. Further, as the input data of the teacher data of the image quality improving engine that performs the image size increasing process, the high quality image generated by the image quality improving engine according to the first embodiment or the like is used. Further, as the output data of the teacher data of the image quality improving engine, the high quality image generated by the image quality improving engine according to the first embodiment or the like is used for the image acquired by the high performance image capturing apparatus. As a result, the high image quality engine that performs the high image size processing can generate a final high quality image that is a high image size of the high quality image that has been subjected to the high image quality processing according to the first embodiment and the like. You can

また、当該高画質化エンジンによる高画像サイズ化処理を、第1の実施形態等に係る高画化処理エンジンによる高画質化処理の前に行ってもよい。この場合には、高画像サイズ化処理を行う高画質化エンジンについての教師データは、撮影装置で取得した低サイズ画像である入力データと高サイズ画像である出力データのペア群により構成する。また、第1の実施形態等に係る高画質化処理を行う高画質化エンジンの教師データとしては、高サイズ画像を入力データと、高サイズ画像を重ね合わせした画像を出力データのペア群により構成する。   Further, the image size increasing process by the image quality improving engine may be performed before the image quality improving process by the image quality increasing process engine according to the first embodiment or the like. In this case, the teacher data for the high image quality engine that performs the high image size processing is composed of a pair group of input data, which is a low size image, and output data, which is a high size image, acquired by the image capturing apparatus. Further, as the teacher data of the image quality enhancement engine that performs the image quality enhancement processing according to the first embodiment and the like, a high-size image is composed of input data and an image in which the high-size image is superimposed is composed of a pair group of output data. To do.

このような構成によっても、画像処理装置400は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、画像サイズの拡大がなされた画像を高画質画像として生成することができる。   With such a configuration as well, the image processing apparatus 400 can perform at least one of noise reduction and contrast enhancement as compared with the input image and can generate an image with an enlarged image size as a high-quality image. it can.

なお、本実施形態では、第1の実施形態等に係る高画質化処理について、重ね合わせ画像を教師データの出力データとして用いる構成について述べたが、第1の実施形態と同様に当該出力データはこれに限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   In the present embodiment, the image quality improving process according to the first embodiment and the like has been described with respect to the configuration in which the superimposed image is used as the output data of the teacher data, but the output data is the same as in the first embodiment. It is not limited to this. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment.

<第16の実施形態>
次に、図4及び5を参照して、第16の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が第1の実施形態等に係る高画質化とともに高空間分解能化を行う。
<Sixteenth Embodiment>
Next, an image processing apparatus according to the sixteenth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit performs high spatial resolution as well as high image quality according to the first embodiment and the like.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、入力画像として低空間分解能画像を取得する。なお、低空間分解能画像とは、高画質化部404が出力する高空間分解能画像よりも、空間分解能が低い画像である。   The acquisition unit 401 according to the present embodiment acquires a low spatial resolution image as an input image. The low spatial resolution image is an image having a lower spatial resolution than the high spatial resolution image output by the image quality improving unit 404.

高画質化部404には、第1の実施形態と同様に、高画質化エンジンが備えられている。ただし、本実施形態の高画質化エンジンは、入力画像についてノイズ低減やコントラスト強調するとともに、入力画像の空間分解能を高空間分解能化するように構成されている。そのため、本実施形態に係る高画質化エンジンは、低空間分解能画像を入力し、高空間分解能画像を出力するように構成されている。   The image quality improving unit 404 is provided with an image quality improving engine as in the first embodiment. However, the image quality enhancement engine of the present embodiment is configured to reduce noise and enhance the contrast of the input image and to increase the spatial resolution of the input image. Therefore, the image quality enhancement engine according to the present embodiment is configured to input a low spatial resolution image and output a high spatial resolution image.

これに関連して、高画質化エンジンの教師データを構成するペア群についても、各ペアを構成する入力データは低空間分解能画像であり、出力データは高空間分解能画像である。なお、高空間分解能画像は、低空間分解能画像を取得した撮影装置よりも高性能な装置から取得したり、撮影装置の設定を変更することによって取得したりすることができる。また、高空間分解能画像については、第1の実施形態等と同様に低空間分解能画像を重ね合わせたものが用いられる。   In this regard, with respect to the pair group forming the teacher data of the image quality improving engine, the input data forming each pair is a low spatial resolution image and the output data is a high spatial resolution image. It should be noted that the high spatial resolution image can be acquired from a device having a higher performance than the photographing device that has acquired the low spatial resolution image, or by changing the setting of the photographing device. Further, as the high spatial resolution image, an image in which low spatial resolution images are superimposed is used as in the first embodiment and the like.

このような構成により、本実施形態に係る高画質化部404は、入力画像に対して、ノイズ低減やコントラスト強調がなされるとともに高空間分解能化された高画質画像を生成することができる。   With such a configuration, the image quality improving unit 404 according to the present embodiment can generate a high quality image in which noise reduction and contrast enhancement are performed on the input image and the spatial resolution is increased.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS520、ステップS530、及びステップS550の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS520の処理の後に、ステップS530の処理を省き、処理をステップS540に移行してよい。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of step S520, step S530, and step S550 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted. Note that when the image quality of the input image is unconditionally improved, the process of step S530 may be omitted after the process of step S520, and the process may proceed to step S540.

ステップS510において、取得部401は、撮影装置10や他の装置から、処理対象である入力データとして、低空間分解能画像を取得する。なお、取得部401は撮影装置10からの要求に応じて、撮影装置10が生成した低空間分解能画像を入力画像として取得してもよい。このような要求は、例えば、撮影装置10が画像を生成した時、撮影装置10が生成した画像を撮影装置10が備える記録装置に保存する前や保存した後、保存された画像を表示部20に表示する時、画像解析処理に高画質画像を利用する時等に発行されてよい。   In step S510, the acquisition unit 401 acquires a low spatial resolution image as input data to be processed from the imaging device 10 or another device. Note that the acquisition unit 401 may acquire the low spatial resolution image generated by the imaging device 10 as an input image in response to a request from the imaging device 10. Such a request is, for example, when the image capturing apparatus 10 generates an image, before or after saving the image generated by the image capturing apparatus 10 in a recording device included in the image capturing apparatus 10, the saved image is displayed on the display unit 20. It may be issued when a high-quality image is used for image analysis processing, or the like.

ステップS520及びステップS530の処理は第1の実施形態での処理と同様であるため説明を省略する。ステップS540では、高画質化部404が、入力画像を高画質化エンジンに入力し、高画質画像としてノイズ低減やコントラスト強調がなされるとともに高空間分解能化された画像を生成する。以降の処理は、第1の実施形態と同様であるため説明を省略する。   The processing of steps S520 and S530 is the same as the processing of the first embodiment, and therefore description thereof is omitted. In step S540, the image quality improving unit 404 inputs the input image to the image quality improving engine and generates an image with high spatial resolution while noise reduction and contrast enhancement are performed as the high quality image. Subsequent processing is the same as that of the first embodiment, and therefore description thereof is omitted.

上記のように、本実施形態に係る高画質化部404は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、空間分解能が向上された画像を高画質画像として生成する。これにより、本実施形態に係る画像処理装置400は、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。   As described above, the image quality improving unit 404 according to the present embodiment performs at least one of noise reduction and contrast enhancement as compared to the input image and generates an image with improved spatial resolution as a high quality image. To do. As a result, the image processing apparatus 400 according to the present embodiment can output a high-quality image suitable for image diagnosis without increasing the invasiveness of the photographer or the subject or increasing the labor.

なお、本実施形態では、一つの高画質化エンジンにより、第1の実施形態等による高画質化処理と高分解能化の処理を行った高画質画像を生成したが、これらの処理を行う構成はこれに限られない。例えば、高画質化部は、第1の実施形態等による高画質化処理を行う高画質化エンジン及び高分解能化処理を行う別の高画質化エンジンを備えてもよい。   In this embodiment, one high image quality engine generates a high image quality image that has been subjected to the image quality improvement process and the high resolution process according to the first embodiment etc., but the configuration for performing these processes is It is not limited to this. For example, the image quality improving unit may include an image quality improving engine for performing the image quality improving process according to the first embodiment and the like, and another image quality improving engine for performing the high resolution process.

この場合には、第1の実施形態等に係る高画質化処理を行う高画質化エンジンは第1の実施形態等に係る高画質化エンジンと同様に学習を行った機械学習モデルを用いることができる。また、高分解能化処理を行う高画質化エンジンの教師データの入力データとしては、第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。また、当該高画質化エンジンの教師データの出力データとしては、高性能な撮影装置で取得された画像について第1の実施形態等に係る高画質化エンジンが生成した高画質画像を用いる。これにより、高空間分解能化処理を行う高画質化エンジンは、第1の実施形態等に係る高画質化処理を行った高画質画像について高空間分解能化した最終的な高画質画像を生成することができる。   In this case, the image quality improving engine that performs the image quality improving process according to the first embodiment or the like may use a machine learning model that has been learned as in the image quality improving engine according to the first embodiment or the like. it can. Further, as the input data of the teacher data of the image quality enhancement engine that performs the resolution enhancement process, the high quality image generated by the image quality enhancement engine according to the first embodiment or the like is used. Further, as the output data of the teacher data of the image quality improving engine, the high quality image generated by the image quality improving engine according to the first embodiment or the like is used for the image acquired by the high performance image capturing apparatus. As a result, the high image quality engine that performs the high spatial resolution processing can generate a final high quality image with high spatial resolution for the high image quality image that has been subjected to the high image quality processing according to the first embodiment and the like. You can

また、当該高画質化エンジンによる高空間分解能化処理を、第1の実施形態等に係る高画化処理エンジンによる高画質化処理の前に行ってもよい。この場合には、高空間分解能化処理を行う高画質化エンジンについての教師データは、撮影装置で取得した低空間分解能画像である入力データと高空間分解能画像である出力データのペア群により構成する。また、第1の実施形態等に係る高画質化処理を行う高画質化エンジンの教師データとしては、高空間分解能画像を入力データと、高空間分解能画像を重ね合わせした画像を出力データのペア群により構成する。   Further, the high spatial resolution enhancement processing by the high image quality enhancement engine may be performed before the high image quality enhancement processing by the high resolution enhancement engine according to the first embodiment or the like. In this case, the teacher data about the high image quality engine that performs the high spatial resolution processing is composed of a pair group of input data that is a low spatial resolution image and output data that is a high spatial resolution image acquired by the image capturing device. . Further, as the teacher data of the image quality improving engine that performs the image quality improving process according to the first embodiment and the like, a pair group of the input data of the high spatial resolution image and the output data of the image obtained by superimposing the high spatial resolution image It consists of.

このような構成によっても、画像処理装置400は、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、空間分解能が向上された画像を高画質画像として生成することができる。   With such a configuration as well, the image processing apparatus 400 can generate at least one of noise reduction and contrast enhancement as compared with the input image and an image with improved spatial resolution as a high-quality image. .

なお、本実施形態では、第1の実施形態等に係る高画質化処理について、重ね合わせ画像を教師データの出力データとして用いる構成について述べたが、第1の実施形態と同様に当該出力データはこれに限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   In the present embodiment, the image quality improving process according to the first embodiment and the like has been described with respect to the configuration in which the superimposed image is used as the output data of the teacher data, but the output data is the same as in the first embodiment. It is not limited to this. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

また、高画質化部404は、高画質化エンジンを用いて、高空間分解能化処理に加えて第15の実施形態に係る高画質化処理を行ってもよい。この場合には、入力画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、入力画像と比べて高画像サイズ化及び高空間分解能化された画像を高画質画像として生成することができる。これにより、本実施形態に係る画像処理装置400は、画像診断に適した高画質画像を、撮影者や被検者の侵襲性を高めたり、労力を増したりすることなく出力することができる。   Further, the image quality improving unit 404 may use the image quality improving engine to perform the image quality improving process according to the fifteenth embodiment in addition to the high spatial resolution process. In this case, at least one of noise reduction and contrast enhancement compared to the input image is performed, and an image having a higher image size and higher spatial resolution than the input image is generated as a high quality image. You can As a result, the image processing apparatus 400 according to the present embodiment can output a high-quality image suitable for image diagnosis without increasing the invasiveness of the photographer or the subject or increasing the labor.

なお、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置400に接続される他の装置に出力してもよい。   Note that the output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 400, as in the first embodiment.

<第17の実施形態>
次に、図22及び23を参照して、第17の実施形態に係る画像処理装置について説明する。本実施形態では、解析部が高画質化部によって生成された高画質画像を画像解析する。
<17th Embodiment>
Next, an image processing device according to the seventeenth embodiment will be described with reference to FIGS. In the present embodiment, the analysis unit performs image analysis on the high quality image generated by the high quality image generation unit.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment.

図22は、本実施形態に係る画像処理装置2200の概略的な構成を示す。本実施形態に係る画像処理装置2200には、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405に加えて、解析部2208が設けられている。なお、画像処理装置2200は、これら構成要素のうちの一部が設けられた複数の装置で構成されてもよい。ここで、取得部401、撮影条件取得部402、高画質化可否判定部403、高画質化部404、及び出力部405は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   FIG. 22 shows a schematic configuration of the image processing apparatus 2200 according to this embodiment. The image processing apparatus 2200 according to the present embodiment is provided with an analysis unit 2208 in addition to the acquisition unit 401, the shooting condition acquisition unit 402, the image quality improvement possibility determination unit 403, the image quality improvement unit 404, and the output unit 405. ing. The image processing apparatus 2200 may be composed of a plurality of devices provided with some of these components. Here, the acquisition unit 401, the shooting condition acquisition unit 402, the image quality improvement possibility determination unit 403, the image quality improvement unit 404, and the output unit 405 have the same configurations as the image processing apparatus according to the first embodiment. 4, the same reference numerals are used for the configuration shown in FIG. 4, and description thereof is omitted.

解析部2208は、高画質化部404が生成した高画質画像に対して所定の画像解析処理を適用する。画像解析処理は、例えば、眼科分野では、OCTにより取得された画像に対する、網膜層のセグメンテーション、層厚計測、乳頭三次元形状解析、篩状板解析、OCTA画像の血管密度計測、及び角膜形状解析等の既存の任意の画像解析処理を含む。また、画像解析処理は眼科分野の解析処理に限られず、例えば、拡散テンソル解析やVBL(Voxel−based Morphometry)解析等の放射線分野における既存の任意の解析処理も含む。   The analysis unit 2208 applies a predetermined image analysis process to the high quality image generated by the high quality image generation unit 404. The image analysis processing is, for example, in the field of ophthalmology, segmentation of retinal layers, layer thickness measurement, papillary three-dimensional shape analysis, lamina cribrosa analysis, blood vessel density measurement of OCTA images, and corneal shape analysis for images acquired by OCT. Etc., including any existing image analysis processing. Further, the image analysis processing is not limited to the analysis processing in the field of ophthalmology, and includes, for example, any existing analysis processing in the radiation field such as diffusion tensor analysis and VBL (Voxel-based Morphometry) analysis.

出力部405は、高画質化部404によって生成された高画質画像を表示部20に表示させるとともに、解析部2208による画像解析処理の解析結果を表示させることができる。なお、出力部405は解析部2208による画像解析結果のみを表示部20に表示させてもよいし、当該画像解析結果を撮影装置10や画像管理システム、その他の装置等に出力してもよい。なお、解析結果の表示形態は、解析部2208で行った画像解析処理に応じて任意であってよく、例えば、画像、数値又は文字として表示されてもよい。   The output unit 405 can display the high-quality image generated by the image quality improving unit 404 on the display unit 20 and also display the analysis result of the image analysis processing by the analysis unit 2208. The output unit 405 may display only the image analysis result by the analysis unit 2208 on the display unit 20, or may output the image analysis result to the imaging device 10, the image management system, other devices, or the like. The display form of the analysis result may be arbitrary according to the image analysis processing performed by the analysis unit 2208, and may be displayed as an image, a numerical value, or a character, for example.

以下、図23を参照して、本実施形態に係る一連の画像処理について、OCTAのEn−Face画像を例として説明する。図23は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS2310〜ステップS2340の処理は、第1の実施形態におけるステップS510〜ステップS540での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS2320の処理の後に、ステップS2330の処理を省き、処理をステップS2340に移行してよい。   Hereinafter, with reference to FIG. 23, a series of image processing according to the present embodiment will be described using an OCTA En-Face image as an example. FIG. 23 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S2310 to S2340 according to the present embodiment is the same as the processing of steps S510 to S540 in the first embodiment, so description thereof will be omitted. Note that when the image quality of the input image is unconditionally improved, the process of step S2330 may be omitted after the process of step S2320, and the process may proceed to step S2340.

ステップS2340において、高画質化部404はOCTAのEn−Face画像の高画質化を行い、処理はステップS2350に移行する。ステップS2350で、解析部2208が、ステップS2340において生成された高画質画像を画像解析する。高画質化したOCTAのEn−Face画像における画像解析としては、任意の2値化処理を適用することで、画像から血管相当の箇所(血管領域)を検出することが出来る。検出した血管相当の箇所が画像に対して占める割合を求めることで面積密度を解析することが出来る。また、2値化処理した血管相当の箇所を細線化することで、線幅1画素の画像とし、太さに依存しない血管が占める割合(スケルトン密度ともいう)を求めることも出来る。これらの画像を用いて、無血管領域(FAZ)の面積や形状(円形度など)を解析するようにしてもよい。解析の方法として、画像全体から上述した数値を計算するようにしてもよいし、不図示のユーザーインターフェースを用いて、検者(ユーザー)の指示に基づいて、指定された関心領域(ROI)に対して数値を計算するようにしてもよい。ROIの設定は必ずしも検者に指定されるだけではなく、自動的に所定の領域が指定されるものであってもよい。ここで、上述した各種パラメータは、血管に関する解析結果の一例であって、血管に関するパラメータであれば、何でも良い。なお、解析部2208は複数の画像解析処理を行ってもよい。すなわち、ここではOCTAのEn−Face画像に関して解析する例を示したが、これだけではなく、同時にOCTにより取得された画像に対する、網膜層のセグメンテーション、層厚計測、乳頭三次元形状解析、篩状板解析などを行ってもよい。これに関連して、解析部2208は、任意の入力装置を介した検者からの指示に応じて、複数の画像解析処理のうちの一部又は全部を行ってもよい。   In step S2340, the image quality enhancing unit 404 enhances the image quality of the OCTA En-Face image, and the process proceeds to step S2350. In step S2350, the analysis unit 2208 performs image analysis on the high quality image generated in step S2340. As image analysis in an OCTA En-Face image with high image quality, an arbitrary binarization process can be applied to detect a portion corresponding to a blood vessel (blood vessel region) from the image. The area density can be analyzed by obtaining the ratio of the detected blood vessel-corresponding portion to the image. In addition, by thinning a portion corresponding to the binarized blood vessel, an image having a line width of 1 pixel can be obtained, and a ratio (also called skeleton density) of blood vessels that does not depend on the thickness can be obtained. You may make it analyze the area and shape (circularity etc.) of a blood-free area | region (FAZ) using these images. As a method of analysis, the above-mentioned numerical values may be calculated from the entire image, or a user interface (not shown) may be used to determine a specified region of interest (ROI) based on instructions from an examiner (user). Alternatively, the numerical value may be calculated. The ROI setting is not necessarily designated by the examiner, but may be such that a predetermined area is designated automatically. Here, the various parameters described above are examples of analysis results regarding blood vessels, and may be any parameters as long as they are parameters regarding blood vessels. The analysis unit 2208 may perform a plurality of image analysis processes. That is, although an example of analyzing the OCTA En-Face image is shown here, not only this but also the retinal layer segmentation, layer thickness measurement, papilla three-dimensional shape analysis, lamina cribrosa with respect to images acquired by OCT at the same time. Analysis or the like may be performed. In this regard, the analysis unit 2208 may perform some or all of the plurality of image analysis processes according to an instruction from the examiner via an arbitrary input device.

ステップS2360では、出力部405が、高画質化部404によって生成された高画質画像及び解析部2208による解析結果を表示部20に表示させる。なお、出力部405は高画質画像及び解析結果を別々の表示部や装置に出力してもよい。また、出力部405は、解析結果のみを表示部20に表示させてもよい。さらに、解析部2208が複数の解析結果を出力する場合には、出力部405は、複数の解析結果の一部又は全部を表示部20やその他の装置に出力してもよい。例えば、OCTAのEn−Face画像における血管に関する解析結果を2次元マップとして表示部20に表示させてもよい。また、OCTAのEn−Face画像における血管に関する解析結果を示す値をOCTAのEn−Face画像に重畳して表示部20に表示させてもよい。   In step S2360, the output unit 405 causes the display unit 20 to display the high-quality image generated by the image quality enhancement unit 404 and the analysis result of the analysis unit 2208. The output unit 405 may output the high-quality image and the analysis result to different display units or devices. Further, the output unit 405 may display only the analysis result on the display unit 20. Furthermore, when the analysis unit 2208 outputs a plurality of analysis results, the output unit 405 may output a part or all of the plurality of analysis results to the display unit 20 or another device. For example, the analysis result regarding the blood vessel in the OCTA En-Face image may be displayed on the display unit 20 as a two-dimensional map. Further, a value indicating the analysis result regarding the blood vessel in the OCTA En-Face image may be displayed on the display unit 20 while being superimposed on the OCTA En-Face image.

上記のように、本実施形態に係る画像処理装置2200は、高画質画像を画像解析する解析部2208を更に備え、出力部405は解析部2208による解析結果を表示部20に表示させる。このように、本実施形態に係る画像処理装置2200では、画像解析に高画質画像を用いるため、解析の精度を向上させることができる。   As described above, the image processing apparatus 2200 according to the present embodiment further includes the analysis unit 2208 that analyzes the high quality image, and the output unit 405 causes the display unit 20 to display the analysis result of the analysis unit 2208. As described above, in the image processing apparatus 2200 according to the present embodiment, the high-quality image is used for image analysis, so that the accuracy of analysis can be improved.

また、出力部405は、第1の実施形態と同様に、生成された高画質画像を撮影装置10や画像処理装置2200に接続される他の装置に出力してもよい。また、高画質化エンジンの教師データの出力データは、第1の実施形態と同様に、重ね合わせ処理を行った高画質画像に限られない。すなわち、重ね合わせ処理やMAP推定処理、平滑化フィルタ処理、階調変換処理、高性能な撮影装置を用いた撮影、高コストな処理、ノイズ低減処理といった処理群や撮影方法のうち、少なくとも一つを行うことによって得られた高画質画像を用いてもよい。   The output unit 405 may output the generated high-quality image to another device connected to the image capturing device 10 or the image processing device 2200, as in the first embodiment. Further, the output data of the teacher data of the image quality improving engine is not limited to the high quality image subjected to the superimposing process, as in the first embodiment. That is, at least one of a processing group and an imaging method such as superposition processing, MAP estimation processing, smoothing filter processing, gradation conversion processing, imaging using a high-performance imaging device, high-cost processing, and noise reduction processing. You may use the high quality image obtained by performing.

<第18の実施形態>
次に、図4を参照して、第18の実施形態に係る画像処理装置について説明する。本実施形態では、学習時の画像にノイズを付加しノイズ成分を学習することで高画質化部が高画質画像を生成する例について説明をする。
<Eighteenth embodiment>
Next, an image processing apparatus according to the eighteenth embodiment will be described with reference to FIG. In the present embodiment, an example will be described in which the image quality improving unit generates a high quality image by adding noise to the image during learning and learning the noise component.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして画像を取得する。本実施形態に係る高画質化部におけるCNNの構成例として、図24を用いて説明をする。図24は、高画質化部404における機械学習モデル構成の一例を示している。図24で示す構成は、入力値群を加工して出力する処理を担う、複数の層群によって構成される。なお、前記構成に含まれる層の種類としては、図24に示すように、畳み込み(Convolution)層、ダウンサンプリング(Downsampling)層、アップサンプリング(Upsampling)層、合成(Merger)層がある。畳み込み層は、設定されたフィルタのカーネルサイズ、フィルタの数、ストライドの値、ダイレーションの値等のパラメータに従い、入力値群に対して畳み込み処理を行う層である。なお、入力される画像の次元数に応じて、前記フィルタのカーネルサイズの次元数も変更してもよい。ダウンサンプリング層は、入力値群を間引いたり、合成したりすることによって、出力値群の数を入力値群の数よりも少なくする処理である。具体的には、例えば、Max Pooling処理がある。アップサンプリング層は、入力値群を複製したり、入力値群から補間した値を追加したりすることによって、出力値群の数を入力値群の数よりも多くする処理である。具体的には、例えば、線形補間処理がある。合成層は、ある層の出力値群や画像を構成する画素値群といった値群を、複数のソースから入力し、それらを連結したり、加算したりして合成する処理を行う層である。このような構成では、入力された画像Im2410を構成する画素値群が畳み込み処理ブロックを経て出力された値群と、入力された画像Im2410を構成する画素値群が、合成層で合成される。その後、合成された画素値群は最後の畳み込み層で高画質画像Im2420に成形される。なお、図示はしないが、CNNの構成の変更例として、例えば、畳み込み層の後にバッチ正規化(Batch Normalization)層や、正規化線形関数(Rectifier Linear Unit)を用いた活性化層を組み込む等をしても良い。   The acquisition unit 401 according to the present embodiment acquires an image as input data to be processed from the imaging device 10 or another device. An example of the configuration of the CNN in the image quality improving unit according to this embodiment will be described with reference to FIG. FIG. 24 shows an example of a machine learning model configuration in the image quality improving unit 404. The configuration shown in FIG. 24 is configured by a plurality of layer groups that are responsible for processing the input value group and outputting it. As the types of layers included in the above configuration, there are a convolution layer, a downsampling layer, an upsampling layer, and a merging layer, as shown in FIG. The convolutional layer is a layer that performs convolution processing on an input value group according to parameters such as a set filter kernel size, the number of filters, a stride value, and a dilation value. The number of dimensions of the kernel size of the filter may be changed according to the number of dimensions of the input image. The down-sampling layer is a process of reducing the number of output value groups than the number of input value groups by thinning out or combining the input value groups. Specifically, for example, there is Max Pooling processing. The upsampling layer is a process for making the number of output value groups larger than the number of input value groups by duplicating the input value group or adding a value interpolated from the input value group. Specifically, for example, there is linear interpolation processing. The combining layer is a layer that inputs a value group such as an output value group of a certain layer or a pixel value group forming an image from a plurality of sources, and performs a process of combining and adding the value groups. With such a configuration, the pixel value group forming the input image Im2410 is output through the convolution processing block, and the pixel value group forming the input image Im2410 is combined in the combining layer. After that, the combined pixel value group is formed into a high-quality image Im2420 by the final convolution layer. Although not shown, examples of modification of the configuration of the CNN include, for example, incorporating a batch normalization layer after the convolutional layer and an activation layer using a normalized linear function (Rectifier Linear Unit). You may.

本実施形態の高画質化エンジンは、撮影装置10や他の装置から得た画像に第一のノイズ成分を付加した低画質画像を入力し、出力データとしては、撮影装置10や他の装置から得た画像に第二のノイズ成分を付加した画像を高画質画像としてトレーニングしている。すなわち、本実施形態の学習時の教師画像は、低画質画像と高画質画像とが共通の画像を用いており、それぞれの画像におけるノイズ成分が異なるものとなる。画像としては同じものを用いているため、ペア画像とする際の位置合わせは不要である。   The high image quality engine of the present embodiment inputs a low image quality image obtained by adding a first noise component to an image obtained from the image capturing device 10 or another device, and outputs as output data from the image capturing device 10 or another device. The image obtained by adding the second noise component to the obtained image is trained as a high quality image. That is, as the teacher image at the time of learning of the present embodiment, the low-quality image and the high-quality image are common, and the noise components in the respective images are different. Since the same images are used, it is not necessary to perform the alignment when forming the paired images.

ノイズ成分としては、ガウシアンノイズ、対象画像特有のノイズをモデル化したもの等をノイズとして付加する。ただし、第一と第二のノイズはそれぞれ異なるノイズとする。異なるノイズとは、ノイズを付加する空間的な場所(画素の位置)が異なる、あるいはノイズの値が異なるなどを意味する。対象画像特有のノイズとしては、例えばOCTの場合、模型眼や被検眼を置かない状態で撮影したデータを基にノイズを推定し、それらをノイズモデルとして使用することが出来る。OCTAの場合では、無血管領域(FAZ)の範囲に現れるノイズや、血液の流れを模式的に再現した模型眼を撮影した画像に現れるノイズを基に、ノイズモデルとして使用することが出来る。   As the noise component, Gaussian noise, modeled noise specific to the target image, or the like is added as noise. However, the first and second noises are different noises. The different noises mean that spatial locations (pixel positions) to which noises are added are different or noise values are different. As the noise peculiar to the target image, for example, in the case of OCT, it is possible to estimate the noise based on the data captured without placing the model eye or the eye to be inspected and use them as a noise model. In the case of OCTA, it can be used as a noise model based on noise that appears in the range of avascular region (FAZ) and noise that appears in an image of a model eye that schematically reproduces the flow of blood.

ガウシアンノイズの場合は、ノイズの大きさとして標準偏差、あるいは分散値を定義し、それらの数値に基づいて画像にランダムにノイズを与える。ランダムノイズを与えた結果として、全体としての平均値は変わらないようにしてもよい。すなわち、1画像の各画素に付加されるノイズの平均値は0となるようにする。ここで、平均値は0となるようにする必要はなく、入力データと出力データとに対して互いに異なるパターンのノイズが付加できればよい。また、入力データと出力データとの両方にノイズを付加する必要はなく、いずれか一方にノイズを付加してもよい。ここで、ノイズを付加しない場合、例えば、高画質化後の画像では血管の偽像が生じる場合があったが、これは、高画質化前後の画像の差異が比較的大きい場合に生じると考えることも可能である。このため、高画質化前後の画像の差異が低減されるようにしてもよい。このとき、学習時において、低画質画像と高画質画像とに対して異なるパターンのノイズを付加して得た2つの画像をペア画像としてもよいし、また、高画質化画像に対して異なるパターンのノイズを付加して得た2つの画像をペア画像としてもよい。   In the case of Gaussian noise, the standard deviation or variance is defined as the size of noise, and noise is randomly given to the image based on these numerical values. The average value as a whole may not change as a result of giving random noise. That is, the average value of the noise added to each pixel of one image is set to zero. Here, it is not necessary that the average value be 0, as long as noises having different patterns can be added to the input data and the output data. Further, it is not necessary to add noise to both the input data and the output data, and noise may be added to either one. Here, when noise is not added, for example, a false image of a blood vessel may occur in the image after high image quality improvement, but this is considered to occur when the difference between the images before and after high image quality improvement is relatively large. It is also possible. Therefore, the difference between the images before and after the high image quality may be reduced. At this time, at the time of learning, two images obtained by adding different patterns of noise to the low-quality image and the high-quality image may be paired images, or different patterns may be used for the high-quality image. The two images obtained by adding the noise of 1 may be paired images.

出力部405は、高画質化部404が生成した高画質画像を表示部20に表示させる。なお、出力部405は、高画質画像とともに、入力画像を表示部20に表示させてもよい。   The output unit 405 causes the display unit 20 to display the high quality image generated by the high quality image generation unit 404. The output unit 405 may display the input image on the display unit 20 together with the high-quality image.

以降の処理は、第1の実施形態における処理と同様であるため、説明を省略する。   Subsequent processing is the same as the processing in the first embodiment, so description will be omitted.

なお、本実施形態では、撮影装置10や他の装置から入手した低画質画像に第一のノイズ成分と第一のノイズ成分とは異なる第二のノイズ成分を付加した画像を用いて高画質画像を生成したが、これらの処理を行う構成はこれに限られない。例えば、ノイズを付加する画像は、第一の実施形態で示した重ね合わせ処理をした高画質画像に対して第一および第二のノイズ成分を付加するようにしてもよい。すなわち、重ね合わせ処理画像に第一のノイズ成分を付加した画像を低画質画像、重ね合わせ処理画像に第二のノイズ成分を付加した画像を高画質画像として学習する構成としてもよい。   In the present embodiment, a high-quality image is obtained by using an image obtained by adding a first noise component and a second noise component different from the first noise component to a low-quality image obtained from the image capturing device 10 or another device. However, the configuration for performing these processes is not limited to this. For example, as the image to which noise is added, the first and second noise components may be added to the high-quality image subjected to the superimposing processing shown in the first embodiment. That is, the image obtained by adding the first noise component to the superposition processed image may be learned as a low image quality image, and the image obtained by adding the second noise component to the superposition processed image may be learned as a high quality image.

さらには、本実施形態では、第一と第二のノイズ成分を用いて学習する例について説明したがこれに限らない。例えば、低画質画像とする方にのみ第一のノイズ成分を付加し、高画質画像とする方にはノイズ成分を付加せずに学習を行う構成としてもよい。その際の画像としては、撮影装置10や他の装置から入手した画像でも良いし、その画像を重ね合わせ処理した画像を対象とするようにしてもよい。   Furthermore, in the present embodiment, an example in which learning is performed using the first and second noise components has been described, but the present invention is not limited to this. For example, the first noise component may be added only to the low quality image, and the learning may be performed to the high quality image without adding the noise component. The image at that time may be an image obtained from the photographing device 10 or another device, or may be an image obtained by superposing the images.

なお、本実施形態において、画像の撮影条件については明記しなかったが、様々な撮影範囲とスキャン数の異なる画像、異なる撮影部位や異なる深度の正面画像などを用いて学習をしておく。   In the present embodiment, the photographing conditions of the image are not specified, but learning is performed by using images with different photographing ranges and different numbers of scans, front images with different photographing regions and different depths, and the like.

上記では、撮影装置10や他の装置から入手した画像、その画像にノイズを付加したノイズ画像、重ね合わせ処理画像、重ね合わせ処理画像にノイズを付加した画像について説明をした。しかし、これらの組み合わせは上述したものに限らず、どのように低画質画像と高画質画像とを組み合わせてもよい。   In the above, an image obtained from the image capturing device 10 or another device, a noise image in which noise is added to the image, a superimposition processing image, and an image in which noise is added to the superimposition processing image have been described. However, these combinations are not limited to those described above, and low-quality images and high-quality images may be combined in any way.

<第19の実施形態>
次に、図25、26を参照して、第19の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が複数の高画質化エンジンを備え、入力画像に対して複数の高画質画像を生成する。そして、合成部2505が複数の高画質化エンジンから出力される複数の高画質画像を合成する例について説明をする。
<19th Embodiment>
Next, an image processing apparatus according to the nineteenth embodiment will be described with reference to FIGS. In the present embodiment, the image quality improving unit includes a plurality of image quality improving engines and generates a plurality of high quality images for the input image. Then, an example in which the combining unit 2505 combines a plurality of high quality images output from a plurality of high quality engines will be described.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして画像を取得する。   The acquisition unit 401 according to the present embodiment acquires an image as input data to be processed from the imaging device 10 or another device.

本実施形態に係る高画質化部404には、第2の実施形態と同様に複数の高画質化エンジンが備えられている。ここで、複数の高画質化エンジンの各々は、それぞれ撮影部位、撮影画角、異なる深度の正面画像、ノイズ成分、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行ったものである。高画質化部404は、入力画像の撮影部位、撮影画角、異なる深度の正面画像、ノイズ成分、及び画像の解像度のうちの少なくとも一つに応じた高画質化エンジンを複数用いて、高画質画像を生成する。   The image quality improvement unit 404 according to the present embodiment includes a plurality of image quality improvement engines as in the second embodiment. Here, each of the plurality of image quality enhancement engines performs learning by using different learning data regarding at least one of the imaging region, the imaging angle of view, the front image with different depth, the noise component, and the resolution of the image. I went there. The image quality improving unit 404 uses a plurality of image quality improving engines corresponding to at least one of a captured region of the input image, a captured field angle, a front image with different depths, a noise component, and an image resolution, and thus a high image quality is achieved. Generate an image.

図26は、本実施形態に係る一連の画像処理のフロー図である。なお、本実施形態に係るステップS2610及びステップS2620の処理は、第1の実施形態におけるステップS510及びステップS520での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS2620の処理の後に、ステップS2630の処理を省き、処理をステップS2640に移行してよい。   FIG. 26 is a flowchart of a series of image processing according to this embodiment. Note that the processes of steps S2610 and S2620 according to the present embodiment are the same as the processes of steps S510 and S520 in the first embodiment, so description thereof will be omitted. In addition, when the image quality of an input image is unconditionally improved, the process of step S2630 may be omitted after the process of step S2620 and the process may proceed to step S2640.

ステップS2620において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS2630に移行する。ステップS2630では、高画質化可否判定部403が、第2の実施形態と同様に、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンのいずれかが入力画像を対処可能であるか否かを判定する。   In step S2620, as in the first embodiment, when the shooting condition acquisition unit 402 acquires the shooting condition group of the input image, the process proceeds to step S2630. In step S2630, as in the second embodiment, the image quality improvement determination unit 403 uses the acquired image capturing condition group to input the input image by any of the image quality improvement engines included in the image quality improvement unit 404. It is determined whether it can be dealt with.

高画質化可否判定部403が、高画質化エンジン群のいずれも入力画像を対処不可能であると判定した場合には、処理はステップS2660に移行する。一方で、高画質化可否判定部403が、高画質化エンジン群のいずれかが入力画像を対処可能であると判定した場合には、処理はステップS2640に移行する。なお、画像処理装置400の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS2640を実施してもよい。   If the image quality improvement availability determination unit 403 determines that none of the image quality enhancement engine groups can handle the input image, the process proceeds to step S2660. On the other hand, when the image quality improvement availability determination unit 403 determines that one of the image quality enhancement engine groups can handle the input image, the process proceeds to step S2640. Note that, depending on the setting and implementation of the image processing apparatus 400, as in the first embodiment, even if the image quality enhancement engine determines that some shooting conditions cannot be handled, step S2640 is performed. You may.

ステップS2640においては、高画質化部404が、高画質化エンジン群のそれぞれにステップS2610において取得した入力画像を入力し、高画質画像群を生成する。   In step S2640, image quality improvement unit 404 inputs the input image acquired in step S2610 to each of the image quality improvement engine groups to generate a high image quality image group.

ステップS2650では、合成部2405が、ステップS2640において生成された高画質画像群のうちいくつかの高画質な画像を合成する。具体的には、例えば、第1の実施形態で示したように撮影装置10から取得した低画質画像と、低画質画像を複数回撮影することにより取得した画像群に対して加算平均等の重ね合わせ処理をして得た高画質画像とのペア画像を用いて学習した第一の高画質化エンジンと、第18の実施形態で示したような画像にノイズを付加したペア画像を用いて学習した第二の高画質化エンジンとの2つの高画質画像の結果を合成する。合成方法としては、加算平均や重み付き加算平均などを用いて合成することが出来る。   In step S2650, the synthesizing unit 2405 synthesizes some high-quality images of the high-quality image group generated in step S2640. Specifically, for example, as shown in the first embodiment, a low image quality image acquired from the image capturing apparatus 10 and an image group acquired by capturing the low image quality image a plurality of times are overlapped with an arithmetic mean or the like. Learning is performed using a first image quality enhancement engine learned using a paired image with a high quality image obtained by the matching process, and a paired image obtained by adding noise to the image as shown in the eighteenth embodiment. The result of the two high-quality images is combined with the second high-quality image engine. As a synthesizing method, averaging or weighted averaging can be used for synthesizing.

ステップS2660においては、出力部405が、ステップS2650において合成された画像を表示部20に表示させたり、他の装置に出力したりする。ただし、ステップS2630において、入力画像が処理不可能であると判定されている場合には、出力部405は、入力画像を出力画像として出力する。なお、出力部405は、検者によって入力画像が指示された場合や、入力画像が処理不可能であった場合には、表示部20に出力画像が入力画像と同じであることを表示させてもよい。   In step S2660, output unit 405 causes display unit 20 to display the image combined in step S2650 and outputs the image to another device. However, if it is determined in step S2630 that the input image cannot be processed, the output unit 405 outputs the input image as the output image. It should be noted that the output unit 405 causes the display unit 20 to display that the output image is the same as the input image when the examiner instructs the input image or when the input image cannot be processed. Good.

<第20の実施形態>
次に、図4を参照して、第20の実施形態に係る画像処理装置について説明する。本実施形態では、高画質化部が第一の高画質化エンジンの出力結果を用いて第二の高画質化エンジンが高画質化画像を生成する例について説明をする。
<Twentieth Embodiment>
Next, an image processing apparatus according to the twentieth embodiment will be described with reference to FIG. In the present embodiment, an example will be described in which the image quality improving unit uses the output result of the first image quality improving engine and the second image quality improving engine generates a high quality image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

本実施形態に係る取得部401は、撮影装置10や他の装置から、処理対象である入力データとして画像を取得する。   The acquisition unit 401 according to the present embodiment acquires an image as input data to be processed from the imaging device 10 or another device.

本実施形態に係る高画質化部404には、第1の実施形態と同様の、高画質化エンジンが複数備えられている。本実施形態の高画質化部は、撮影装置10や他の装置から入力データとして取得した低画質画像と、複数の低画質画像から生成された中画質画像を出力データとして学習した第一の高画質化エンジンを備える。さらに、第一の高画質化エンジンから出力された画像と、中画質画像よりも高画質な画像を出力データとして学習した第二の高画質化エンジンを備える。なお、中画質画像に関しては、第14の実施形態と同様であるため、説明を省略する。   The image quality improving unit 404 according to the present embodiment includes a plurality of image quality improving engines similar to those in the first embodiment. The image quality improving unit of the present embodiment learns the low image quality image acquired as the input data from the image capturing device 10 or another device and the medium image quality image generated from the plurality of low image quality images as the output data. Equipped with an image quality engine. Further, it is provided with a second image quality improving engine that has learned an image output from the first image quality improving engine and an image having a higher image quality than the medium image quality image as output data. Note that the medium-quality image is the same as that in the fourteenth embodiment, so description thereof will be omitted.

出力部405は、高画質化部404が生成した高画質画像を表示部20に表示させる。なお、出力部405は、高画質画像とともに、入力画像を表示部20に表示させてもよく、この場合に、出力部405は、入力画像が複数の低画質画像から生成された画像であることを表示部20に表示してもよい。   The output unit 405 causes the display unit 20 to display the high quality image generated by the high quality image generation unit 404. The output unit 405 may display the input image on the display unit 20 together with the high-quality image. In this case, the output unit 405 determines that the input image is an image generated from a plurality of low-quality images. May be displayed on the display unit 20.

次に、図5を参照して、本実施形態に係る一連の画像処理について説明する。なお、本実施形態に係るステップS510〜ステップS530の処理は、第1の実施形態におけるこれらの処理と同様であるため、説明を省略する。   Next, a series of image processing according to the present embodiment will be described with reference to FIG. Note that the processes of steps S510 to S530 according to the present embodiment are the same as those of the first embodiment, so description thereof will be omitted.

ステップS540においては、高画質化部404が、高画質化エンジンを用いて、入力画像を高画質化し、入力画像よりも画像診断に適した高画質画像を生成する。具体的には、高画質化部404は、入力画像を第一の高画質化エンジンに入力し、高画質化された第一の高画質画像を生成させる。さらに、第一の高画質画像を第二の高画質化エンジンに入力し、第二の高画質化画像を得る。高画質化エンジンは、教師データを用いて機械学習を行った機械学習モデルに基づいて、入力画像を用いて重ね合わせ処理を行ったような高画質画像を生成する。このため、高画質化エンジンは、入力画像よりも、ノイズ低減されたり、コントラスト強調されたりした高画質画像を生成することができる。   In step S540, the image quality improving unit 404 uses the image quality improving engine to improve the image quality of the input image, and generates a high image quality image more suitable for image diagnosis than the input image. Specifically, the image quality improving unit 404 inputs the input image to the first image quality improving engine and generates the first image quality improving image. Further, the first high quality image is input to the second high quality image engine to obtain the second high quality image. The image quality improving engine generates a high quality image that is obtained by performing a superimposing process using an input image based on a machine learning model in which machine learning is performed using teacher data. Therefore, the image quality improving engine can generate a high quality image in which noise is reduced or contrast is emphasized more than the input image.

以降の処理は、第1の実施形態における処理と同様であるため、説明を省略する。   Subsequent processing is the same as the processing in the first embodiment, so description will be omitted.

なお、本実施形態では、撮影装置10や他の装置から入手した低画質画像と中画質画像とをペアで学習した第一の高画質化エンジンと第一の高画質画像と高画質画像とをペアで学習した第二の高画質エンジンを用いて高画質画像を生成したが、これらの処理を行う構成はこれに限られない。例えば、第一の高画質化エンジンで学習する画像のペアは、第18の実施形態で説明をしたノイズを学習するエンジンとし、第二の高画質化エンジンは第一の高画質画像と高画質画像とをペアで学習するようにしてもよい。逆の構成として、低画質画像と中画質画像とをペアで学習した第一の高画質化エンジンと、第二の高画質化エンジンは第一の高画質画像に対してノイズを付加した画像を学習したエンジンとしてもよい。   It should be noted that in the present embodiment, the first high image quality engine and the first high image quality image and the high image quality image obtained by learning a pair of the low image quality image and the medium image quality image obtained from the image capturing device 10 or another device are used. Although the high-quality image is generated using the second high-quality image engine learned by the pair, the configuration for performing these processes is not limited to this. For example, the pair of images to be learned by the first image quality improving engine is the engine for learning the noise described in the eighteenth embodiment, and the second image quality improving engine is the image quality of the first image quality and the image quality. You may make it learn by pairing with an image. In the opposite configuration, the first high-quality image engine that learned the low-quality image and the medium-quality image as a pair, and the second high-quality image engine generates an image with noise added to the first high-quality image. It may be a learned engine.

さらに、第一の高画質化エンジンと第二の高画質化エンジン共に、第18の実施形態で説明をしたノイズを学習するエンジンとしてもよい。この場合、例えば、第一の高画質化エンジンは、重ね合わせ処理画像により生成した高画質画像に第一および第二のノイズを付加した画像をペアで学習し、第二の高画質化エンジンは、第一の高画質化エンジンにより生成された第一の高画質化画像に対して第一および第二のノイズを付加した画像をペアで学習する。なお、本実施形態では、二つの高画質化エンジンについて説明を行ったが、これに限らず、第三、第四と、さらに連結して処理をする構成としてもよい。学習に用いる画像をきれいにしていくことで、より滑らかでシャープな画像を生成しやすいネットワークが構成される。   Furthermore, both the first image-quality improving engine and the second image-quality improving engine may be noise learning engines described in the eighteenth embodiment. In this case, for example, the first image-quality improving engine learns a pair of images in which the first and second noises are added to the high-quality image generated by the superimposed processing image, and the second image-quality improving engine , A pair of images obtained by adding the first and second noises to the first high-quality image generated by the first high-quality image engine. In the present embodiment, two image quality improving engines have been described, but the present invention is not limited to this, and the third and fourth engines may be further connected to perform processing. By cleaning the images used for learning, a network that can easily generate smoother and sharper images is constructed.

<第21の実施形態>
次に、図4及び27を参照して、第21の実施形態に係る画像処理装置について説明する。第1の実施形態では、高画質化部404は、一つの高画質化エンジンを備えていた。これに対して、本実施形態では、高画質化部が、異なる教師データを用いて機械学習を行った複数の高画質化エンジンを備え、入力画像に対して複数の高画質画像を生成する。
<Twenty-first embodiment>
Next, an image processing apparatus according to the 21st embodiment will be described with reference to FIGS. In the first embodiment, the image quality improving unit 404 includes one image quality improving engine. On the other hand, in the present embodiment, the image quality improving unit includes a plurality of image quality improving engines that perform machine learning using different teacher data, and generates a plurality of high quality images for the input image.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第2の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1、第2の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1、第2の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the second embodiment. Therefore, in the following, the image processing apparatus according to the present embodiment will be described focusing on differences from the image processing apparatuses according to the first and second embodiments. Since the configuration of the image processing apparatus according to the present embodiment is similar to the configuration of the image processing apparatus according to the first and second embodiments, the configuration illustrated in FIG. The description is omitted.

本実施形態に係る高画質化部404には、それぞれ異なる教師データを用いて機械学習が行われた二つ以上の高画質化エンジンが備えられている。ここで、本実施形態に係る教師データ群の作成方法について説明する。まず、様々な撮影範囲とスキャン数の異なる画像で撮影された、入力データとしての元画像と出力データとしての重ね合わせ画像のペア群を用意する。OCTやOCTAを例に説明すると、例えば、3×3mmの範囲を300本のAスキャンと300枚のBスキャンで撮影した第一の画像群のペアと、10×10mmの範囲を500本のAスキャンと500枚のBスキャンで撮影した第二の画像群のペアとする。この時、第一の画像群のペアと第二の画像群のペアとでは、スキャン密度が2倍異なる。そのため、これらの画像群は別としてグルーピングしておく。そして、6×6mmの範囲を600本のAスキャンと600枚のBスキャンで撮影した画像群がある場合には、第一の画像群と同一のグループとする。すなわち、ここではスキャン密度が同じか、ほぼ同じ(1割程度の誤差)の画像群を同一のグループでグルーピングをする。   The image quality improving unit 404 according to the present embodiment includes two or more image quality improving engines in which machine learning is performed using different teacher data. Here, a method of creating the teacher data group according to the present embodiment will be described. First, a pair group of an original image as input data and a superposed image as output data, which are captured by images with various imaging ranges and different scan numbers, is prepared. Explaining OCT and OCTA as an example, for example, a pair of the first image group captured by 300 A scans and 300 B scans in a range of 3 × 3 mm and 500 A in a range of 10 × 10 mm. A pair of a second image group captured by scanning and 500 B-scans is used. At this time, the scan densities of the first image group pair and the second image group pair are twice different. Therefore, these image groups are separately grouped. Then, if there is an image group obtained by taking 600 A scans and 600 B scans in a range of 6 × 6 mm, the same group as the first image group is set. That is, here, image groups having the same or almost the same scan density (error of about 10%) are grouped in the same group.

次に、スキャン密度毎にペア群をグルーピングすることで、教師データ群を作成する。例えば、第一のスキャン密度で撮影して取得されたペア群で構成される第一の教師データ、第二のスキャン密度で撮影して取得されたペア群で構成される第二の教師データというように、教師データ群を作成する。   Next, the teacher data group is created by grouping the pair groups for each scan density. For example, the first teacher data composed of a pair group captured and acquired at a first scan density, and the second teacher data composed of a pair group acquired and captured at a second scan density. In this way, the teacher data group is created.

その後、各教師データを用いて別々の高画質化エンジンに機械学習を行わせる。例えば、第一の教師データでトレーニングされた機械学習モデルに対応する第一の高画質化エンジン、第二の教師データでトレーニングされた機械学習モデルに対応する第二の高画質化エンジンというように高画質化エンジン群を用意する。   After that, machine learning is performed by different image quality improving engines using each teacher data. For example, a first image enhancement engine corresponding to a machine learning model trained with first teacher data, a second image enhancement engine corresponding to a machine learning model trained with second teacher data, and so on. Prepare a high-quality image engine group.

このような高画質化エンジンは、それぞれ対応する機械学習モデルのトレーニングに用いた教師データが異なるため、高画質化エンジンに入力される画像の撮影条件によって、入力画像を高画質化できる程度が異なる。具体的には、第一の高画質化エンジンは、第一のスキャン密度で取得された入力画像に対しては高画質化の程度が高く、第二のスキャン密度で取得された画像に対しては高画質化の程度が低い。同様に、第二の高画質化エンジンは、第二のスキャン密度で取得された入力画像に対しては高画質化の程度が高く、第一のスキャン密度で取得された画像に対しては高画質化の程度が低い。   Since such high image quality engine has different teacher data used for training the corresponding machine learning model, the degree to which the high quality of the input image can be achieved differs depending on the image capturing conditions of the image input to the high image quality engine. . Specifically, the first image quality improvement engine has a high degree of image quality improvement for the input image acquired at the first scan density and for the image acquired at the second scan density. Has a low degree of high image quality. Similarly, the second image quality improvement engine has a high degree of image quality improvement for the input image acquired at the second scan density and a high image quality improvement for the image acquired at the first scan density. The degree of image quality is low.

一方、学習時に様々な撮影範囲とスキャン密度の異なる画像を教師データとして十分の数を集められない場合がある。その場合、それらの画像群に対しては、第18の実施形態で示したように、ノイズ成分を学習した高画質化エンジンを用意する。   On the other hand, there are cases in which a sufficient number of images having different shooting ranges and different scan densities cannot be collected as teacher data during learning. In that case, for those image groups, as shown in the eighteenth embodiment, an image quality improving engine that learns noise components is prepared.

ノイズ成分を学習した高画質化エンジンは、撮影時のスキャン密度の影響を受けにくいため、学習していないスキャン密度の画像が入力された際には、こちらを適用する。   The image quality enhancement engine that learned the noise component is not easily affected by the scan density at the time of shooting, so this is applied when an image with a scan density that has not been learned is input.

教師データのそれぞれがスキャン密度によってグルーピングされたペア群で構成されることにより、該ペア群を構成する画像群の画質傾向が似る。このため、高画質化エンジンは対応するスキャン密度であれば、第一の実施形態に係る高画像化エンジンよりも効果的に高画質化を行うことができる。なお、教師データのペアをグルーピングするための撮影条件は、スキャン密度に限られず、撮影部位であったり、正面画像においては異なる深度の画像であったり、これらのうちの二つ以上の組み合わせであったりしてもよい。   Since each of the teacher data is composed of a pair group grouped according to the scan density, the image quality tendency of the image groups forming the pair group is similar. Therefore, the high image quality engine can achieve higher image quality more effectively than the high image quality engine according to the first embodiment as long as the corresponding scan density is achieved. The imaging condition for grouping the pair of teacher data is not limited to the scan density, but may be an imaging region, images of different depths in the front image, or a combination of two or more of these. You may.

以下、図27を参照して、本実施形態に係る一連の画像処理について説明する。図27は、本実施形態に係る一連の画像処理のフロー図である。なお、ステップS2710及びステップS2720の処理は、第1の実施形態に係るステップS510及びステップS520と同様であるため、説明を省略する。   Hereinafter, a series of image processing according to the present embodiment will be described with reference to FIG. FIG. 27 is a flowchart of a series of image processing according to this embodiment. Note that the processing of steps S2710 and S2720 is the same as steps S510 and S520 according to the first embodiment, so description thereof will be omitted.

ステップS2720において入力画像の撮影条件が取得されると、処理はステップS2730に移行する。ステップS2730においては、高画質化可否判定部403が、ステップS2720において取得した撮影条件群を用いて、高画質化部404が備える高画質化エンジン群のいずれかが、入力画像を対処可能であるか否かを判定する。   When the shooting condition of the input image is acquired in step S2720, the process proceeds to step S2730. In step S2730, the image quality improvement possibility determination unit 403 can handle the input image by using one of the image quality improvement engine groups included in the image quality improvement unit 404 using the shooting condition group acquired in step S2720. Or not.

高画質化可否判定部403が、撮影条件外であると判定した場合には、処理はステップS2770に移行する。一方で、高画質化可否判定部403が、撮影条件内であると判定した場合には、処理はステップS2740に移行する。   When the image quality improvement determination unit 403 determines that the image capturing conditions are not satisfied, the process proceeds to step S2770. On the other hand, if the image quality improvement determination unit 403 determines that the image capturing conditions are satisfied, the process proceeds to step S2740.

ステップS2740においては、高画質化部404が、ステップS2720で取得した入力画像の撮影条件及び高画質化エンジン群の教師データの情報に基づいて、高画質化エンジン群から高画質化処理を行う高画質化エンジンを選択する。具体的には、例えば、ステップS2720において取得した撮影条件群のうちのスキャン密度に対して、スキャン密度に関する教師データの情報を有し、高画質化の程度が高い高画質化エンジンを選択する。上述の例では、スキャン密度が第一のスキャン密度である場合には、高画質化部404は第一の高画質化エンジンを選択する。   In step S2740, the image quality improving unit 404 performs the image quality improving process from the image quality improving engine group based on the shooting condition of the input image acquired in step S2720 and the information of the teacher data of the image quality improving engine group. Select the image quality engine. Specifically, for example, for the scan density of the imaging condition group acquired in step S2720, the high image quality engine having the information of the teacher data regarding the scan density and having a high degree of high image quality is selected. In the above example, when the scan density is the first scan density, the image quality improving unit 404 selects the first image quality improving engine.

一方、ステップS2770においては、高画質化部404は、ノイズ成分を学習した高画質化エンジンを選択する。   On the other hand, in step S2770, image quality enhancement unit 404 selects the image quality enhancement engine that learned the noise component.

ステップS2750では、高画質化部404が、ステップS2740、ステップS2770において選択した高画質化エンジンを用いて、入力画像を高画質化した高画質画像を生成する。その後、ステップS2760において、出力部405は、ステップS2750において高画質画像を出力して、表示部20に表示させる。なお、出力部405は、高画質画像を表示部20に表示させる際、高画質化部404によって選択された高画質化エンジンを用いて生成された高画質画像であることを表示させてもよい。   In step S2750, the image quality improving unit 404 uses the image quality improving engine selected in steps S2740 and S2770 to generate a high quality image obtained by improving the quality of the input image. After that, in step S2760, the output unit 405 outputs the high-quality image in step S2750 and displays it on the display unit 20. The output unit 405 may display, when displaying the high-quality image on the display unit 20, that the high-quality image is generated by using the high-quality image engine selected by the high-quality image generation unit 404. .

上記のように、本実施形態に係る高画質化部404は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備える。ここで、複数の高画質化エンジンの各々は、それぞれ撮影部位、撮影画角、異なる深度の正面画像、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行ったものである。さらに、正解データを十分に集められなかったデータについては、ノイズ成分を用いて学習を行ったものである。高画質化部404は、これらのうちの少なくとも一つに応じた高画質化エンジンを用いて、高画質画像を生成する。   As described above, the image quality improving unit 404 according to the present embodiment includes a plurality of image quality improving engines that perform learning using different learning data. Here, each of the plurality of image quality enhancement engines performs learning by using different learning data regarding at least one of the imaging region, the imaging angle of view, the front image with different depth, and the resolution of the image. Is. Furthermore, for the data for which the correct answer data was not collected sufficiently, the learning was performed using the noise component. The image quality improving unit 404 uses the image quality improving engine corresponding to at least one of these to generate a high quality image.

このような構成により、本実施形態に係る画像処理装置400は、より効果的な高画質画像を生成することができる。   With such a configuration, the image processing device 400 according to the present embodiment can generate a more effective high quality image.

<第22の実施形態>
次に、図30から32を参照して、第20の実施形態に係る画像処理装置について説明する。本実施形態では、広画角画像生成部が高画質化部によって生成された複数の高画質画像を用いて広画角画像を生成する。
<Twenty-second Embodiment>
Next, an image processing apparatus according to the twentieth embodiment will be described with reference to FIGS. In the present embodiment, the wide-angle-of-view image generating unit generates a wide-angle-of-view image by using the plurality of high-quality images generated by the high-quality improving unit.

特に明記しない限り、本実施形態に係る画像処理装置の構成及び処理は、第1の実施形態に係る画像処理装置400と同様である。そのため、以下では、本実施形態に係る画像処理装置について、第1の実施形態に係る画像処理装置との違いを中心として説明する。なお、本実施形態に係る画像処理装置の構成は、第1の実施形態に係る画像処理装置の構成と同様であるため、図4に示す構成について同一の参照符号を用いて示し、説明を省略する。   Unless otherwise specified, the configuration and processing of the image processing apparatus according to this embodiment are the same as those of the image processing apparatus 400 according to the first embodiment. Therefore, the image processing apparatus according to the present embodiment will be described below focusing on the differences from the image processing apparatus according to the first embodiment. Since the configuration of the image processing apparatus according to the present embodiment is similar to that of the image processing apparatus according to the first embodiment, the same reference numerals are used for the configuration illustrated in FIG. 4, and description thereof will be omitted. To do.

図31(a)は、本実施形態に係る一連の画像処理のフロー図である。ステップS3110において、取得部401は撮影装置10や他の装置から入力データとして複数の画像(少なくとも2枚)を取得する。複数の画像は、同一の被写体(被検眼など)の異なる位置を撮影した画像であり、被写体に対して完全には重複せずに、画像の一部が重複する場所を撮影した画像とする。被検眼を撮影する場合を例に説明すると、撮影時に固視灯の位置を変更し、被検眼がその固視灯に注視することで、同一の被検眼において異なる場所を撮影した画像を取得することが出来る。なお、画像撮影時には、隣接する画像同士の重複領域が少なくとも2割程度が同じ場所となるように固視灯の位置を変更して撮影しておくことが望ましい。図32(a)に、隣接する画像の一部が重複するように固視灯の位置を変更して撮影したOCTAのEn−Face画像の例を示す。図32(a)では、固視灯の位置を変更して異なる場所を5回撮影する場合の例を示している。なお、図32には例として5枚の画像を示しているが、5枚に限らず2枚以上であればよい。   FIG. 31A is a flowchart of a series of image processing according to this embodiment. In step S3110, the acquisition unit 401 acquires a plurality of images (at least two images) as input data from the imaging device 10 or another device. The plurality of images are images in which different positions of the same subject (such as an eye to be inspected) are captured, and images in which portions of the images are not completely overlapped with the subject are captured. Taking the case of photographing the eye to be examined as an example, the position of the fixation lamp is changed at the time of photographing, and the eye to be examined pays attention to the fixation lamp, thereby acquiring images of different places photographed in the same eye. You can It should be noted that at the time of image capturing, it is desirable to change the position of the fixation lamp so that at least about 20% of overlapping areas of adjacent images are the same. FIG. 32A shows an example of an OCTA En-Face image captured by changing the position of the fixation lamp so that adjacent images partially overlap. FIG. 32A shows an example in which the position of the fixation lamp is changed and five different locations are photographed. Although FIG. 32 shows five images as an example, the number of images is not limited to five and may be two or more.

なお、本実施形態に係るステップS3120の処理は、第1の実施形態におけるステップS520での処理と同様であるため、説明を省略する。なお、入力画像に対して、撮影条件について無条件で高画質化する場合には、ステップS3120の処理の後に、ステップS3130の処理を省き、処理をステップS3140に移行してよい。   Note that the process of step S3120 according to the present embodiment is the same as the process of step S520 in the first embodiment, so description will be omitted. In addition, when the image quality of the input image is unconditionally improved with respect to the shooting conditions, the process of step S3130 may be omitted after the process of step S3120, and the process may proceed to step S3140.

ステップS3120において、第1の実施形態と同様に、撮影条件取得部402が入力画像の撮影条件群を取得したら、処理はステップS3130に移行する。ステップS3130では、高画質化可否判定部403が、第1の実施形態と同様に、取得された撮影条件群を用いて、高画質化部404に備える高画質化エンジンが入力画像を対処可能であるか否かを判定する。   In step S3120, as in the first embodiment, when the shooting condition acquisition unit 402 acquires the shooting condition group of the input image, the process proceeds to step S3130. In step S3130, the image quality improvement possibility determination unit 403 can handle the input image by the image quality improvement engine included in the image quality improvement unit 404 using the acquired shooting condition group, as in the first embodiment. Determine if there is.

高画質化可否判定部403が、高画質化エンジンが複数の入力画像を対処不可能であると判定した場合には、処理はステップS3160に移行する。一方で、高画質化可否判定部403が、高画質化エンジンが複数の入力画像を対処可能であると判定した場合には、処理はステップS3140に移行する。なお、画像処理装置400の設定や実装形態によっては、第1の実施形態と同様に、高画質化エンジンによって一部の撮影条件が対処不可能であると判定されたとしても、ステップS3140を実施してもよい。   When the image quality improvement determination unit 403 determines that the image quality improvement engine cannot handle a plurality of input images, the process proceeds to step S3160. On the other hand, when the image quality improvement determination unit 403 determines that the image quality improvement engine can handle a plurality of input images, the process proceeds to step S3140. Note that, depending on the settings and implementation of the image processing apparatus 400, even if it is determined by the image quality enhancement engine that some shooting conditions cannot be dealt with, step S3140 is performed, as in the first embodiment. You may.

ステップS3140においては、高画質化部404が、ステップS3110において取得した複数の入力画像に対して処理を実行し複数の高画質画像を生成する。   In step S3140, the image quality improving unit 404 performs processing on the plurality of input images acquired in step S3110 to generate a plurality of high quality images.

ステップS3150では、広画角画像生成部3005が、ステップS3140において生成された高画質画像群のうちいくつかの高画質な画像を合成する。具体的には、OCTAのEn−Face画像を例に説明をする。複数の画像は完全には重複しないが、隣接する画像同士は一部の領域が互いに重複するように撮影されたOCTAのEn−Face画像である。そのため、広画角画像生成部3005は複数のOCTAのEn−Face画像から重複した領域を検出し、重複領域を用いて位置合わせを実施する。位置合わせパラメータに基づいてOCTAのEn−Face画像を変形して画像を合成することで、1枚のOCTAのEn−Face画像よりも広範囲なOCTAのEn−Face画像を生成することが出来る。この時、入力となる複数のOCTAのEn−Face画像はステップS3140において高画質化されているため、ステップS3150において出力される広画角なOCTAのEn−Face画像は既に高画質化されている。図32(b)に広画角画像生成部3005によって生成される広画角なOCTAのEn−Face画像の例を示す。図32(b)は図32(a)で示した5枚の画像を位置合わせして生成した例である。図32(c)には、図32(a)と図32(b)との位置の対応関係を示す。図32(c)に示すように、Im3210を中心に、その周辺にIm3220〜3250が配置される。なお、OCTAのEn−Face画像は、3次元のモーションコントラストデータから異なる深度範囲を設定することで、複数のOCTAのEn−Face画像を生成することが出来る。そのため、図32には広画角の表層画像の例を示したが、これに限らない。例えば、図29で示した表層のOCTAのEn−Face画像(Im2910)を用いて位置合わせをして、その他の深度範囲のOCTAのEn−Face画像は、そこで求めたパラメータを用いて変形させるようにしてもよい。あるいは、位置合わせの入力画像をカラー画像とし、RGB成分のRG成分に表層のOCTAのEn−Face、B成分に位置合わせの対象となるOCTAのEn−Face画像とした合成カラー画像を生成する。そして、複数の深度範囲の層を1枚に合成した合成カラーOCTAのEn−Face画像の位置合わせを実施してもよい。それにより、位置合わせ済みのカラーOCTAのEn−Face画像からB成分のみを抽出すれば、対象となるOCTAのEn−Face画像の位置合わせが済んだ広画角のOCTAのEn−Face画像を得ることが出来る。なお、高画質化を行う対象として、2次元のOCTAのEn−Face画像に限らず、3次元のOCT、3次元のモーションコントラストデータそのものでもよい。その場合、3次元データで位置合わせを行い、広範囲の3次元データを生成するようにしてもよい。広範囲の3次元データから任意の断面(XYZのどの面でも可能)や任意の深度範囲(Z方向での範囲)を切り出すことで、高画質な広画角画像を生成することが出来る。   In step S3150, the wide-angle-of-view image generation unit 3005 combines some high-quality images of the high-quality image group generated in step S3140. Specifically, an OCTA En-Face image will be described as an example. Although the plurality of images do not completely overlap, adjacent images are OCTA En-Face images captured such that some areas overlap each other. Therefore, the wide-angle-of-view image generation unit 3005 detects overlapping regions from a plurality of OCTA En-Face images, and performs alignment using the overlapping regions. By deforming the OCTA En-Face image based on the alignment parameter and combining the images, it is possible to generate an OCTA En-Face image having a wider range than one OCTA En-Face image. At this time, since the plurality of OCTA En-Face images to be input have been made high in image quality in step S3140, the wide-angle OCTA En-Face images output in step S3150 have already been made high in image quality. . FIG. 32B shows an example of an OCTA En-Face image with a wide field of view, which is generated by the wide field of view image generation unit 3005. FIG. 32B is an example in which the five images shown in FIG. 32A are aligned and generated. FIG. 32 (c) shows the positional correspondence between FIG. 32 (a) and FIG. 32 (b). As shown in FIG. 32C, Im3220 to 3250 are arranged around the Im3210 as a center. It should be noted that the OCTA En-Face image can generate a plurality of OCTA En-Face images by setting different depth ranges from the three-dimensional motion contrast data. Therefore, although an example of the surface image with a wide angle of view is shown in FIG. 32, the invention is not limited to this. For example, the surface OCTA En-Face image (Im2910) shown in FIG. 29 is used for alignment, and the OCTA En-Face images in other depth ranges are deformed using the parameters obtained there. You may Alternatively, a composite color image is generated in which the input image for alignment is a color image, the RG component of the RGB components is the En-Face of OCTA on the surface layer, and the B component is the En-Face image of OCTA to be aligned. Then, the En-Face image of the composite color OCTA in which the layers in the plurality of depth ranges are composited into one sheet may be aligned. As a result, if only the B component is extracted from the color OCTA En-Face image that has been aligned, a wide-angle OCTA En-Face image with the target OCTA En-Face image aligned is obtained. You can Note that the target for high image quality is not limited to the two-dimensional OCTA En-Face image, but may be the three-dimensional OCT or the three-dimensional motion contrast data itself. In that case, the alignment may be performed using three-dimensional data to generate a wide range of three-dimensional data. By cutting out an arbitrary cross section (any plane of XYZ is possible) or an arbitrary depth range (range in the Z direction) from a wide range of three-dimensional data, it is possible to generate a wide-angle image with high image quality.

ステップS3160においては、出力部405が、ステップS3150において複数の画像から合成された画像を表示部20に表示させたり、他の装置に出力したりする。ただし、ステップS3130において、入力画像が処理不可能であると判定されている場合には、出力部405は、入力画像を出力画像として出力する。なお、出力部405は、検者によって入力画像が指示された場合や、入力画像が処理不可能であった場合には、表示部20に出力画像が入力画像と同じであることを表示させてもよい。   In step S3160, the output unit 405 causes the display unit 20 to display the image combined from the plurality of images in step S3150, and outputs the image to another device. However, if it is determined in step S3130 that the input image cannot be processed, the output unit 405 outputs the input image as the output image. It should be noted that the output unit 405 causes the display unit 20 to display that the output image is the same as the input image when the examiner instructs the input image or when the input image cannot be processed. Good.

なお、本実施形態では、複数の入力画像からそれぞれ高画質画像を生成し、高画質画像を位置合わせすることで、最終的な一枚の高画質な広画角画像を生成したが、複数の入力画像から一枚の高画質画像を生成する方法はこれに限られない。例えば、図31(b)に示す本実施形態の高画質化処理の別例では、先に一枚の広画角画像を生成し、広画角画像に対して高画質化処理を実行して最終的に一枚の高画質な広画角画像を生成するようにしてもよい。   In the present embodiment, a high-quality image is generated from each of a plurality of input images, and the high-quality images are aligned to generate a final high-quality wide-angle image of one image. The method of generating one high quality image from the input image is not limited to this. For example, in another example of the image quality improvement processing of the present embodiment shown in FIG. 31B, one wide-angle image is first generated, and the image quality improvement processing is executed on the wide-angle image. Finally, one high-quality wide-angle image may be generated.

この処理に関して、図31(b)を用いて説明を行うが、図31(a)と同様な処理の部分に関しては説明を省略する。   This process will be described with reference to FIG. 31B, but the description of the same process as in FIG. 31A will be omitted.

ステップS3121では、広画角画像生成部3005が、ステップS3110において取得した複数の画像を合成する。広画角画像生成に関しては、ステップS3150での説明と同様であるが、入力画像が撮影装置10や他の装置から取得した画像であり、高画質化される前の画像である点が異なる。   In step S3121, the wide view angle image generation unit 3005 combines the plurality of images acquired in step S3110. The wide-angle image generation is the same as the description in step S3150, except that the input image is an image acquired from the image capturing device 10 or another device and is an image before being improved in image quality.

ステップS3151では、高画質化部404が、広画角画像生成部3005が生成した高画質画像に対して処理を実行し一枚の高画質な広画角画像を生成する。   In step S3151, the high quality image generation unit 404 performs processing on the high quality image generated by the wide angle image generation unit 3005 to generate one high quality wide angle image.

このような構成により、本実施形態に係る画像処理装置400は、広画角な高画質画像を生成することができる。   With such a configuration, the image processing device 400 according to the present embodiment can generate a high-quality image with a wide angle of view.

上記第1〜22の実施形態に関しては、出力部405による表示部20への高画質画像の表示は基本的に高画質化部404による高画質画像の生成や解析部2208による解析結果の出力に応じて自動で行われる。しかしながら、高画質画像の表示は、検者からの指示に応じてなされてもよい。例えば、出力部405は、高画質化部404によって生成された高画質画像と入力画像のうち、検者からの指示に応じて選択された画像を表示部20に表示させてもよい。また、出力部405は、検者からの指示に応じて、表示部20上の表示を撮影画像(入力画像)から高画質画像に切り替えてもよい。さらに、高画質化部404が、高画質化エンジンによる高画質化処理の開始(高画質化エンジンへの画像の入力)を検者からの指示に応じて実行し、出力部405が、高画質化部404によって生成された高画質画像を表示部20に表示させてもよい。これに対し、撮影装置10によって入力画像が撮影されると、高画質化エンジンが自動的に入力画像に基づいて高画質画像を生成し、出力部405が、検者からの指示に応じて高画質画像を表示部20に表示させてもよい。なお、これらの処理は解析結果の出力についても同様に行うことができる。さらに、撮影箇所推定エンジンや画質評価エンジン、真贋評価エンジン、評価部による処理を検者からの指示に応じて開始するように、画像処理装置が構成されてもよい。なお、上記第1〜22の実施形態に関し、出力部405が高画質画像を表示部20に表示させる表示態様は任意であってよい。例えば、出力部405は、入力画像と高画質画像を並べて表示させてもよいし、切り替えて表示させてもよい。また、出力部405は、入力画像や高画質画像を、撮影部位や撮影日時、撮影が行われた施設等に応じて順番に表示させてもよい。同様に、出力部405は高画質画像を用いた画像解析結果等を、高画質画像や高画質画像に対応する入力画像の任意の撮影条件に応じて順番に表示させてもよい。さらに、出力部405は高画質画像を用いた画像解析結果を、解析項目ごとに順番に表示させてもよい。   Regarding the above-described first to twenty-second embodiments, the display of the high-quality image on the display unit 20 by the output unit 405 is basically performed by the high-quality image generation unit 404 to generate the high-quality image and the analysis unit 2208 to output the analysis result. It is done automatically accordingly. However, the display of the high quality image may be performed in response to an instruction from the examiner. For example, the output unit 405 may cause the display unit 20 to display an image selected from the high-quality image generated by the high-quality image generation unit 404 and the input image, according to an instruction from the examiner. In addition, the output unit 405 may switch the display on the display unit 20 from the captured image (input image) to the high-quality image in response to an instruction from the examiner. Further, the image quality improving unit 404 executes the image quality improving process by the image quality improving engine (input of the image to the image quality improving engine) according to the instruction from the examiner, and the output unit 405 outputs the high image quality. The high-quality image generated by the conversion unit 404 may be displayed on the display unit 20. On the other hand, when the image capturing apparatus 10 captures an input image, the image quality improving engine automatically generates a high quality image based on the input image, and the output unit 405 outputs a high quality image in response to an instruction from the examiner. The quality image may be displayed on the display unit 20. It should be noted that these processes can be similarly performed for the output of the analysis result. Furthermore, the image processing apparatus may be configured to start the processing by the image capturing position estimation engine, the image quality evaluation engine, the authenticity evaluation engine, and the evaluation unit in response to an instruction from the examiner. Note that, regarding the above-described first to twenty-second embodiments, the display mode in which the output unit 405 displays the high-quality image on the display unit 20 may be arbitrary. For example, the output unit 405 may display the input image and the high-quality image side by side, or may switch and display them. Further, the output unit 405 may sequentially display the input image and the high-quality image according to the imaged site, the imaged date and time, the facility where the image was taken, and the like. Similarly, the output unit 405 may sequentially display the image analysis result and the like using the high-quality image according to an arbitrary shooting condition of the high-quality image or the input image corresponding to the high-quality image. Further, the output unit 405 may display the image analysis result using the high quality image in order for each analysis item.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。以上、実施形態を参照して本発明について説明したが、本発明は上記実施形態に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施形態は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. Although the present invention has been described with reference to the exemplary embodiments, the present invention is not limited to the above exemplary embodiments. The present invention includes inventions modified within a range not departing from the spirit of the present invention and inventions equivalent to the present invention. Further, the above-described respective embodiments can be appropriately combined within a range not departing from the spirit of the present invention.

Claims (36)

被検眼のモーションコントラスト正面画像である第1の画像を取得する取得部と、
機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べて高画質化された第2の画像を生成する高画質化部と、
を備える、医用画像処理装置。
An acquisition unit that acquires a first image that is a motion contrast front image of the eye to be inspected;
An image quality improving unit for generating a second image having a higher image quality compared to the first image from the first image by using an image quality improving engine including a machine learning engine;
A medical image processing apparatus comprising:
前記高画質化エンジンは、重ね合わせ処理により得られた画像を含む学習データを用いて得た機械学習エンジンを含む、請求項1に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the image quality improvement engine includes a machine learning engine obtained by using learning data including an image obtained by the superposition processing. 前記高画質化エンジンは、前記第1の画像のOCTA撮影に用いられるOCT撮影装置よりも高性能なOCT撮影装置によってOCTA撮影されて得た画像、又は前記第1の画像のOCTA撮影工程よりも工数の多いOCTA撮影工程で取得されて得た画像を含む学習データを用いて得た機械学習エンジンを含む、請求項1に記載の医用画像処理装置。   The image quality improving engine is more effective than an image obtained by OCTA imaging by an OCT imaging apparatus having a higher performance than an OCT imaging apparatus used for OCTA imaging of the first image, or an OCTA imaging step of the first image. The medical image processing apparatus according to claim 1, further comprising a machine learning engine obtained by using learning data including an image obtained by an OCTA imaging process that requires a lot of man-hours. 前記高画質化部は、前記第1の画像を複数の二次元の画像に分割して前記高画質化エンジンに入力し、前記高画質化エンジンからの複数の出力画像を統合することで、前記第2の画像を生成する、請求項1乃至3のいずれか一項に記載の医用画像処理装置。   The image quality improving unit divides the first image into a plurality of two-dimensional images, inputs the image into the image quality improving engine, and integrates a plurality of output images from the image quality improving engine, The medical image processing apparatus according to claim 1, wherein the medical image processing apparatus generates a second image. 前記高画質化エンジンは、互いの位置関係が対応するペア画像を含む学習データを用いて得た機械学習エンジンを含み、
前記高画質化部は、前記ペア画像の画像サイズに対応する画像サイズで、前記第1の画像を前記複数の二次元の画像に分割して前記高画質化エンジンに入力する、請求項4に記載の医用画像処理装置。
The image quality improving engine includes a machine learning engine obtained by using learning data including pair images in which mutual positional relationships correspond to each other,
The image quality improving unit divides the first image into the plurality of two-dimensional images with an image size corresponding to the image size of the pair of images and inputs the image into the image quality improving engine. The medical image processing apparatus described.
前記高画質化エンジンは、画像と該画像の外部の周辺とを含む領域に対して、隣接する部分領域の一部が互いに重複するように設定された複数の部分領域の画像を含む学習データを用いて得た機械学習エンジンを含む、請求項4又は5に記載の医用画像処理装置。   The image quality improving engine outputs learning data including images of a plurality of partial regions set so that a part of adjacent partial regions overlap each other with respect to a region including an image and a periphery of the image. The medical image processing apparatus according to claim 4, comprising a machine learning engine obtained by using the medical image processing apparatus. 前記高画質化エンジンは、ノイズを付加して得た画像を含む学習データを用いて得た機械学習エンジンを含む、請求項1乃至6のいずれか一項に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the image quality improving engine includes a machine learning engine obtained by using learning data including an image obtained by adding noise. 前記高画質化エンジンは、互いに異なるパターンのノイズを付加して得たペア画像を含む学習データを用いて得た機械学習エンジンを含む、請求項1乃至6のいずれか一項に記載の医用画像処理装置。   7. The medical image according to claim 1, wherein the image quality improving engine includes a machine learning engine obtained by using learning data including paired images obtained by adding noises having different patterns from each other. Processing equipment. 前記高画質化エンジンは、重ね合わせ処理により得られた画像に対して、互いに異なるパターンのノイズを付加して得たペア画像を含む学習データを用いて得た機械学習エンジンを含む、請求項1乃至8のいずれか一項に記載の医用画像処理装置。   The image quality improving engine includes a machine learning engine obtained by using learning data including pair images obtained by adding noises of different patterns to images obtained by the superposition processing. 9. The medical image processing apparatus according to any one of items 8 to 8. 隣接するモーションコントラスト正面画像の一部の領域が互いに重複するように前記被検眼の異なる位置をOCTA撮影して得た複数の前記第1の画像であって、該複数の第1の画像から得た複数の前記第2の画像を用いて広画角画像を生成する広画角画像生成部を更に備える、請求項1乃至9のいずれか一項に記載の医用画像処理装置。   A plurality of the first images obtained by OCTA imaging at different positions of the eye to be inspected so that some areas of adjacent motion contrast front images overlap each other, and the first images are obtained from the plurality of first images. The medical image processing apparatus according to claim 1, further comprising: a wide-angle-of-view image generation unit that generates a wide-angle-of-view image using the plurality of second images. 前記高画質化エンジンは、前記被検眼の異なる深度範囲に対応する複数のモーションコントラスト正面画像を含む学習データを用いて得た機械学習エンジンを含み、
前記取得部は、前記異なる深度範囲を含む長い深度範囲のうち一部の深度範囲に対応するモーションコントラスト正面画像を前記第1の画像として取得する、請求項1乃至10のいずれか一項に記載の医用画像処理装置。
The image quality improving engine includes a machine learning engine obtained by using learning data including a plurality of motion contrast front images corresponding to different depth ranges of the eye to be inspected,
The said acquisition part acquires the motion contrast front image corresponding to a part of depth range among the long depth ranges containing the said different depth range as the said 1st image, The any one of Claim 1 thru | or 10. Medical image processing device.
前記第1の画像に対して、前記高画質化エンジンを用いて前記第2の画像を生成できるか否かを判定する判定部を更に備え、
前記判定部は、前記第1の画像の撮影部位、撮影方式、撮影画角、及び画像サイズの少なくとも一つに基づいて前記判定を行う、請求項1乃至11のいずれか一項に記載の医用画像処理装置。
A determination unit that determines whether or not the second image can be generated using the image quality enhancement engine for the first image;
The medical device according to any one of claims 1 to 11, wherein the determination unit makes the determination based on at least one of an imaged region, an imaging method, an imaging angle of view, and an image size of the first image. Image processing device.
前記高画質化部は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備え、
前記複数の高画質化エンジンの各々は、それぞれ撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つについての異なる学習データを用いて学習を行っており、
前記高画質化部は、前記第1の画像の撮影部位、撮影画角、及び画像の解像度のうちの少なくとも一つに応じた前記高画質化エンジンを用いて、前記第2の画像を生成する、請求項1乃至12のいずれか一項に記載の医用画像処理装置。
The image quality improving unit includes a plurality of image quality improving engines that have performed learning using different learning data,
Each of the plurality of image quality enhancement engines performs learning using different learning data for at least one of the imaging region, the imaging angle of view, and the image resolution,
The image quality improving unit generates the second image by using the image quality improving engine according to at least one of a photographing region of the first image, a photographing angle of view, and a resolution of the image. The medical image processing apparatus according to any one of claims 1 to 12.
前記高画質化部は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備え、
前記高画質化部は、前記複数の高画質化エンジンのうち検者の指示に応じた前記高画質化エンジンを用いて、前記第2の画像を生成する、請求項1乃至12のいずれか一項に記載の医用画像処理装置。
The image quality improving unit includes a plurality of image quality improving engines that have performed learning using different learning data,
13. The image quality improving unit generates the second image by using the image quality improving engine according to an instruction from an examiner among the plurality of image quality improving engines. The medical image processing apparatus according to item.
前記高画質化部は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備え、
前記高画質化部は、前記複数の高画質化エンジンを用いて、前記第1の画像から複数の前記第2の画像を生成し、
該医用画像処理装置は、検者の指示に応じて、前記複数の第2の画像のうち少なくとも一つの画像を出力する、請求項1乃至12のいずれか一項に記載の医用画像処理装置。
The image quality improving unit includes a plurality of image quality improving engines that have performed learning using different learning data,
The image quality improving unit uses the plurality of image quality improving engines to generate a plurality of the second images from the first image,
The medical image processing apparatus according to any one of claims 1 to 12, wherein the medical image processing apparatus outputs at least one image of the plurality of second images according to an instruction from an examiner.
前記第2の画像の画質を評価する評価部を更に備え、
前記高画質化部は、それぞれ異なる学習データを用いて学習を行った複数の高画質化エンジンを備え、
前記高画質化部は、前記複数の高画質化エンジンを用いて、前記第1の画像から複数の前記第2の画像を生成し、
該医用画像処理装置は、前記評価部による評価結果に応じて、前記複数の第2の画像のうち少なくとも一つの画像を出力する、請求項1乃至12のいずれか一項に記載の医用画像処理装置。
Further comprising an evaluation unit for evaluating the image quality of the second image,
The image quality improving unit includes a plurality of image quality improving engines that have performed learning using different learning data,
The image quality improving unit uses the plurality of image quality improving engines to generate a plurality of the second images from the first image,
The medical image processing apparatus according to any one of claims 1 to 12, wherein the medical image processing apparatus outputs at least one image of the plurality of second images according to an evaluation result by the evaluation unit. apparatus.
前記評価部は、所定の評価手法による評価値を学習データとした機械学習エンジンを含み、
該医用画像処理装置は、前記複数の第2の画像のうち、前記評価部による評価値が最も高い前記第2の画像を出力する、請求項16に記載の医用画像処理装置。
The evaluation unit includes a machine learning engine in which an evaluation value by a predetermined evaluation method is used as learning data,
The medical image processing apparatus according to claim 16, wherein the medical image processing apparatus outputs the second image having the highest evaluation value by the evaluation unit among the plurality of second images.
前記高画質化部は、
前記第1の画像の画像サイズを、前記高画質化エンジンが対処可能な画像サイズに調整して高画質化エンジンに入力し、
前記高画質化エンジンからの出力画像を前記第1の画像の元の画像サイズに調整することで前記第2の画像を生成する、請求項1乃至17のいずれか一項に記載の医用画像処理装置。
The image quality improving unit is
The image size of the first image is adjusted to an image size that can be handled by the high image quality engine, and is input to the high image quality engine.
The medical image processing according to any one of claims 1 to 17, wherein the second image is generated by adjusting an output image from the image quality improving engine to an original image size of the first image. apparatus.
前記高画質化部は、
前記第1の画像の解像度が所定の解像度となるように、前記第1の画像の画像サイズを調整し、
前記画像サイズが調整された前記第1の画像について、調整された前記画像サイズが前記高画質化エンジンによって対処可能な画像サイズとなるように、パディングを行った画像を高画質化エンジンに入力し、
前記高画質化エンジンからの出力画像について、前記パディングを行った領域分だけトリミングを行い、
前記トリミングが行われた画像の画像サイズを、前記第1の画像の元の画像サイズに調整することで前記第2の画像を生成する、請求項1乃至18のいずれか一項に記載の医用画像処理装置。
The image quality improving unit is
The image size of the first image is adjusted so that the resolution of the first image becomes a predetermined resolution,
The padded image is input to the image quality improvement engine so that the adjusted image size becomes an image size that can be handled by the image quality improvement engine for the first image with the image size adjusted. ,
The output image from the high quality engine is trimmed only for the padded area,
The medical image according to any one of claims 1 to 18, wherein the second image is generated by adjusting the image size of the trimmed image to the original image size of the first image. Image processing device.
前記高画質化部は、
前記第1の画像を所定の画像サイズの複数の第3の画像に分割し、
前記複数の第3の画像を前記高画質化エンジンに入力して複数の第4の画像を生成し、
前記複数の第4の画像を統合することで、前記第2の画像を生成する、請求項1乃至19のいずれか一項に記載の医用画像処理装置。
The image quality improving unit is
Dividing the first image into a plurality of third images of a predetermined image size,
Inputting the plurality of third images to the image quality enhancement engine to generate a plurality of fourth images,
The medical image processing apparatus according to claim 1, wherein the second image is generated by integrating the plurality of fourth images.
前記高画質化部は、
複数の前記高画質化エンジンを含み、前記第1の画像を複数の二次元の画像に分割し、
前記複数の高画質化エンジンの並列的に用いて、前記複数の二次元の画像から複数の第2の画像を生成し、
前記複数の第2の画像を統合することで、前記第2の画像を生成する、請求項1乃至20のいずれか一項に記載の医用画像処理装置。
The image quality improving unit is
Dividing the first image into a plurality of two-dimensional images, including a plurality of the image quality enhancement engines;
Generating a plurality of second images from the plurality of two-dimensional images by using the plurality of image quality enhancement engines in parallel,
The medical image processing apparatus according to claim 1, wherein the second image is generated by integrating the plurality of second images.
前記高画質化部は、前記第1の画像と比べてノイズ低減及びコントラスト強調のうちの少なくとも一つがなされるとともに、画像サイズの拡大及び空間分解能の向上のうちの少なくとも一つがなされた画像を前記第2の画像として生成する、請求項1乃至21のいずれか一項に記載の医用画像処理装置。   The image quality improving unit performs the image processing in which at least one of noise reduction and contrast enhancement is performed as compared with the first image, and at least one of image size expansion and spatial resolution improvement is performed. The medical image processing device according to claim 1, wherein the medical image processing device is generated as a second image. 前記第2の画像を表示部に表示する表示制御部を更に備える、請求項1乃至22のいずれか一項に記載の医用画像処理装置。   23. The medical image processing apparatus according to claim 1, further comprising a display control unit that displays the second image on a display unit. 前記表示制御部は、検者の指示に応じて前記第2の画像を前記表示部に表示させる、請求項23に記載の医用画像処理装置。   The medical image processing apparatus according to claim 23, wherein the display control unit causes the display unit to display the second image according to an instruction from an examiner. 前記表示制御部は、前記第2の画像とともに、前記第2の画像が前記高画質化エンジンにより生成された画像であることを示す表示を前記表示部に表示させる、請求項23又は24に記載の医用画像処理装置。   25. The display control unit causes the display unit to display, together with the second image, a display indicating that the second image is an image generated by the image quality enhancement engine. Medical image processing device. 前記表示制御部は、前記第2の画像を前記表示部に表示させ、
該医用画像処理装置は、表示された前記第2の画像に対する検者からの入力に応じて前記第2の画像を出力する、請求項23乃至25のいずれか一項に記載の医用画像処理装置。
The display control unit causes the display unit to display the second image,
The medical image processing apparatus according to claim 23, wherein the medical image processing apparatus outputs the second image in response to an input from an examiner with respect to the displayed second image. .
前記第2の画像を画像解析する解析部を更に備え、
前記表示制御部は、前記第2の画像における血管に関する解析結果を前記表示部に表示させる、請求項23乃至26のいずれか一項に記載の医用画像処理装置。
Further comprising an analysis unit that analyzes the image of the second image,
27. The medical image processing apparatus according to claim 23, wherein the display control unit causes the display unit to display the analysis result regarding the blood vessel in the second image.
前記高画質化部は、複数の前記第1の画像から一つの前記第2の画像を生成する、請求項1乃至27のいずれか一項に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 27, wherein the image quality improving unit generates the one second image from a plurality of the first images. 前記第1の画像は、前記被検眼の複数のモーションコントラスト正面画像を用いて生成された1つのモーションコントラスト正面画像である、請求項1乃至28のいずれか一項に記載の医用画像処理装置。   29. The medical image processing apparatus according to claim 1, wherein the first image is one motion contrast front image generated using a plurality of motion contrast front images of the eye to be inspected. 前記高画質化部は、複数の前記第2の画像を生成し、該複数の第2の画像を平均化する、請求項1乃至29のいずれか一項に記載の医用画像処理装置。   30. The medical image processing apparatus according to claim 1, wherein the image quality improving unit generates a plurality of the second images and averages the plurality of the second images. 前記取得部は、OCT撮影装置から前記第1の画像を取得する、請求項1乃至30のいずれか一項に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the acquisition unit acquires the first image from an OCT imaging apparatus. 前記取得部は、OCT撮影装置から前記被検眼の3次元のモーションコントラストデータを取得し、前記3次元のモーションコントラストデータについて前記被検眼の深さ方向における少なくとも一部の範囲のデータを用いて、前記モーションコントラスト正面画像である前記第1の画像を生成する、請求項1乃至30のいずれか一項に記載の医用画像処理装置。   The acquisition unit acquires three-dimensional motion contrast data of the eye to be inspected from an OCT imaging apparatus, and uses data of at least a part of the three-dimensional motion contrast data in the depth direction of the eye to be inspected, The medical image processing apparatus according to claim 1, wherein the first image that is the motion contrast front image is generated. 前記取得部は、画像管理システムから前記第1の画像を取得する、請求項1乃至30のいずれか一項に記載の医用画像処理装置。   31. The medical image processing apparatus according to claim 1, wherein the acquisition unit acquires the first image from an image management system. 前記高画質化エンジンは、前記第2の画像を学習データとして用いない、請求項1乃至33のいずれか一項に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the image quality enhancement engine does not use the second image as learning data. 被検眼のモーションコントラスト正面画像である第1の画像を取得することと、
機械学習エンジンを含む高画質化エンジンを用いて、前記第1の画像から、該第1の画像と比べて高画質化された第2の画像を生成することと、
を含む、医用画像処理方法。
Acquiring a first image that is a motion contrast front image of the eye to be inspected;
Generating a second image having a higher image quality compared to the first image from the first image using an image quality improving engine including a machine learning engine;
A medical image processing method including:
プロセッサーによって実行されると、該プロセッサーに請求項35に記載の医用画像処理方法の各工程を実行させる、プログラム。
A program that, when executed by a processor, causes the processor to execute the steps of the medical image processing method according to claim 35.
JP2018192132A 2018-06-15 2018-10-10 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM Active JP7229715B2 (en)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP2018192132A JP7229715B2 (en) 2018-10-10 2018-10-10 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
GB2215912.3A GB2610712B (en) 2018-06-15 2019-06-14 Medical image processing apparatus, optical coherence tomography apparatus, learned model, learning apparatus, medical image processing method and program
PCT/JP2019/023657 WO2020075345A1 (en) 2018-10-10 2019-06-14 Medical image processing device, medical image processing method, and program
KR1020217000477A KR102507711B1 (en) 2018-06-15 2019-06-14 Medical image processing apparatus, medical image processing method, and computer readable medium
CN201980040325.3A CN112367915A (en) 2018-06-15 2019-06-14 Medical image processing apparatus, medical image processing method, and program
PCT/JP2019/023640 WO2019240257A1 (en) 2018-06-15 2019-06-14 Medical image processing device, medical image processing method and program
CN201980066871.4A CN112822973A (en) 2018-10-10 2019-06-14 Medical image processing apparatus, medical image processing method, and program
GB2019907.1A GB2589250B (en) 2018-06-15 2019-06-14 Medical image processing apparatus, medical image processing method and program
DE112019003022.1T DE112019003022T5 (en) 2018-06-15 2019-06-14 Medical image processing device, medical image processing method, and program
US17/120,718 US12040079B2 (en) 2018-06-15 2020-12-14 Medical image processing apparatus, medical image processing method and computer-readable medium
US17/223,702 US11922601B2 (en) 2018-10-10 2021-04-06 Medical image processing apparatus, medical image processing method and computer-readable medium
JP2022197060A JP7490741B2 (en) 2018-10-10 2022-12-09 Medical image processing device, medical image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192132A JP7229715B2 (en) 2018-10-10 2018-10-10 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022197060A Division JP7490741B2 (en) 2018-10-10 2022-12-09 Medical image processing device, medical image processing method and program

Publications (3)

Publication Number Publication Date
JP2020058629A true JP2020058629A (en) 2020-04-16
JP2020058629A5 JP2020058629A5 (en) 2021-04-22
JP7229715B2 JP7229715B2 (en) 2023-02-28

Family

ID=70219790

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018192132A Active JP7229715B2 (en) 2018-06-15 2018-10-10 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP2022197060A Active JP7490741B2 (en) 2018-10-10 2022-12-09 Medical image processing device, medical image processing method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022197060A Active JP7490741B2 (en) 2018-10-10 2022-12-09 Medical image processing device, medical image processing method and program

Country Status (1)

Country Link
JP (2) JP7229715B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022011912A (en) * 2020-06-30 2022-01-17 キヤノン株式会社 Image processing apparatus, image processing method and program
CN116055778A (en) * 2022-05-30 2023-05-02 荣耀终端有限公司 Video data processing method, electronic device and readable storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164351A (en) * 2009-01-14 2010-07-29 Kowa Co Optical tomographic imaging apparatus
WO2017143300A1 (en) * 2016-02-19 2017-08-24 Optovue, Inc. Methods and apparatus for reducing artifacts in oct angiography using machine learning techniques
JP2017158962A (en) * 2016-03-11 2017-09-14 キヤノン株式会社 Information processing device
JP2018005841A (en) * 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device
JP2018089160A (en) * 2016-12-05 2018-06-14 キヤノン株式会社 Image display apparatus, image display method, and program
JP2018114068A (en) * 2017-01-17 2018-07-26 キヤノン株式会社 Image processing apparatus, optical coherence tomographic imaging apparatus, image processing method, and program
JP2018138159A (en) * 2017-01-11 2018-09-06 キヤノン株式会社 Image processing device, optical interference tomographic imaging apparatus, image processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01170438A (en) * 1987-12-25 1989-07-05 Canon Inc Apparatus for synthesizing eyeground image
US10368734B2 (en) * 2015-02-19 2019-08-06 Carl Zeiss Meditec, Inc. Methods and systems for combined morphological and angiographic analyses of retinal features
JP6551081B2 (en) * 2015-09-04 2019-07-31 株式会社ニデック Ophthalmic imaging apparatus and ophthalmologic imaging program
JP6714273B2 (en) * 2016-06-17 2020-06-24 学校法人同志社 Corneal endothelial cell quality evaluation support system
JP6909109B2 (en) * 2017-03-17 2021-07-28 キヤノン株式会社 Information processing equipment, information processing methods, and programs

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164351A (en) * 2009-01-14 2010-07-29 Kowa Co Optical tomographic imaging apparatus
WO2017143300A1 (en) * 2016-02-19 2017-08-24 Optovue, Inc. Methods and apparatus for reducing artifacts in oct angiography using machine learning techniques
JP2017158962A (en) * 2016-03-11 2017-09-14 キヤノン株式会社 Information processing device
JP2018005841A (en) * 2016-07-08 2018-01-11 株式会社トプコン Medical image processing method and medical image processing device
JP2018089160A (en) * 2016-12-05 2018-06-14 キヤノン株式会社 Image display apparatus, image display method, and program
JP2018138159A (en) * 2017-01-11 2018-09-06 キヤノン株式会社 Image processing device, optical interference tomographic imaging apparatus, image processing method, and program
JP2018114068A (en) * 2017-01-17 2018-07-26 キヤノン株式会社 Image processing apparatus, optical coherence tomographic imaging apparatus, image processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022011912A (en) * 2020-06-30 2022-01-17 キヤノン株式会社 Image processing apparatus, image processing method and program
JP7344847B2 (en) 2020-06-30 2023-09-14 キヤノン株式会社 Image processing device, image processing method, and program
CN116055778A (en) * 2022-05-30 2023-05-02 荣耀终端有限公司 Video data processing method, electronic device and readable storage medium
CN116055778B (en) * 2022-05-30 2023-11-21 荣耀终端有限公司 Video data processing method, electronic device and readable storage medium

Also Published As

Publication number Publication date
JP7229715B2 (en) 2023-02-28
JP2023017051A (en) 2023-02-02
JP7490741B2 (en) 2024-05-27

Similar Documents

Publication Publication Date Title
KR102507711B1 (en) Medical image processing apparatus, medical image processing method, and computer readable medium
JP7434447B2 (en) Medical image processing device, medical image processing method and program
WO2020183799A1 (en) Medical image processing device, medical image processing method, and program
JP7406892B2 (en) Medical image processing device, medical image processing method and program
WO2020075345A1 (en) Medical image processing device, medical image processing method, and program
JP7229881B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, TRAINED MODEL, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7269413B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
JP7305401B2 (en) Image processing device, method of operating image processing device, and program
JP7490741B2 (en) Medical image processing device, medical image processing method and program
JP2020103880A (en) Image processing device, image processing method, and program
JP7362403B2 (en) Image processing device and image processing method
WO2020183791A1 (en) Image processing device and image processing method
JP2011019644A (en) Image processing apparatus, image processing method, and program
WO2020138128A1 (en) Image processing device, image processing method, and program
JP2024025807A (en) Medical image processing device, medical image processing method and program
US20240321435A1 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
WO2020049828A1 (en) Image processing apparatus, image processing method, and program
JP2023010308A (en) Image processing device and image processing method
JP2022121202A (en) Image processing device and image processing method
JP2014050754A (en) Image processor, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221209

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221219

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R151 Written notification of patent or utility model registration

Ref document number: 7229715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151